Meta Llama 3.1: Επίσημα το μεγαλύτερο και ικανότερο AI μοντέλο ανοικτού κώδικα
Η Meta ανακοίνωσε τη νέα οικογένεια AI μοντέλων Llama 3.1, η οποία περιλαμβάνει τρία μοντέλα Llama 3.1 8B, Llama 3.1 70B και Llama 3.1 405B. Τα τρία μοντέλα διαθέτουν βελτιωμένο μήκος πλαισίου 128K και η εταιρεία επιτρέπει πλέον στους προγραμματιστές να χρησιμοποιούν τα αποτελέσματα τους για να βελτιώσουν άλλα μοντέλα.
Η Meta αξιολόγησε την απόδοση της οικογένειας μοντέλων Llama 3.1 σε πάνω από 150 σύνολα δεδομένων αναφοράς και διεξήγαγε επίσης αρκετές συγκριτικές αξιολογήσεις με άλλα ανταγωνιστικά μοντέλα σε σενάρια του πραγματικού κόσμου.
Σύμφωνα με τα αποτελέσματα, το Llama 3.1 405B είναι ανταγωνιστικό με κορυφαία μοντέλα βάσης, συμπεριλαμβανομένων των GPT-4, GPT-4o και Claude 3.5 Sonnet. Κατά συνέπεια, η Meta ισχυρίζεται ότι το Llama 3.1 405B είναι το μεγαλύτερο και πιο ικανό ανοιχτά διαθέσιμο μοντέλο θεμελίωσης στον κόσμο. Επίσης, τα μικρότερα μοντέλα Llama 3.1 είναι ανταγωνιστικά τόσο με κλειστά όσο και με ανοιχτά μοντέλα που έχουν παρόμοιο μέγεθος.
Η νέα οικογένεια μοντέλων Llama 3.1 μπορεί πλέον να χρησιμοποιηθεί από προγραμματιστές μέσω των AWS, NVIDIA, Databricks, Groq, Dell, Azure και Google Cloud. Το Llama 3.1 405B είναι διαθέσιμο μέσω του Models-as-a-Service του Azure AI ως serverless API endpoint. Επίσης, οι τελευταίες βελτιωμένες εκδόσεις των Llama 3.1 8B και Llama 3.1 70B είναι πλέον διαθέσιμες στον κατάλογο μοντέλων Azure AI.
Ο Mark Zuckerberg έγραψε τα εξής σχετικά με την έκδοση Llama 3.1:
Σήμερα, αρκετές εταιρείες τεχνολογίας αναπτύσσουν κορυφαία κλειστά μοντέλα. Αλλά ο ανοιχτός κώδικας κλείνει γρήγορα το χάσμα. Πέρυσι, το Llama 2 ήταν συγκρίσιμο μόνο με μια παλαιότερη γενιά μοντέλων. Φέτος, το Llama 3 είναι ανταγωνιστικό με τα πιο προηγμένα μοντέλα και μάλιστα προηγείται σε ορισμένους τομείς. Από το επόμενο έτος, αναμένουμε ότι τα μελλοντικά μοντέλα Llama θα γίνουν τα πιο προηγμένα στον κλάδο. Αλλά ακόμη και πριν από αυτό, το Llama είναι ήδη πρωτοπόρο σε θέματα ανοικτότητας, δυνατότητας τροποποίησης και οικονομικής αποδοτικότητας.
[via]