Η Google προωθεί τα διάφορα μοντέλα Gemini AI τις τελευταίες εβδομάδες. Σήμερα, αποκάλυψε ένα νέο και μικρότερο μοντέλο για έναν συγκεκριμένο τύπο χρήστη. Το νέο μοντέλο ονομάζεται Gemma και απευθύνεται σε ερευνητές που θέλουν να χρησιμοποιήσουν ένα τοπικό μοντέλο αντί να έχουν πρόσβαση σε AI μέσω του cloud.
Η Google αναφέρει σε ανάρτηση στο blog της ότι το Gemma αναπτύχθηκε από την DeepMind που εδρεύει στο Ηνωμένο Βασίλειο μαζί με άλλες ομάδες της εταιρείας. Το Gemma μοιράζεται κάποια "τεχνικά στοιχεία και στοιχεία υποδομής" με τον μεγαλύτερο αδελφό του, το Gemini. Υπάρχουν δύο συγκεκριμένα μοντέλα διαθέσιμα: Gemma 2B και Gemma 7B. Οι ερευνητές μπορούν να έχουν πρόσβαση σε "προ-εκπαιδευμένα και συντονισμένα με οδηγίες μοντέλα Gemma" που μπορούν να τρέξουν τοπικά στον υπολογιστή ή το laptop τους, καθώς και στο cloud. Θα είναι βελτιστοποιημένα για να τρέχουν σε GPUs της Nvidia, καθώς και σε TPUs (Tensor Processing Units) του Google Cloud.
Η Google ισχυρίζεται ότι ενώ τα Gemma 2B και 7B είναι τεχνικά μικρότερα σε σύγκριση με άλλα μεγάλα γλωσσικά μοντέλα (LLM), ξεπερνούν "σημαντικά μεγαλύτερα μοντέλα σε βασικά benchmarks", συμπεριλαμβανομένου του Llama 2 της Meta.
Η Google καθιστά το Gemma διαθέσιμο δωρεάν από τώρα για τους ερευνητές στην πλατφόρμα Kaggle.
[Google]