Nuova generazione di modelli aperti di Google per assistere sviluppatori e ricercatori nella creazione di un'intelligenza artificiale responsabile.
L'ascesa di Google verso il predominio anche nel campo dell'intelligenza artificiale non conosce sosta. Dopo la presentazione di Gemini 1.5, il gigante californiano annuncia oggi Gemma, nuova famiglia di modelli AI aperti e leggeri a favore di sviluppatori e ricercatori.
Google annuncia Gemma
Gemma è una famiglia di modelli aperti leggeri e all'avanguardia, costruiti con la stessa ricerca e tecnologia utilizzata per creare i modelli Gemini. Sviluppato da Google DeepMind e altri team di Google, Gemma si ispira ai Gemelli e il nome riflette il latino gemma, che significa "pietra preziosa". Insieme al peso dei nostri modelli, stiamo anche rilasciando strumenti per supportare l'innovazione degli sviluppatori, promuovere la collaborazione e guidare l'uso responsabile dei modelli Gemma.
Gemma è disponibile in tutto il mondo a partire da oggi. Ecco i dettagli chiave da sapere:
- Stiamo rilasciando i pesi dei modelli in due misure: Gemma 2B e Gemma 7B. Ogni dimensione viene rilasciata con varianti pre-addestrate e ottimizzate per le istruzioni.
- Un nuovo toolkit di intelligenza artificiale generativa responsabile fornisce indicazioni e strumenti essenziali per creare applicazioni di intelligenza artificiale più sicure con Gemma.
- Forniamo toolchain per l'inferenza e la messa a punto supervisionata (SFT) in tutti i principali framework: JAX, PyTorch e TensorFlow tramite Keras 3.0 nativo.
- I notebook Colab e Kaggle pronti all'uso, insieme all'integrazione con strumenti popolari come Hugging Face, MaxText, NVIDIA NeMo e TensorRT-LLM, semplificano l'avvio con Gemma.
- I modelli Gemma pre-addestrati e ottimizzati con le istruzioni possono essere eseguiti sul tuo laptop, workstation o Google Cloud con una facile implementazione su Vertex AI e Google Kubernetes Engine (GKE).
- L'ottimizzazione su più piattaforme hardware AI garantisce prestazioni leader del settore, tra cui GPU NVIDIA e Google Cloud TPU.
- I termini di utilizzo consentono un utilizzo e una distribuzione commerciale responsabile per tutte le organizzazioni, indipendentemente dalle dimensioni.
Prestazioni all'avanguardia in termini di dimensioni
I modelli Gemma condividono componenti tecnici e infrastrutturali con Gemini, il nostro modello di intelligenza artificiale più grande e capace oggi ampiamente disponibile. Ciò consente a Gemma 2B e 7B di ottenere le migliori prestazioni della categoria per le loro dimensioni rispetto ad altri modelli aperti. Inoltre, i modelli Gemma possono essere eseguiti direttamente sul laptop o sul computer desktop dello sviluppatore. In particolare, Gemma supera modelli significativamente più grandi rispetto ai parametri di riferimento chiave, aderendo al tempo stesso ai nostri rigorosi standard per risultati sicuri e responsabili. Consulta la relazione tecnica per dettagli su prestazioni, composizione del set di dati e metodologie di modellazione.
Responsabile fin dalla progettazione
Gemma è progettata tenendo in primo piano i nostri principi di intelligenza artificiale. Per rendere i modelli pre-addestrati Gemma sicuri e affidabili, abbiamo utilizzato tecniche automatizzate per filtrare determinate informazioni personali e altri dati sensibili dai set di addestramento. Inoltre, abbiamo utilizzato un'ampia messa a punto e l'apprendimento di rinforzo dal feedback umano (RLHF) per allineare i nostri modelli ottimizzati per le istruzioni con comportamenti responsabili. Per comprendere e ridurre il profilo di rischio dei modelli Gemma, abbiamo condotto valutazioni approfondite tra cui red-teaming manuale, test contraddittori automatizzati e valutazioni delle capacità del modello per attività pericolose. Queste valutazioni sono delineate nella nostra Scheda Modello.
Insieme a Gemma, stiamo inoltre rilasciando un nuovo Responsible Generative AI Toolkit per aiutare gli sviluppatori e i ricercatori a dare priorità alla creazione di applicazioni AI sicure e responsabili. Il kit di strumenti include:
- Classificazione di sicurezza: forniamo una nuova metodologia per creare robusti classificatori di sicurezza con esempi minimi.
- Debug: uno strumento di debug del modello ti aiuta a indagare sul comportamento di Gemma e ad affrontare potenziali problemi.
- Linee guida: puoi accedere alle best practice per gli sviluppatori di modelli in base all'esperienza di Google nello sviluppo e nell'implementazione di modelli linguistici di grandi dimensioni.
Ottimizzato su framework, strumenti e hardware
Puoi ottimizzare i modelli Gemma sui tuoi dati per adattarli a esigenze applicative specifiche, come il riepilogo o la generazione aumentata con recupero (RAG). Gemma supporta un'ampia varietà di strumenti e sistemi:
- Strumenti multi-framework: porta il tuo framework preferito, con implementazioni di riferimento per l'inferenza e la messa a punto su Keras 3.0 multi-framework, PyTorch nativo, JAX e Hugging Face Transformers.
- Compatibilità tra dispositivi: i modelli Gemma funzionano sui tipi di dispositivi più diffusi, tra cui laptop, desktop, IoT, dispositivi mobili e cloud, consentendo funzionalità AI ampiamente accessibili.
- Piattaforme hardware all'avanguardia: abbiamo collaborato con NVIDIA per ottimizzare Gemma per le GPU NVIDIA , dal data center al cloud fino ai PC AI RTX locali, garantendo prestazioni leader del settore e integrazione con tecnologia all'avanguardia.
- Ottimizzato per Google Cloud: Vertex AI fornisce un ampio set di strumenti MLOps con una gamma di opzioni di ottimizzazione e implementazione con un clic utilizzando ottimizzazioni di inferenza integrate. La personalizzazione avanzata è disponibile con gli strumenti Vertex AI completamente gestiti o con GKE autogestito, inclusa l'implementazione in un'infrastruttura conveniente su GPU, TPU e CPU da entrambe le piattaforme.
Crediti gratuiti per ricerca e sviluppo
Gemma è pensato per la comunità aperta di sviluppatori e ricercatori che alimentano l'innovazione dell'intelligenza artificiale. Puoi iniziare a lavorare con Gemma oggi stesso utilizzando l'accesso gratuito a Kaggle, un livello gratuito per i notebook Colab e $300 in crediti per i nuovi utenti di Google Cloud. I ricercatori possono anche richiedere crediti Google Cloud fino a 500.000 dollari per accelerare i loro progetti.
Per iniziare
Puoi scoprire di più su Gemma e accedere alle guide rapide su ai.google.dev/gemma.