E-Mail: [email protected]
- 500 miliardi di parole utilizzate per addestrare Minerva, equivalente a oltre 5 milioni di romanzi.
- Minerva rappresenta una trasformazione nel campo dell'intelligenza artificiale grazie alla sua capacità di comprendere e generare il linguaggio umano in italiano.
- Le tecniche di apprendimento per rinforzo e non supervisionato potrebbero portare a modelli IA capaci di acquisire conoscenze in modo autonomo.
Un gruppo di ricercatori italiani del gruppo di ricerca Natural Language Processing (Nlp) dell’Università Sapienza di Roma ha realizzato Minerva, la prima famiglia di Large Language Model addestrati da zero su contenuti in lingua italiana. Il progetto, sviluppato all’interno di Fair – Future Artificial Intelligence Research, ha potuto contare sulla potenza di calcolo del supercomputer Leonardo del Cineca.
La caratteristica distintiva dei modelli Minerva è il fatto di essere stati costruiti e addestrati da zero usando testi ad accesso aperto, al contrario dei modelli italiani esistenti ad oggi, che sono basati sull’adattamento di modelli come LLaMA e Mistral, i cui dati di addestramento sono tuttora sconosciuti, come spiega Roberto Navigli, professore ordinario presso il Dipartimento di Ingegneria Informatica, Automatica e Gestionale della Sapienza di Roma e responsabile del gruppo di ricerca.
500 miliardi di parole per addestrare Minerva
Ogni modello Minerva è stato addestrato su un vasto insieme di fonti italiane e inglesi online e documentate, per un totale di oltre 500 miliardi di parole, l’equivalente di oltre 5 milioni di romanzi. Questa mole di dati ha permesso di creare modelli che variano per dimensione e capacità computazionale e che possono contare su miliardi di parametri.
Per il momento, i modelli Minerva sono stati resi disponibili in anteprima per la sola comunità scientifica del progetto FAIR, ma già nelle prossime settimane è previsto il rilascio pubblico nella loro versione più evoluta, che comprenderà la possibilità di conversare con l’IA in italiano.
Trasparenza e flessibilità per molteplici applicazioni
La trasparenza nell’addestramento dei modelli Minerva non solo rafforza la fiducia degli utenti, della comunità scientifica, degli enti pubblici e dell’industria, ma stimola anche continui miglioramenti ed è un primo passo verso processi di verifica rigorosi per garantire la conformità a leggi e regolamenti.
La flessibilità di questi modelli li rende una risorsa utile per ricercatori, aziende e sviluppatori interessati a sfruttare le potenzialità dell’intelligenza artificiale in diversi campi, dalla comprensione del linguaggio naturale alla generazione di testo, dalla traduzione automatica all’assistenza clienti automatizzata.
Il gruppo di ricerca è impegnato anche nella creazione di nuovi benchmark di valutazione, strumenti sviluppati ad hoc per testare le capacità dei modelli linguistici su larga scala di rispettare e valorizzare anche le sfumature culturali e linguistiche della lingua italiana.
Bullet Executive Summary
Minerva rappresenta un importante passo avanti nello sviluppo di modelli di intelligenza artificiale generativa in lingua italiana. Grazie all’addestramento trasparente su un’enorme mole di dati testuali e alla flessibilità dei modelli, questa famiglia di LLM potrà trovare applicazione in molteplici settori.
È importante sottolineare come l’apprendimento automatico (machine learning), che sta alla base di questi modelli, si basi sull’analisi di grandi quantità di dati per identificare pattern e relazioni. Nel caso specifico del natural language processing, i modelli imparano a comprendere e generare il linguaggio umano analizzando miliardi di parole e frasi.
Guardando al futuro, l’evoluzione di questi modelli potrebbe portare allo sviluppo di sistemi di intelligenza artificiale sempre più sofisticati, in grado di comprendere non solo il significato letterale delle parole, ma anche il contesto, le sfumature e le intenzioni del linguaggio umano. Tecniche avanzate come l’apprendimento per rinforzo (reinforcement learning) e l’apprendimento non supervisionato (unsupervised learning) potrebbero consentire ai modelli di acquisire conoscenze e abilità in modo sempre più autonomo e di generalizzare le loro capacità a domini sempre più ampi.
Questi sviluppi pongono interrogativi cruciali sul rapporto tra intelligenza artificiale e società: come possiamo garantire che questi potenti strumenti siano utilizzati in modo etico e responsabile? Come possiamo assicurarci che i benefici dell’IA siano equamente distribuiti e che nessuno venga lasciato indietro? Sono domande che richiederanno un impegno congiunto di ricercatori, decisori politici e cittadini per trovare risposte adeguate.