Nella giornata di ieri, martedì 26 novembre, l’Università degli Studi di Roma La Sapienza ha annunciato il rilascio di Minerva 7B, la più recente versione dell’omonima serie di Large Language Model addestrati da zero soprattutto in lingua italiana.

Si tratta di un modello linguistico simile a Modello Italia 9B di iGenius, “un punto di partenza per sviluppare soluzioni trasparenti e sicure, con l’obiettivo di ampliare le collaborazioni con editori ed enti pubblici” ha spiegato il professor Roberto Navigli, alla guida del progetto di sviluppo di Minerva 7B.

Cos’è Minerva 7B e che ha di particolare

Minerva 7B è un Large Language Model (in sigla LLM, ovvero un modello linguistico di grandi dimensioni) dotato di 7 miliardi di parametri, come suggerisce “7B”. La precedente versione ne aveva 3 miliardi, il che indica un notevole passo in avanti in termini di capacità di memorizzazione e rielaborazione dei testi. Per inciso, i parametri sono i “pesi” che i modelli linguistici usano per fare previsioni e prendere decisioni. Ne consegue che più il numero di parametri è elevato e maggiore è l’efficacia dei risultati, e quindi inferiore il margine di errore, semplificando.

Sono invece più di 2 trilioni (migliaia di miliardi) i token di Minerva 7B, corrispondenti a circa 1,5 trilioni di parole (i token sono parole o gruppi di caratteri, la cui lunghezza varia da un singolo carattere a un’intera parola). La Sapienza ha fatto sapere che per l’addestramento sono state usate istruzioni in italiano e un processo di instruction tuning, una tecnica che permette di fornire al modello la capacità di seguire istruzioni e di colloquiare con l’utente in lingua italiana, interpretando meglio le richieste e generando risposte più pertinenti, coerenti e appropriate.

È una tecnica che dovrebbe quindi limitare il più possibile la generazione di contenuti di tipo discriminatorio, sessuale e volgare oltre a ridurre il rischio delle cosiddette allucinazioni, le imprecisioni e gli errori, spesso grossolani, derivati dal fatto che le intelligenze artificiali rispondono alle domande pur non comprendendo il contenuto delle richieste e delle risposte che danno.

I dati con cui Minerva 7B è stato addestrato sono tutti open source (Wikipedia, articoli di giornale, libri, documenti legali e contenuti web) e composti da un insieme di testi in lingua inglese e italiana, soprattutto su quest’ultima. “I dati in inglese vengono utilizzati per fornire ulteriore contesto e diversità al processo di formazione” si legge nel comunicato stampa di Sapienza NLP, il gruppo di ricerca dell’Università degli Studi la Sapienza che ha realizzato Minerva 7B, gruppo guidato dal professor Navigli e in collaborazione con FAIR (Future Artificial Intelligence Research), la fondazione italiana sull’intelligenza artificiale che gestisce i fondi del PNRR per finanziare la ricerca e le imprese italiane impegnate e interessate sul tema.

Leonardo supercomputer Cineca

Ha contribuito nel progetto anche il consorzio interuniversitario italiano CINECA, che ha messo a disposizione Leonardo, supercomputer utilizzato anche per sviluppare Italia, il Foundation Large Language Model nazionale di iGenius. Come quest’ultimo, anche Minerva 7B sarà utile per le Pubbliche Amministrazioni e in altri settori istituzionali, modello ancora sperimentale che è tuttavia già accessibile (per i maggiori di 14 anni) e utilizzabile registrando un account o accedendo con le proprie credenziali Open WebUI.

Funziona come un chatbot, alla stregua di ChatGPT di OpenAI o Google Gemini ma solo in versione testuale e senza accesso a internet. Nelle prossime settimane si potrà anche scaricare e usare sulla piattaforma open source Hugging Face, ma per ora è utilizzabile solo accedendo a minerva-llm.org.