Nell’ambito dell’Intelligenza Artificiale, l’Italia ha raggiunto risultati importanti. Il modello linguistico di grandi dimensioni Vitruvian-1, sviluppato da ASC27 guidata da Nicola Grandis, si aggiudica il quarto posto sul benchmark MATH-500. Di cosa si tratta?
La realizzazione del Vitruvian-1 rappresenta un punto di svolta per l’ecosistema tecnologico nazionale, colmando il divario tra le soluzioni IA internazionali e lo sviluppo di tecnologie linguistiche autoctone. Il modello, attualmente alla quinta fase di addestramento, si distingue per la capacità di elaborare dati in settori altamente specialistici, tra cui medicina, diritto e strategie militari, con un livello di precisione e contestualizzazione superiore rispetto ai competitor internazionali.
Questo modello linguistico di grandi dimensioni si basa su un’architettura transformer di ultima generazione, con un’ottimizzazione del training specificamente calibrata per la lingua italiana. L’addestramento è stato effettuato utilizzando dataset curati in italiano, garantendo una comprensione più profonda delle sfumature linguistiche rispetto ai modelli generalisti anglofoni. Uno degli aspetti più innovativi riguarda il ragionamento matematico e simbolico, in cui Vitruvian-1 ha ottenuto un punteggio di 93,60 su MATH-500, un benchmark di riferimento per la valutazione delle capacità logico-matematiche dei LLM.
Questo risultato pone il modello italiano tra i più avanzati nel panorama dell’IA generativa, competendo con soluzioni sviluppate da colossi come OpenAI Anthropic e Google DeepMind. Dal punto di vista computazionale, il modello è stato ottimizzato per ridurre il consumo energetico e migliorare la scalabilità, con tecniche di quantizzazione e pruning, garantendo efficienza operativa anche su infrastrutture hardware non proprietarie. L’addestramento sfrutta cluster GPU ad alte prestazioni, bilanciando il rapporto tra dimensione del modello e costo computazionale. A differenza di modelli globali come GPT-4, Claude 2 o Gemini, che sono stati addestrati principalmente su dati anglofoni e successivamente adattati ad altre lingue, Vitruvian-1 nasce con un focus nativo sull’italiano, evitando le distorsioni e le perdite semantiche tipiche dei modelli multi-lingua.
Questa caratteristica lo rende particolarmente adatto a settori con terminologie complesse, come la giurisprudenza e la sanità, in cui la precisione terminologica è essenziale. Inoltre, la sua progettazione open domain consente di essere integrato in ambienti aziendali e istituzionali con una maggiore flessibilità rispetto a modelli proprietari chiusi. Rispetto a soluzioni europee come Mistral 7B o Aleph Alpha, Vitruvian-1 si distingue per un approccio più verticale in ambiti specialistici, con un’attenzione particolare alla sicurezza e alla rispondenza alle normative italiane ed europee in materia di dati. L’obiettivo dichiarato di ASC27 è consolidare Vitruvian-1 come modello di riferimento per l’IA in Italia, promuovendo un’alternativa nazionale ai giganti USA e cinesi.