Yann LeCun, capo scienziato dell’intelligenza artificiale di Meta, ha criticato le definizioni prevalenti di intelligenza artificiale generale (Agi), sostenendo che il continuo ampliamento dei modelli linguistici di grandi dimensioni basati su testo non sarà sufficiente.
Durante la conferenza CES 2025 di Las Vegas, il vincitore del premio Nobel per l’informatica ha espresso il suo disaccordo con l’affermazione del ceo di OpenAI Sam Altman, secondo cui i suoi team saprebbero già come realizzare un’intelligenza artificiale generale e starebbero guardando già alla superintelligenza.
Secondo LeCun, i modelli linguistici di grandi dimensioni (Llm) non sono in grado di raggiungere l’Agi. Gli Llm, infatti, sono addestrati a guardare tutto il testo possibile per completare una frase e poi scegliere il testo migliore. Tuttavia, il cervello umano non guarda solo il testo, ma tutti i tipi di modalità. Inoltre, i sistemi di intelligenza artificiale ora sono per lo più costituiti dalla cosiddetta “intelligenza artificiale ristretta”, come si legge su pymnts.com, che può svolgere determinati compiti specifici in modo estremamente efficace.
Un altro problema è che gli Llm hanno fatto progressi in termini di performance attraverso la scalabilità, che include l’addestramento su quantità di dati sempre maggiori. Ma ora le leggi sulla scalabilità stanno raggiungendo un punto di rendimenti decrescenti.
A ogni modo, lo scienziato Yann LeCun si è mostrato fiducioso nei progressi dei robot alimentati dall’intelligenza artificiale, a causa dell’ascesa di modelli di mondo generativi che creano mondi virtuali in cui i robot possono allenarsi. È meno costoso e meno rischioso per le aziende rispetto all’addestramento dei robot nel mondo fisico.