Un gruppo di parlamentari europei coinvolti nei negoziati sulla legge europea sull’intelligenza artificiale, tra cui il relatore dell’AI Act Brando Benifei, ha inviato una lettera alla vice presidente della Commissione europea, Henna Virkkunen, esprimendo “profonda preoccupazione” riguardo al codice di buone pratiche sull’IA destinato all’uso generale (come il GPT-4 di OpenAI), la cui versione finale è prevista per maggio, così come si legge sull’agenzia di stampa Ansa.
Il codice, che dovrebbe precisare le norme dell’AI Act applicabili ai fornitori di modelli di IA per scopi generali, si concentrerà in particolare su quelli che presentano rischi sistemici.
Secondo gli eurodeputati, le prime bozze del codice sembrano indebolire le disposizioni dell’AI Act riguardanti i modelli di IA a rischio sistemico, arrivando a “reinterpretare completamente e limitare un testo giuridico che era stato concordato dai co-legislatori”, attraverso l’introduzione di un codice di buone pratiche. Gli europarlamentari definiscono questa mossa “pericolosa e antidemocratica”, poiché crea incertezze legali e sembra favorire troppo le grandi aziende tecnologiche.
Stando all’AI Act, i fornitori di modelli di IA ad alto rischio devono valutare e ridurre i rischi, segnalare incidenti gravi, effettuare test avanzati e garantire la sicurezza informatica dei loro modelli. Nella lettera, i parlamentari lamentano che la “valutazione e la riduzione dei rischi per i diritti fondamentali e la democrazia siano ora diventate completamente facoltative“, un cambiamento che ritengono contrario all’intento originale dell’accordo raggiunto in trilogo. “I rischi per i diritti fondamentali e la democrazia”, scrivono, “sono rischi sistemici che i fornitori di IA con il maggiore impatto devono obbligatoriamente valutare e mitigare“.