E’ la proposta del primo quadro giuridico per governare uno dei settori del futuro, l’intelligenza artificiale. Obiettivo, garantire la sicurezza e i diritti fondamentali delle persone e delle imprese, rafforzando nel contempo gli investimenti e l’innovazione in tutta la Ue per questo comparto cui e’ legata la stessa trasformazione del modello di produzione e di convivenza civile. Non solo: e’ un settore nel quale la Ue vuole giocare a pieno titolo la partita degli standard globali per aprire – lo ha detto la commissaria Margrethe Vestager – ‘la strada alla tecnologia etica in tutto il mondo e garantire che la Ue rimanga competitiva’. La Commissione ha reso nota la proposta di regolamento che prevede disposizioni per affrontare i rischi specifici posti dai sistemi di intelligenza artificiale e stabilire gli standard piu’ elevati. Inoltre ha proposto un piano per il coordinamento tra gli Stati in cui vengono delineati i cambiamenti necessarie e gli investimenti sul piano nazionale per assicurare all’Europa una posizione di leadership nello sviluppo di dell’intelligenza artificiale.
Il commissario per il mercato interno Thierry Breton, presentando le proposte, ha indicato che l’intelligenza artificiale ‘e’ un mezzo, non un fine. Esiste da decenni, ma ha raggiunto nuove capacita’ alimentate dalla potenza di calcolo. Cio’ offre un immenso potenziale in aree diverse come la salute, i trasporti, l’energia, l’agricoltura, il turismo o la sicurezza informatica’. Tuttavia presenta anche una serie di rischi, che vanno gestiti da vari punti di vista. L’ambizione europea e’ ‘rafforzare la posizione dell’Europa come hub globale di eccellenza dal laboratorio al mercato, garantire che siano rispettati i nostri valori e le nostre regole e sfruttare il potenziale per uso industriale” La Commissione propone un approccio basato sul rischio per gestire innanzitutto quello inaccettabile: i sistemi di intelligenza artificiale considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Cio’ include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti (ad esempio giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi dei minori) e sistemi che consentono il “punteggio sociale” da parte dei governi. I sistemi di intelligenza artificiale ad alto rischio includono quelli applicati in infrastrutture critiche (trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini; la formazione scolastica o professionale, che puo’ determinare l’accesso all’istruzione e al percorso professionale della vita individuale (punteggio agli esami); componenti di sicurezza dei prodotti (applicazioni nella chirurgia assistita da robot); occupazione, gestione dei lavoratori e accesso al lavoro autonomo (software per procedure di reclutamento); servizi privati e pubblici essenziali (valutazione del credito che nega ai cittadini l’opportunita’ di ottenere un prestito); applicazione della legge che puo’ interferire con i diritti fondamentali delle persone (valutazione dell’affidabilita’ delle prove); gestione della migrazione, dell’asilo e dei controlli alle frontiere (verifica dell’autenticita’ dei documenti di viaggio); amministrazione della giustizia e processi democratici (applicazione della legge a un insieme concreto di fatti). Tali sistemi ad alto rischio saranno soggetti a severi obblighi prima di poter essere immessi sul mercato: occorrono adeguati sistemi di valutazione e mitigazione del rischio; alta qualita’ dei dati che alimentano il sistema per minimizzare i rischi e risultati discriminatori; registrazione delle attivita’ per garantire la tracciabilita’ dei risultati; documentazione dettagliata sul sistema e i suoi scopi; informazione chiara e adeguata all’utente; misure di sorveglianza umana per ridurre al minimo il rischio; elevato livello di robustezza, sicurezza e precisione.
In particolare, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a severi requisiti. Il loro uso dal vivo in spazi accessibili al pubblico a fini di contrasto e’ ‘in linea di principio vietato’. Le eccezioni ristrette sono rigorosamente definite e regolamentate (ad esempio se strettamente necessarie per cercare un bambino scomparso, prevenire una minaccia terroristica specifica e imminente o rilevare, individuare, identificare o perseguire l’autore o un sospettato di reato grave). Tale utilizzo e’ subordinato all’autorizzazione di un organo giudiziario o altro organo indipendente e ad opportuni limiti di tempo, portata geografica e di ricerca nelle banche dati.
Per il rischio limitato si prevedono obblighi di trasparenza specifici: quando si utilizzano sistemi di intelligenza artificiale come i ‘chatbot’ (software progettato per simulare una conversazione con un essere umano) gli utenti devono essere consapevoli che stanno interagendo con una macchina in modo che possano prendere una decisione informata per continuare o fare un passo indietro. Per i rischi minimi, viene consentito l’uso gratuito di applicazioni come videogiochi abilitati per intelligenza artificiale o filtri antispam. La stragrande maggioranza dei sistemi di intelligenza artificiale rientra in questa categoria. Il progetto di regolamento non interviene su questo perche’ si tratta di rischi minimi o nulli per i diritti o la sicurezza dei cittadini.
Per la ‘governance’, la Commissione propone che le autorita’ nazionali competenti di vigilanza del mercato sovrintendano alle nuove norme, mentre la creazione di un comitato europeo per l’intelligenza artificiale ne facilitera’ l’attuazione e guidera’ lo sviluppo di standard. Inoltre, vengono proposti codici di condotta volontari non ad alto rischio, nonche’ sandbox normativi per facilitare l’innovazione responsabile (si tratta di ambiente di prova isolato all’interno del sistema informatico in modo che un programma esegue determinate azioni senza causare eventuali danni all’hardware).
Il piano di coordinamento dell’azione degli Stati aggiornato (venne pubblicato nel 2018) propone un’azione per accelerare gli investimenti che puo’ avvantaggiare la ripresa facendo perno sui fondi stanziati attraverso i programmi Europa digitale e Orizzonte Europa, nonche’ lo strumento per la ripresa e la resilienza che prevede un obiettivo di spesa digitale del 20%, e i programmi della politica di coesione.
Tra le idee istituire un partenariato pubblico-privato per ‘passare dal laboratorio al mercato’, costruendo e mobilitando capacita’ di ricerca, sviluppo e innovazione e mettendo a disposizione delle pmi e delle pubbliche amministrazioni strutture di test e sperimentazione nonche’ centri di innovazione digitale; sostenere tirocini, reti di dottorato e borse di studio post-dottorato nelle aree digitali; affermare una leadership strategica nei settori e nelle tecnologie ad alto impatto, compreso l’ambiente, concentrandosi sul contributo alla produzione sostenibile, alla salute espandendo lo scambio transfrontaliero di informazioni, nonche’ al settore pubblico, alla mobilita’, agli affari interni e all’agricoltura e alla robotica.
Prima di immettere un sistema di intelligenza artificiale ad alto rischio o di metterlo comunque in servizio, i fornitori devono sottoporlo a una valutazione di conformita’ per dimostrare che e’ conforme ai requisiti obbligatori (qualita’ dei dati, documentazione e tracciabilita’, trasparenza, controllo umano, accuratezza e robustezza). Nel caso in cui il sistema stesso o il suo scopo subiscano modifiche sostanziali, la valutazione dovra’ essere ripetuta. I fornitori di applicazioni non ad alto rischio possono garantire che il loro sistema sia affidabile sviluppando i propri codici di condotta volontari o aderendo a codici di condotta adottati da altre associazioni rappresentative.
L’approccio europeo ai nuovi macchinari prevede di coprire una vasta gamma di prodotti di consumo e professionali, dai robot ai tosaerba, alle stampanti 3D, alle macchine edili, alle linee di produzione industriale. Il nuovo regolamento (direttiva macchinari) definira’ i requisiti di sicurezza.
Mentre il regolamento sull’intelligenza artificiale affrontera’ i rischi per la sicurezza dei sistemi di intelligenza artificiale, il nuovo regolamento sulle macchine garantira’ l’integrazione sicura del sistema di intelligenza artificiale nel macchinario complessivo. Le aziende dovranno eseguire una sola valutazione di conformita’. Il nuovo regolamento sulle macchine rispondera’ alle esigenze del mercato apportando maggiore chiarezza giuridica alle disposizioni attuali, semplificando l’onere amministrativo e i costi per le aziende consentendo formati digitali per la documentazione e adattando le tariffe di valutazione della conformita’ per le pmi. Attualmente hanno definito una strategia nazionale sull’intelligenza artificiale 19 Stati Ue: Bulgaria, Cipro, Cechia, Danimarca, Estonia, Finlandia, Francia, Germania, Ungheria, Lettonia, Lituania, Lussemburgo, Malta, Olanda, Portogallo, Slovacchia, Svezia, Spagna e Polonia) piu’ la Norvegia.