di Fulvio Berghella
La difficoltà di definire l’intelligenza
Il concetto di intelligenza artificiale (IA), in assenza di una chiara e comprensibile definizione, si presta ad equivoci interpretativi, fantasiose aspettative, ed errata valutazione dei rischi connessi. L’IA, in estrema sintesi, comprende l’uso della tecnologia digitale per creare sistemi in grado di svolgere compiti per i quali è comunemente ritenuta necessaria l’intelligenza umana. Ma anche l’intelligenza umana non è mai stata ben definita, e può avere diverse accezioni. In psicologia comparata e differenziale, l’intelligenza, opposta alle capacità istintive o acquisite, indica con varie specificazioni la capacità di risolvere problemi e di trovare soluzioni per situazioni nuove, di qualsiasi ordine. Le recenti tecnologie possiedono capacità analoghe, pur se, allo stato, senza il concorso delle emozioni, della coscienza, dell’istinto, delle pulsioni, delle intuizioni. La nozione di IA dovrebbe essere definita in maniera chiara, al fine di garantire la certezza del diritto, prevedendo allo stesso tempo la flessibilità necessaria per non limitare i futuri sviluppi
tecnologici. Le attuali e più diffuse tecnologie d’IA basate sull’apprendimento automatico, (machine learning), imparano a svolgere compiti con l’aiuto umano; in altri sistemi, maggiormente complessi, l’apprendimento è più approfondito (deep learning) e consente alle macchine di apprendere in autonomia.
In relazione al metodo utilizzato, l’apprendimento può essere: supervisionato, non supervisionato e con rinforzo. Nel primo caso, la macchina compie associazioni per similitudine, con un approccio simile a quello della prima infanzia umana, in tal modo il sistema potrà procedere per analogie, come nel caso degli assistenti vocali che con approssimazioni consecutive giungono a riconoscere la voce dell’utente. Mentre, nella tecnica non supervisionata la macchina acquisisce informazioni che poi elabora in autonomia ed è in grado di proporre soluzioni (ad esempio quando su un sito Web, dopo aver cercato un prodotto, compaiono altre proposte di cose e servizi, simili o complementari a quelli selezionati).
Nell’apprendimento rinforzato la macchina impara ad interagire anche con gli stimoli dell’ambiente circostante (es. le automobili a guida autonoma).
Le soluzioni più comuni già realizzate sono programmate appositamente per lo svolgimento di mansioni specifiche (Artificial Narrow Intelligence) o generiche (Artificial General Intelligence). Per il futuro prossimo sono attesi sistemi più potenti, con un funzionamento ispirato al cervello umano, le cui capacità saranno raggiunte e, probabilmente, superate (Artificial Super Intelligence). Pertanto, la vera IA è ancora una nozione in divenire, il cui sviluppo è comunque correlato a tre componenti fondamentali: 1) i dati di input disponibili e trattabili; 2) gli algoritmi alla base del funzionamento; 3) la potenza di calcolo necessaria. I primi due aspetti sono da considerare rilevanti ai fini dell’etica, delle responsabilità, degli errori e dei rischi da evitare.
La pervasività dell’IA
In relazione al costante aumento dei brevetti depositati nei diversi paesi, nei prossimi anni, la pervasività dei sistemi di IA sarà notevole, con espansione del proprio mercato ad un tasso di crescita annuale che gli osservatori stimano tra il 19% e il 36%. L’impatto sul lavoro sarà significativo se si considera che, secondo l’OCSE, il 14% delle attuali attività svolte sono automatizzabili e che un ulteriore 32% dovrà affrontare cambiamenti sostanziali. Per il Fondo Monetario Internazionale interesserà tra il 26% e il 60% dei posti di lavoro. Già oggi nel settore finanziario l’IA è ampiamente utilizzata per il trading algoritmico, il rilevamento delle frodi, la valutazione del rischio di credito, le interazioni con i clienti. Come nei precedenti passaggi storici da un sistema produttivo ad un altro più moderno (agricoltura, industria, terziario, Internet) cesseranno alcuni mestieri e ne nasceranno dei nuovi a maggiore prevalenza di competenze e qualità intellettuali.
L’IA può trasformare molti aspetti della vita sociale e individuale aumentandone la qualità: può accelerare la ricerca scientifica in ogni campo; migliorare la sanità; ridurre il consumo di energia; rendere i trasporti, la logistica e i servizi pubblici più sicuri ed efficienti; consentire all’agricoltura l’ottimizzazione delle risorse idriche; prevedere e mitigare i cambiamenti ambientali e climatici; migliorare la gestione dell’economia e dei rischi finanziari; fornire vantaggi competitivi alle imprese; contribuire a intercettare le frodi e il cybercrime; fornire alle forze dell’ordine ulteriori strumenti di contrasto della criminalità. La maggior parte delle tecnologie di IA non comporta rischi intrinseci al sistema.
I potenziali nuovi rischi
Alcuni sistemi IA, unitamente ai vantaggi presentano potenziali rischi da mitigare, in particolare nei casi in cui l’apprendimento avvenga senza l’intervento umano. Le decisioni potrebbero basarsi su dati non affidabili (perché incompleti, errati o manomessi da attacchi informatici), o a causa dei condizionamenti e pregiudizi umani che intervengono nella progettazione (c.d. bias). I pericoli si estendono a tutti i diritti fondamentali previsti dalla Carta, con rischi per la dignità umana, della libertà, dell’uguaglianza, della democrazia e dello Stato di diritto. Negli studi europei particolari considerazioni sono rivolte alle tecniche di manipolazione, sfruttamento e controllo sociale, che potrebbero essere utilizzate per indurre le persone, anche mediante componenti subliminali (stimoli audio, grafici e video) verso comportamenti indesiderati. Precise attenzioni riguardano i sistemi di identificazione biometrica delle persone fisiche in spazi accessibili al pubblico (RBI, Remote Biometric Identification), poiché la sorveglianza nel continuo potrebbe limitare e scoraggiare l’esercizio della libertà di circolazione e di riunione. Altri rischi gravano nel settore dell’occupazione, in particolare nei sistemi per la selezione e l’assunzione delle persone, per l’adozione di decisioni in materia di promozione e cessazione del rapporto di lavoro, per l’assegnazione dei compiti, e la classificazione dei tratti e delle caratteristiche personali. Ulteriori criticità riguardano l’accesso ai servizi pubblici e privati essenziali, come nella valutazione del merito di credito o l’affidabilità creditizia delle persone fisiche, la cui esclusione potrebbe compromettere l’accesso a servizi necessari alla vita sociale, quali l’alloggio, l’elettricità, le telecomunicazioni. I rischi si estendono a tutti gli altri settori della vita sociale, al giornalismo, all’istruzione, alla gestione della sanità, alle azioni militari e alla giustizia.
Il dubbio e le criticità nella giustizia
Nell’amministrazione della giustizia potrebbe essere ostacolato l’esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare se i sistemi di IA fossero destinati ad assistere le autorità giudiziarie nelle attività di interpretazione dei fatti, del diritto, e nell’applicazione della legge.
L’utilizzo dell’IA per finalità di giustizia preoccupa i cittadini, ed è un tema molto dibattuto negli ambienti della magistratura. Studiosi del diritto sostengono che l’IA può essere utile nelle contingenze nelle quali nel decidere c’è bisogno di molte informazioni fattuali che possono essere analizzate su base logico- matematica, ma per le stesse ragioni vi è accordo sulla impossibilità ed indesiderabilità che l’IA possa esperire valutazioni su concetti quali: “oltre il ragionevole dubbio”, “elevata probabilità logica”, “dolo eventuale”, “cooperazione colposa”, ed altri.
Il tema centrale è costituito dal nesso di causalità, nel quale assume importanza non tanto il coefficiente probabilistico dell’enunciato scientifico, quanto l’assenza di plausibili ipotesi causali alternative, nonché i confronti dell’ipotesi con i fatti e tra ipotesi in competizione.
La ricerca della elevata probabilità logica dell’inferenza, della corroborazione dell’ipotesi (con indizi gravi, precisi e concordanti), del giudizio di responsabilità oltre il ragionevole dubbio, non pare adatta ad analisi numeriche tipiche dell’IA. Interessanti e consolidate riflessioni epistemologiche, originate dal pensiero neopositivista, sostengono queste tesi, peraltro ben esplicitate dalla Corte di cassazione (Sentenza 07.03.2022 n. 7355). È noto che, nelle procedure di giustizia, i dubbi che sorgono nella formazione del giudizio in assenza di prove richiedono un elevato ragionamento razionale, e se permane l’incertezza, la decisione favorisce il reo (in dùbio pro rèo). È difficile pensare che si possa far apprendere all’IA il ragionamento umano fondato sul dubbio, in assenza della sfera emozionale e della coscienza.
Il dubbio nella progettazione degli algoritmi
I risultati prodotti dall’IA, come qualunque altra procedura informatica, dipendono innanzitutto da quali dati vengono immessi nel sistema, dalla loro qualità e pertinenza. La selezione dei dati da trattare è governata dagli algoritmi, che nella pratica sono una sequenza di istruzioni scritte in un linguaggio comprensibile all’elaboratore. La progettazione di un algoritmo non è esente da errori (materiali e involontari), e risente della cultura, dell’esperienza, delle competenze specifiche, delle convinzioni e dei pregiudizi (anche inconsci) di chi li realizza. Le variabili e i pregiudizi cognitivi (c.d. bias) possono indirizzare le scelte e generare distorsioni e discriminazioni che si aggiungono ai possibili errori strutturali.
I limiti della percezione umana e le proprie convinzioni inducono ad evidenziare elementi, schemi o connessioni tra informazioni e dati che in realtà non sempre hanno una vera correlazione logica. Nelle analisi statistiche può accadere che un insieme di dati che sostengono un’ipotesi possono dimostrare un risultato opposto se aggregati diversamente. La distorsione può derivare anche dalla composizione delle basi di dati adottate che non sono state preventivamente verificate. Per mitigare i rischi è necessario mettere in dubbio le scelte progettuali fatte, in ogni fase di progettazione, addestramento, e decisione finale, al fine di verificare tutti i passaggi del processo logico adottato, verificando che i diritti fondamentali dell’uomo non siano compromessi (algoretica).
Il rischio nella Legge europea sull’IA
La proposta di Regolamento europeo, sul quale è in corso il trilogo conclusivo conseguente l’accordo di compromesso tra i paesi Ue del 9 dicembre 2023, prescrive regole diverse in funzione di quattro tipologie di rischi, definiti: inaccettabile, elevato, limitato, minimo o nullo. Sono inaccettabili e saranno vietati, tutti i sistemi di IA considerati una chiara minaccia per la sicurezza e i mezzi di sussistenza e i diritti delle persone, con eccezioni per le attività di contrasto in caso di urgenza. I sistemi di IA identificati come ad alto rischio saranno soggetti a obblighi rigorosi prima di poter essere immessi sul mercato. Le eccezioni sono rigorosamente definite e regolamentate, come nel caso dell’identificazione biometrica a distanza quando necessaria per cercare un minore scomparso, per prevenire una minaccia terroristica specifica e imminente o per individuare, identificare o perseguire un autore o sospettato di un reato grave. Il rischio limitato si riferisce ai sistemi di IA con specifici obblighi di trasparenza per consentire agli utenti la scelta consapevole di interagire o meno col sistema. La proposta consente il libero utilizzo dell’IA a rischio minimo (videogiochi abilitati o filtri antispam). Gran parte dei sistemi di IA attualmente utilizzati nell’UE rientrano in questa categoria.
I cittadini avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti. Sono previsti organismi di controllo e sanzioni significative.
Un esempio di normative e procedure responsabili
Le applicazioni d’IA, come tutte le tecnologie, non sono neutre e vanno considerate come un sistemama socio-tecnico-economico, impostato con progetti aventi precise finalità. Poiché l’etica non può essere garantita dalla Legge, è necessario un apparato normativo basato sulle responsabilità e sul dubbio come metodo. Un esempio responsabile è la normativa antiriciclaggio italiana che consente l’utilizzo di sistemi informatici per l’individuazione di operazioni sospette e per la profilazione dei rischi del cliente, a condizione che le tecnologie svolgano un ruolo di ausilio alla decisione umana, lasciando in capo alle persone la responsabilità delle scelte. Le operazioni atipiche selezionate dal sistema informatico e da esaminare ai fini del sospetto, vengono messe in dubbio e valutate, a più livelli, da persone incaricate. Esse, non costituiscono anomalie se risultano giustificate da ragioni plausibili sulla base degli elementi conoscitivi forniti dal soggetto cui è riferita l’operatività o altrimenti acquisite. Se l’evento inatteso è confermato viene segnalato alla Unità di Informazione Finanziaria come possibile sospetto. La UIF, dopo una doppia analisi decide per l’archiviazione o per l’avvio delle fasi successive. Il processo è arricchito dallo scambio informativo con la Direzione Nazionale Antimafia e Antiterrorismo e le FIU estere. Gli eventuali approfondimenti investigativi sono svolti da organismi specializzati nei settori della criminalità finanziaria, di quella organizzata e del terrorismo, quali il Nucleo Speciale di Polizia Valutaria della Guardia di Finanza e la Direzione Investigativa Antimafia. Solo dopo il completamento della fase investigativa l’evento anomalo di cui è confermato il sospetto può trasformarsi in un caso giudiziario. L’intera procedura è, perciò, caratterizzata dalla ricerca di elementi conoscitivi che confermano o smentiscono il sospetto, sollevando e risolvendo il dubbio in ogni passaggio.
Anche la progettazione degli algoritmi utilizzati dal sistema informatico che all’origine del processo seleziona le operazioni da valutare è sottoposta a preventiva sperimentazione per verificarne la liceità, il funzionamento, la validità e l’efficacia delle regole ideate. L’osservazione costante, nel tempo, suggerisce le revisioni, le sostituzioni o l’annullamento delle regole obsolete. Il dubbio sull’efficacia di una procedura informatica per l’estrazione di operazioni e comportamenti sospetti caratterizzò nel 1993, il dibattito propedeutico alla realizzazione del sistema antiriciclaggio (denominato GIANOS). Allo scopo, fu preliminarmente posto un quesito a un gruppo multidisciplinare di esperti delle Associazioni bancarie e di istituti di credito, banche, alla presenza di osservatori della Banca d’Italia e dell’Ufficio Italiano dei Cambi: “Può una procedura informatica essere di ausilio all’operatore umano nell’individuazione delle operazioni anomale da valutare ai fini del sospetto, senza deresponsabilizzarlo?” Il dibattito si concluse con un’affermazione positiva, stabilendo che il sistema informatico fosse servente e ausiliario alla decisione umana e costantemente osservato. Questi principi e la procedura sono ancora attivi, e costituiscono un importante precedente su cui riflettere.