di Maurizio Pimpinella
L’intelligenza artificiale è sempre più presente in molti aspetti ella nostra vita quotidiana contribuendo spesso a semplificarli. L’elaborazione algoritmica determina già oggi l’allocazione delle risorse, le strategie di marketing, la prevenzione di eventi naturali e dei comportamenti umani. Nell’ambito del grande dibattito sul rapporto tra IA ed etica diventa, pertanto, logico domandarsi quanto questa possa essere considerata anche equa nella sua analisi in rapporto a quella che tutti noi consideriamo la “giustizia sociale”.
L’equità come criterio guida nell’implementazione di regole etiche per l’Intelligenza Artificiale (AI) è anche il nocciolo della ricerca realizzata da Lucia Lucchini, manager Cyber Risk di Deloitte UK, e da Ivana Bartoletti, Global Privacy Officer at Wipro, ed inserita nel volume Applied ethics in a digital world.
Siamo cresciuti con la ferma convinzione che la tecnologia sia neutra e come tale naturalmente orientata verso l’equità. Tale convinzione, tuttavia, è quanto di più improprio si possa immaginare, soprattutto per quanto riguarda l’ambito dell’IA, essendo per così dire macchiata da un peccato originale che è per lo più ignorato. L’intelligenza artificiale può essere equa e portare benessere alla società, ma questa può, nel momento dell’ideazione di un algoritmo, essere influenzata dai suoi stessi creatori e dalle informazioni a loro disposizione che dipendono essenzialmente da due fattori principali: la qualità dei dati e il livello di trasparenza. Viviamo in una società sempre più diversa e frammentata; se si creano algoritmi di intelligenza artificiale che hanno un impatto sulle persone, dobbiamo pensare ai risvolti etici che questi possono avere nei loro confronti. Oggi è necessario esplorare la dimensione tecno sociale degli strumenti digitali, cioè come questi riproducono gli aspetti della società di cui sono espressione, questa può essere la chiave di lettura per dibattere sui temi etici legati all’IA su larga scala e scevri da pregiudizi. Un esempio, della non neutralità dell’IA ci è dato dal caso (ormai di scuola e non isolato) della Apple card della moglie del programmatore danese David Heinemeier Hansson la quale, pur avendo un’affidabilità finanziaria migliore di quella del marito, aveva ricevuto un limite di credito di 20 volte inferiore a quello del coniuge.
Come rilevato dalle due autrici dello studio: “l’essenza stessa dell’apprendimento automatico è differenziare, il che significa che il pregiudizio è al centro di questa tecnologia. Il pregiudizio di cui noi, come società, dovremmo preoccuparci maggiormente è quello che causa un danno allocativo (non assegnare un servizio o un bene a qualcuno ingiustamente) o un danno rappresentativo (la perpetuazione della disuguaglianza, ad esempio, codificando stereotipi nella pubblicità utensili).
In una certa misura, si può dire che l’ingegnerizzazione dell’ingiustizia è il risultato inevitabile della politica di dataficazione e raccolta dei dati. Pertanto, si può sostenere che affinché un’organizzazione prenda una decisione equa, l’algoritmo (e i dati con cui viene alimentato) dovrebbero essere manipolati attivamente per produrre un risultato equo. Pertanto, la domanda si sposta sul motivo per cui le organizzazioni dovrebbero optare per l’equità, se l’equità è finanziariamente dannosa per la loro attività. In definitiva, una scelta di equità è inevitabilmente una scelta politica, sociale ed etica poiché optare per l’equità può portare a risultati meno efficienti per un’organizzazione”.
Il discorso intorno alla pervasività degli strumenti algoritmici e del processo decisionale automatizzato sembra essere quasi banale, eppure è evidente quanto l’intelligenza artificiale produca profonde conseguenze sulla sicurezza e sull’equità; non è quindi inverosimile presupporre che questa debba essere regolamentata per garantire sicurezza ed equità per tutti. Non tutto, però, può essere ridotto ad un mero strumento legislativo, anche perché in questi ultimi anni abbiamo verificato quanto le norme sono costrette a rincorrere perpetuamente le innovazioni e gli utilizzi che facciamo delle nuove tecnologie.
In futuro, le implicazioni etiche relative alla gestione della privacy e al rispetto dei principi di equità saranno sempre più forti man mano che l’incidenza dell’IA e del machine learning si farà più intenso nelle nostre società. È di vitale importanza comprendere il tema della non neutralità della tecnologia, così come dei dati, col rischio che le soluzioni individuate siano solo ed esclusivamente tecnologiche e non sociali. Nel momento in cui sarà chiaro a tutti che la consapevolezza che la giustizia algoritmica non corrisponde alla giustizia sociale, saremo veramente in grado di occuparci di tecnologia nel suo elemento trasformativo, volgendolo a nostro vantaggio.