Secondo recenti notizie, uno strumento di intelligenza artificiale ospitato da Amazon e progettato per incrementare le assunzioni presso il Ministero della Difesa del Regno Unito espone il personale della difesa al rischio di essere identificato pubblicamente.
I dati utilizzati nel sistema automatizzato Textio, infatti, per migliorare la stesura degli annunci di lavoro per la difesa e attrarre candidati più eterogenei migliorando il linguaggio inclusivo, includono nomi, ruoli ed e-mail del personale militare e vengono archiviati tramite Amazon Web Services (AWS) negli Stati Uniti.
Tuttavia, il rischio è stato giudicato “basso”. Ma quali sono i rischi e i benefici identificati nelle attuali IA del governo centrale? Vediamone alcuni:
- La possibilità che materiale didattico inappropriato venga generato da uno strumento di pianificazione delle lezioni basato sull’intelligenza artificiale utilizzato dagli insegnanti, basato sul potente modello linguistico di grandi dimensioni di Open AI, GPT-4o. L’intelligenza artificiale fa risparmiare tempo agli insegnanti e può personalizzare rapidamente i piani delle lezioni in un modo che altrimenti non sarebbe possibile
- “Allucinazioni” di un chatbot distribuito per rispondere a domande sul benessere dei bambini nei tribunali della famiglia. Tuttavia, offre anche informazioni 24 ore su 24 e riduce i tempi di attesa per le persone che hanno bisogno di parlare con un agente umano
- “Funzionamento errato del codice” e “dati di input non corretti” nel nuovo PolicyEngine del Tesoro di Sua Maestà , che utilizza l’apprendimento automatico per modellare le modifiche alle imposte e ai benefici “con maggiore accuratezza rispetto agli approcci esistenti”
- “Un degrado del ragionamento umano” se gli utenti di un’IA per dare priorità ai rischi di ispezione dell’igiene alimentare diventano eccessivamente dipendenti dal sistema. Potrebbe anche comportare “un punteggio costantemente molto più basso per gli stabilimenti di un certo tipo”, ma dovrebbe anche significare ispezioni più rapide di luoghi che hanno maggiori probabilità di violare le norme igieniche
Le divulgazioni sono contenute in un registro di trasparenza algoritmica recentemente ampliato che registra informazioni dettagliate su ventitré algoritmi del governo centrale. Alcuni algoritmi, come quelli utilizzati nel sistema di welfare dal Department for Work and Pensions, che hanno mostrato segni di parzialità, non sono ancora registrati, come si legge su The Guardian.
Le organizzazioni del governo centrale saranno tenute a pubblicare un record per qualsiasi strumento algoritmico che interagisca direttamente con i cittadini o influenzi significativamente le decisioni prese sulle persone, a meno che non si applichi un insieme ristretto di esenzioni come la sicurezza nazionale. I record saranno pubblicati per gli strumenti una volta che saranno in fase di sperimentazione pubblica o saranno attivi e funzionanti.
Tra le altre IA incluse nel registro ampliato, figura un chatbot AI che gestisce le richieste dei clienti indirizzate a Network Rail, addestrato su casi storici provenienti dal sistema di relazioni con i clienti dell’ente ferroviario.