SAS, leader nelle soluzioni per i dati e l’intelligenza artificiale, in occasione di SAS Innovate, ha annunciato l’imminente disponibilità di nuovi prodotti e servizi di trustworthy AI per migliorare l’AI Governance e sostenere la fiducia e la trasparenza dei modelli. Le model card e i nuovi servizi di AI Governance Advisory aiuteranno le organizzazioni a navigare nel panorama dell’AI, mitigando i rischi e aiutandole a perseguire gli obiettivi con maggiore sicurezza. SAS ha inoltre pubblicato il Trustworthy AI Life Cycle Workflow, basato sull’AI Risk Management Frameworkl del National Institute of Standards and Technology (NIST).
“I nostri clienti sono entusiasti del potenziale dell’intelligenza artificiale, ma rimangono cauti su quando e come utilizzarla”, ha dichiarato Reggie Townsend, Vice President, SAS Data Ethics Practice. “Si stanno ponendo domande giuste sulla responsabilità e l’etica inerenti all’AI. Il nostro obiettivo è fornire loro gli strumenti e le indicazioni, basate su decenni di esperienza, per integrare l’IA in modo da incrementare la redditività e ridurre al contempo i danni involontari.”
Model card: le etichette informative di una trustworthy AI
Può essere difficile prendere qualcosa di così complesso e sofisticato come un modello di AI e convertirlo in qualcosa di facilmente digeribile per tutti coloro che sono coinvolti nel ciclo di vita dell’AI. Inoltre, con l’approvazione di nuove norme e regolamenti in tutto il mondo, la capacità di comprendere e condividere con le autorità di regolamentazione le prestazioni di un modello sarà fondamentale. Le model card, una funzione di prossima introduzione in SAS® Viya®, serviranno alle parti interessate in tutto il ciclo di vita dell’IA: dagli sviluppatori ai board director, a trovare valore in uno tool dedicato che supporta sia modelli proprietari sia open source.
In uscita a breve, le model card sono meglio descritte come etichette informative per i modelli AI. L’approccio di SAS è quello di autogenerare delle schede per i modelli registrati con contenuti provenienti direttamente dai prodotti SAS, eliminando l’onere di crearle da parte dei singoli utenti. Inoltre, dato che SAS Viya dispone già di un’architettura per la gestione dell’open source, le model card saranno disponibili anche per i modelli open source, a partire da quelli Python.
Le model card evidenziano indicatori come l’accuratezza, la correttezza e la deriva del modello, ovvero il decadimento delle prestazioni al variare delle condizioni. Includono dettagli per la governance come la data dell’ultima modifica del modello, chi vi ha contribuito e chi ne è responsabile, consentendo alle organizzazioni di affrontare internamente le performance anomale del modello.
La sezione sull’utilizzo del modello tratta l’uso previsto, i casi d’uso fuori scope e le limitazioni, che saranno fattori chiave in quanto la trasparenza e la verifica dei modelli diventeranno probabilmente operazioni aziendali regolamentate.
“SAS sta adottando un approccio ponderato per aiutare i clienti ad adottare l’AI, concentrandosi su realtà pratiche e sulle sfide dell’implementazione dell’AI in contesti industriali reali”, ha dichiarato Eric Gao, Research Director di IDC. “Le model card saranno preziose per monitorare i progetti di AI e promuoverne la trasparenza.”
Un nuovo gruppo di AI Governance
Con la diffusione continua dell’IA, le aziende sono sempre più preoccupate di come utilizzare i loro dati in modo produttivo e sicuro. Per aiutarle nel loro viaggio nei dati e nell’intelligenza artificiale, SAS sta lanciando “AI Governance Advisory”, un servizio a valore aggiunto per i clienti attuali.
SAS AI Governance Advisory aiuterà i clienti a riflettere sul significato della governance nel contesto delle loro organizzazioni. SAS, nel frattempo, ha sperimentato questo servizio e i clienti hanno notato diversi vantaggi:
· Aumento della produttività grazie a un processo decisionale affidabile e distribuito.
· Maggiore fiducia grazie a una migliore responsabilità nell’utilizzo dei dati.
· Capacità di conquistare e mantenere i migliori talenti che richiedono pratiche di innovazione responsabili.
· Aumento del vantaggio competitivo e dell’agilità nel mercato grazie alla “conformità al futuro”.
· Brand value più forte per affrontare i potenziali impatti sulla società e sull’ambiente.
Basarsi sugli standard governativi emergenti
L’anno scorso, il National Institute of Standards and Technology (NIST) degli Stati Uniti ha lanciato un AI Risk Management Framework, diventato uno strumento prezioso per le organizzazioni per progettare e gestire un’IA affidabile e responsabile in assenza di normative ufficiali.
SAS ha creato un flusso di lavoro, il Trustworthy AI Life Cycle, che rende le raccomandazioni del NIST più facili da adottare per le organizzazioni, specificando i ruoli e le aspettative individuali, raccogliendo la documentazione necessaria, delineando i fattori da considerare e sfruttando l’automazione per facilitarne l’adozione. Le organizzazioni si ritrovano così con un modello di produzione e una documentazione che dimostra di aver curato la creazione di un modello corretto e che i loro processi non causino danni.
Il workflow consente alle organizzazioni di documentare le loro considerazioni sull’impatto dei sistemi di IA sulle vite umane. Include fasi per garantire che i training data siano rappresentativi della popolazione interessata e che le previsioni e le prestazioni del modello siano simili tra le classi protette. Queste fasi aiutano a garantire che il modello non stia discriminando o danneggiando gruppi specifici. Inoltre, gli utenti possono controllare che un modello rimanga accurato nel tempo creando attività umane nel ciclo per agire quando è necessaria un’attenzione aggiuntiva.
SAS Trustworthy AI Life Cycle Workflow può essere scaricato da Github SAS Model Manager Resources e sarà presto disponibile attraverso il NIST AI Resource Center.