Le nuove normative aggiungono nuovi elementi di complessità alla governance dei dati, alla resilienza e alla sicurezza informatica, ma la private AI può aiutare a superare queste sfide.
Il regolamento sull’intelligenza artificiale dell’Unione Europea (l’Atto) è entrato in vigore il 1° agosto, avviando un conto alla rovescia di 24 mesi per l’entrata in vigore completa della maggior parte delle normative. L’Atto è uno dei primi testi legislativi completi e vincolanti sull’IA, il cui impatto si farà sentire ben oltre l’Europa. Non solo, infatti, le aziende multinazionali che gestiscono qualsiasi carico di lavoro IA nell’UE dovranno conformarsi, ma l’Atto probabilmente ispirerà future normative IA in altre giurisdizioni, proprio come il GDPR ha fatto per la privacy dei dati. Inoltre, sebbene possa verificarsi una maggiore frammentazione nel quadro normativo globale sull’IA, poiché i paesi cercano di avanzare rapidamente con le loro regolamentazioni adottando un approccio più protezionistico, l’Atto potrebbe diventare lo standard globale de facto per la regolamentazione del rischio IA.
Attualmente tanto i fornitori di modelli IA quanto i loro utilizzatori si stanno chiedendo come adattare le proprie strategie per sfruttare con successo l’IA rimanendo conformi. Nessuna organizzazione è ancora completamente preparata e c’è molto lavoro da fare per cambiare questa situazione. Ma quali sono le complessità introdotte dall’AI Act, e come è possibile affrontarle?
L’AI federata aiuta a bilanciare le esigenze di dati con i requisiti di governance
L’Atto introduce rigorosi requisiti di governance dei dati, imponendo che i dataset utilizzati per l’addestramento dei modelli IA siano pertinenti, rappresentativi, privi di errori e completi in base al loro scopo previsto. Per soddisfare questo requisito, le aziende devono garantire un maggiore controllo e visibilità sui dati IA durante tutto il loro ciclo di vita e costruire un inventario dei dataset IA. Questo include la capacità di tracciare l’intera provenienza di qualsiasi nuovo dato consumato da partner o fornitori di servizi. In tal senso, una delle sfide che le aziende devono affrontare è che l’efficacia dei modelli IA sia strettamente legata alla qualità e all’ampiezza dei dati su cui vengono addestrati. Poiché le normative rendono più difficile l’espansione dei dataset, le aziende potrebbero considerare i marketplace di dati e modelli IA come una soluzione. Queste piattaforme potrebbero consentire la condivisione dei dati all’interno di un ambiente sicuro e neutrale, permettendo di espandere i dataset senza compromettere il controllo sui dati. Pertanto, i marketplace di dati e modelli IA potrebbero essere fondamentali per superare la sfida legata all’espansione dei dataset, mantenendo la conformità, poiché un modello di apprendimento federato consente ai collaboratori di condividere i propri dati all’interno di una piattaforma di scambio neutrale.
Questo aiuta i partecipanti del mercato ad espandere i loro dataset attraverso la condivisione dei dati, senza dover rinunciare al loro controllo1.
Garantire la resilienza dell’IA attraverso un’infrastruttura digitale robusta
Un altro aspetto della gestione del rischio nei casi d’uso dell’IA è assicurarsi che i modelli siano disponibili quando necessario.
In altre parole, stiamo parlando della resilienza dell’IA, che può essere ottenuta attraverso diverse sfumature: · Geo-ridondanza, dove le organizzazioni possono scegliere un mix di backup in cloud e on-premises. · Collaborare con un fornitore di infrastrutture digitali che offra una presenza globale di data center pronti per l’IA, un ecosistema denso di cloud providers e la flessibilità di cambiare rapidamente piattaforme IA per evitare tempi di inattività.
Considerando le crescenti esigenze di densità, per implementare l’IA correttamente è inoltre necessario ospitare i carichi di lavoro di inferenza nei luoghi adatti—quelli che offrono la migliore combinazione di densità di potenza e bassa latenza, insieme a tecnologie innovative, come il raffreddamento a liquido, per supportare carichi di lavoro ad alta densità.
Mantenere il controllo e la sicurezza dei dati e dei modelli IA Per fidarsi dei risultati ottenuti dai propri modelli IA, è necessario essere certi che né i modelli né i dati utilizzati siano stati compromessi da accessi non autorizzati o manomissioni. Anche in questo caso, la Federated AI può aiutare le organizzazioni ad ottenere i dati necessari per alimentare i propri modelli senza introdurre rischi di sicurezza inaccettabili. Questo perché le aziende possono condividere dati con i loro partner dell’ecosistema mantenendo comunque privati i loro algoritmi e codici proprietari. Inoltre, le aziende possono spostare i modelli verso la fonte dei dati, anziché trasferire i dataset verso i modelli.
La private AI può aiutare le aziende durante l’intero ciclo di vita dell’IA
Man mano che le aziende cercano di sfruttare le potenzialità dell’IA, la crescente complessità normativa può sembrare scoraggiante. Tuttavia, implementare una strategia di private AI può aiutare i clienti a gestire queste complessità in ogni fase di maturazione della loro IA.
Quando le organizzazioni iniziano il loro percorso nell’IA, molte optano per il cloud pubblico per evitare di dover installare un hardware fisico, utilizzando servizi digitali privati per proteggere i dati sensibili. Con la maturazione delle loro strategie IA, spesso però passano alla private AI, implementando gradualmente GPU per carichi di lavoro intensivi, rendendo il processo più efficiente e conveniente. L’accesso ai partner dell’ecosistema IA migliora ulteriormente l’efficienza e le prestazioni, con l’IA come servizio (AI as a Service) che consente un’implementazione rapida. Infine, quando raggiungono lo stadio di maturità
nell’IA, alcune aziende optano per stack tecnologici dedicati e completamente gestiti per accelerare ulteriormente il deployment.
Tuttavia, man mano che le aziende progrediscono nel loro percorso IA, dovrebbero rimanere vigili riguardo alla conformità normativa, assicurandosi che le loro operazioni IA siano allineate ai requisiti dell’EU Artificial Intelligence Act. Questo approccio proattivo le aiuterà a rimanere competitive rispettando i più alti standard di governance dei dati, resilienza e sicurezza