Microsoft sta per introdurre un sistema di valutazione della sicurezza per i modelli di intelligenza artificiale che offre ai clienti attraverso la sua piattaforma cloud. Questa novità ha l’obiettivo di aumentare la fiducia degli utenti, fornendo loro informazioni più chiare sulla sicurezza dei diversi modelli di IA disponibili.
Attualmente, Microsoft valuta già i modelli in base a criteri come qualità, costo ed efficienza, ma adesso aggiungerà un parametro dedicato alla sicurezza. Sarah Bird, responsabile per l’intelligenza artificiale etica in Microsoft, ha spiegato che questa nuova classificazione permetterà agli utenti di capire meglio quali rischi comporta ogni modello e di scegliere in modo più consapevole, così come riportato da verdict.co.uk.
Per misurare la sicurezza, Microsoft si affiderà a specifici benchmark: uno di questi, chiamato ToxiGen, valuta se un modello può generare contenuti d’odio implicito; un altro, sviluppato dal Center for AI Safety, analizza la possibilità che un modello venga utilizzato per scopi pericolosi o malevoli. Questa iniziativa risponde a preoccupazioni riguardo alla protezione dei dati e alla privacy, soprattutto quando i modelli operano in modo autonomo, senza controllo umano costante.
Microsoft si propone come una piattaforma neutrale che aggrega modelli di IA di vari fornitori, tra cui OpenAI (in cui ha investito circa 14 miliardi di dollari), xAI di Elon Musk e Anthropic. Di recente ha cominciato a offrire i modelli di xAI alle stesse condizioni di quelli di OpenAI. Per rafforzare ulteriormente la sicurezza, Microsoft ha creato un “agente di red teaming basato sull’IA”, un sistema automatizzato che simula attacchi informatici per testare la robustezza dei programmi e individuare possibili vulnerabilità. Gli utenti possono definire la complessità degli attacchi simulati, e il sistema effettua i test di conseguenza.
Inoltre, la prossima entrata in vigore della legge europea sull’intelligenza artificiale renderà obbligatori i test di sicurezza per le aziende che sviluppano modelli di IA. Microsoft sottolinea l’importanza di investire risorse significative nella valutazione per garantire modelli affidabili e sicuri.
Parallelamente a queste innovazioni, Microsoft ha recentemente annunciato una riduzione di personale, con oltre 300 posti di lavoro tagliati, come parte della sua strategia per contenere i costi aziendali