CalypsoAI, leader nella protezione dell’intelligenza artificiale di base per le aziende, ha lanciato la CalypsoAI Security Leaderboard, il primo indice al mondo di tutti i principali modelli di intelligenza artificiale in base alle loro prestazioni di sicurezza.
La classifica di sicurezza di CalypsoAI classifica tutti i principali modelli in base alla loro capacità di resistere ad attacchi di sicurezza avanzati e presenta un rapporto rischio/prestazioni (RTP) e una preziosa metrica del costo della sicurezza (CoS). CalypsoAI ha compilato la classifica dopo aver sottoposto a stress test i modelli di IA con la sua nuova soluzione Inference Red-Team, che combina Agentic Warfare con attacchi automatizzati.
“Il nostro prodotto Inference Red-Team ha infranto con successo tutti i modelli GenAI di livello mondiale esistenti oggi – ha affermato Donnchadh Casey, ceo di CalypsoAI – Molte organizzazioni stanno adottando l’IA senza comprendere i rischi per la propria attività e i propri clienti; andando avanti, la CalypsoAI Security Leaderboard fornisce un punto di riferimento per i leader aziendali e tecnologici per integrare l’IA in modo sicuro e su larga scala“.
CalypsoAI Inference Red-Team fornisce valutazioni automatizzate e scalabili che eseguono attacchi nel mondo reale per identificare in modo proattivo le vulnerabilità e creare un inventario AI con punteggio CalypsoAI Security Index (CASI). Combinando Agentic Warfare con una libreria costantemente aggiornata di attacchi di firma estesi e test operativi, Inference Red-Team consente alle organizzazioni di migliorare la governance, garantire la conformità e mantenere sistemi AI proattivi, sicuri e resilienti.
“GenAI offre opportunità senza pari per la trasformazione aziendale, ma i rischi per la sicurezza, la governance e la conformità rimangono barriere significative all’adozione – ha affermato Amit Levinstein , VP Security Architecture & CISO presso CYE – La rivoluzionaria soluzione di red teaming di CalypsoAI è un salto quantico nella sicurezza dell’IA e fornisce le prove concrete di cui i dirigenti hanno bisogno e la sicurezza che desiderano per distribuire applicazioni di IA in modo sicuro“.
Con oltre settant’anni di esperienza in sicurezza e intelligenza artificiale da parte del suo team di ingegneri, CalypsoAI ha riconosciuto l’esigenza di report chiari e fruibili che identifichino le vulnerabilità per consentire ai team di sicurezza di rafforzare i propri sistemi di intelligenza artificiale e restare al passo con le minacce più recenti.
“CalypsoAI Inference Red-Team introduce Agentic Warfare come l’ultimo metodo per trovare lacune di sicurezza nei modelli GenAI – ha affermato James White , Presidente e CTO di CalypsoAI – Segnala la fine del red teaming manuale inefficiente e incoerente, che è ancora utilizzato anche dai più grandi sviluppatori di modelli AI e, con la CalypsoAI Security Leaderboard, colma una lacuna significativa nelle informazioni disponibili al pubblico sulla sicurezza dei modelli“.
Il panorama delle minacce AI è in continua evoluzione e la maggior parte delle aziende non è attrezzata per testare i propri sistemi AI nel modo in cui lo fanno gli aggressori; con la sua capacità Agentic Warfare, CalypsoAI Inference Red-Team sfrutta gli avversari basati su AI per impegnarsi in modo dinamico, esponendo debolezze nascoste che i test statici non rilevano. La natura agentica di questa soluzione garantisce che i team possano selezionare con sicurezza i modelli più sicuri prima di distribuire le applicazioni e man mano che i casi d’uso si evolvono.
“CalypsoAI Red Team è un punto di svolta per le aziende leader o che sperimentano l’intelligenza artificiale – ha affermato Jay Choi, ceo di Typeform – In molte iniziative, abbiamo visto grandi opportunità di innovazione tramite l’integrazione dell’intelligenza artificiale generativa; ma abbiamo costantemente lottato con il rischio di sicurezza. Erano le incognite sconosciute a rappresentare la sfida più grande. Calypso Inference Red-Teaming affronta davvero questo rischio, quindi le aziende che integrano la tecnologia basata sull’intelligenza artificiale non devono più scegliere tra sicurezza e innovazione“.
L’indice di sicurezza CalypsoAI (CASI)
CASI è una metrica sviluppata per rispondere alla complessa domanda su quanto sia sicuro un dato modello. Un punteggio CASI più alto indica un modello o un’applicazione più sicuri. Mentre molti studi si basano sull’Attack Success Rate (ASR), questa metrica tradizionale spesso semplifica eccessivamente la realtà e tratta tutti gli attacchi come uguali. Ad esempio, un attacco che aggira un lucchetto per bicicletta è equiparato a uno che compromette i codici di lancio nucleare. Allo stesso modo, nell’IA, un modello piccolo e non protetto potrebbe essere facilmente compromesso con una semplice richiesta di informazioni sensibili, mentre un modello più grande potrebbe richiedere tecniche sofisticate come Agentic Warfare per rompere il suo allineamento.
CalypsoAI continuerà a sviluppare nuove vulnerabilità e a collaborare con i provider di modelli per divulgare e risolvere in modo responsabile questi problemi. Di conseguenza, i punteggi CASI dei modelli vengono aggiornati trimestralmente.