Persona, una piattaforma leader a livello mondiale per l’identità, ha annunciato importanti progressi nelle sue capacità di rilevamento di falsificazione del volto basate sull’intelligenza artificiale. Questi aggiornamenti rafforzano la capacità di Persona di rilevare e prevenire tecniche di frode basate sull’intelligenza artificiale generativa sempre più sofisticate.
Gli spoofing basati sull’intelligenza artificiale, come deepfake, volti sintetici e morph del volto, hanno consentito ai truffatori di scalare gli attacchi a un ritmo senza precedenti. Per le aziende che si affidano alla verifica dell’identità, ciò comporta rischi crescenti, da perdite finanziarie significative a danni alla reputazione. Gartner prevede che entro il 2026, gli attacchi che utilizzano deepfake generati dall’intelligenza artificiale sulla biometria facciale potrebbero portare fino al 30% delle aziende a non considerare più affidabili le soluzioni di verifica e autenticazione dell’identità isolate. Ciò sottolinea la necessità di strumenti di prevenzione delle frodi multistrato in grado di rispondere alle minacce emergenti.
“Dato l’aumento di cinquanta volte dei deepfake negli ultimi anni, è evidente che l’intelligenza artificiale generativa continuerà a trasformare il panorama delle frodi – ha affermato Rick Song, ceo di Persona – Le nostre soluzioni antifrode sono progettate per adattarsi in tempo reale per garantire che i nostri clienti rimangano protetti anche dagli attacchi più sofisticati. Solo nel 2024, abbiamo aiutato i clienti a rilevare e bloccare oltre 75 milioni di tentativi di frode sfruttando falsificazioni del volto basate sull’intelligenza artificiale“.
Un approccio più olistico per combattere le frodi basate sull’intelligenza artificiale I nuovi aggiornamenti rafforzano la capacità di Persona di rilevare e prevenire le frodi basate sull’intelligenza artificiale attraverso:
- Una libreria di segnali completa: la gamma in continua espansione di segnali attivi e passivi di Persona fornisce ora più dati alle organizzazioni, consentendo loro di rilevare più tentativi di frode andando oltre le tecniche di ispezione basate sulle immagini
- Rilevamento migliorato degli artefatti visivi: i modelli migliorati ora catturano una gamma più ampia di segnali visivi lasciati dalle falsificazioni facciali generate dall’intelligenza artificiale, migliorando il ricordo e riducendo al contempo i falsi positivi
- Rilevamento di hardware compromesso: Persona ha ampliato la sua capacità di identificare dispositivi rooted, emulatori e telecamere virtuali utilizzati dai truffatori negli attacchi di iniezione
- Rilevamento di modelli su larga scala: la piattaforma di Persona identifica modelli sospetti in tutti gli invii, consentendo alle organizzazioni di scoprire reti di frode , bloccare i truffatori che testano nuovi exploit e bloccare attacchi che altrimenti passerebbero inosservati