L’intelligenza artificiale generativa, che comprende tecnologie come i deepfake e la sintesi vocale avanzata, si sta affermando come una delle sfide più complesse per la sicurezza informatica e il settore dei pagamenti. Questi strumenti, se da un lato aprono possibilità innovative, dall’altro stanno alimentando un nuovo tipo di minacce, più sofisticate e difficili da rilevare.
Un caso emblematico si è verificato a Hong Kong, dove un dipendente di un reparto finanziario ha trasferito 25 milioni di dollari convinto di aver partecipato a una videochiamata con il direttore finanziario e altri dirigenti aziendali. In realtà, ogni volto e voce sulla chiamata era frutto di un’elaborazione AI: una messa in scena perfetta costruita con deepfake.
E non si tratta di un episodio isolato. Secondo il report “Invoice-to-Pay Automation Tracker®” pubblicato da PYMNTS Intelligence nell’aprile 2025, il 90% delle aziende statunitensi ha dichiarato di essere stato vittima di un attacco informatico nel corso del 2024. Le truffe via compromissione dell’email aziendale (Business Email Compromise) hanno colpito il 63% delle imprese, con un’impennata del 103% rispetto all’anno precedente.
Questi numeri raccontano l’evoluzione della criminalità informatica: oggi i truffatori utilizzano l’IA per andare ben oltre il phishing tradizionale. Clonano voci, creano video falsi e impersonano dirigenti aziendali in modo estremamente realistico, inducendo i dipendenti ad approvare trasferimenti di denaro milionari. La diffusione di software di AI generativa a basso costo permette anche a malintenzionati poco esperti di produrre falsi credibili, rendendo sempre più sottile la linea tra realtà e inganno, così come riportato da pymnts.com.
Tra i bersagli preferiti ci sono oggi i reparti contabilità fornitori (AP), tradizionalmente poco digitalizzati e ancora legati a processi manuali. La loro vulnerabilità è sfruttata da criminali che usano l’intelligenza artificiale per automatizzare e moltiplicare i tentativi di truffa. Il risultato? Il 68% delle organizzazioni ha subito almeno un tentativo di frode nel 2024, spesso sotto forma di phishing, furto di identità o falsificazione di fatture.
Le conseguenze sono gravi: l’86% delle aziende colpite ha subito perdite economiche, e quasi la metà ha riportato danni superiori ai 10 milioni di dollari. Ma oltre agli aspetti finanziari, non vanno sottovalutati i danni reputazionali, le eventuali sanzioni normative e il deterioramento della fiducia da parte di clienti, investitori e dipendenti. In quest’ultimo caso, il carico emotivo può essere pesante: chi cade vittima di una truffa orchestrata con strumenti così sofisticati può sperimentare stress, sensi di colpa e un calo significativo della motivazione.
Fortunatamente, le aziende non sono disarmate. Molte stanno implementando sistemi di protezione basati sull’AI, capaci di individuare anomalie nei flussi di pagamento in tempo reale. Gli algoritmi di apprendimento automatico possono evolversi con le minacce, adattandosi rapidamente ai nuovi schemi fraudolenti.
Nel campo della contabilità fornitori, ad esempio, l’integrazione dell’AI permette di automatizzare la verifica delle fatture, confrontando i dati con quelli già presenti nei sistemi interni per intercettare discrepanze sospette. Questo approccio migliora l’efficienza, riduce l’errore umano e limita le finestre di vulnerabilità sfruttabili dai truffatori.
Tuttavia, la tecnologia da sola non basta. È essenziale anche costruire una cultura aziendale attenta alla sicurezza, con formazione continua per tutti i dipendenti. Educare il personale a riconoscere segnali di potenziali truffe e implementare protocolli rigorosi per approvazioni e transazioni critiche rappresenta un ulteriore scudo protettivo.
Un altro aspetto chiave è la collaborazione tra imprese. Condividere informazioni su minacce emergenti e strategie efficaci consente di rafforzare l’intero ecosistema, migliorando la capacità collettiva di risposta.
In un contesto dove i criminali informatici evolvono con la tecnologia, anche le contromisure devono progredire con la stessa velocità. L’intelligenza artificiale generativa non è una minaccia passeggera, ma una realtà strutturale che richiede adattamento continuo e attenzione costante. L’autocompiacimento non è un’opzione: la sicurezza, oggi più che mai, è un processo dinamico che deve accompagnare ogni fase della trasformazione digitale.