Le aziende del settore dei servizi finanziari sono ancora nella fase iniziale dell’adozione dell’Intelligenza Artificiale, sia generativa che agentiva, nonostante le promesse e l’entusiasmo diffusi tra i fornitori di IA, i dirigenti aziendali e gli accademici, come emerso durante una tavola rotonda organizzata dalla Securities and Exchange Commission (SEC) il 27 marzo scorso. Non si tratta di un sottovalutare i vantaggi che l’IA potrebbe portare. Le imprese, infatti, potrebbero migliorare l’efficienza delle operazioni interne, come nelle risorse umane, nella gestione delle conformità e in altri ambiti, oltre a scalare attività orientate al cliente, come nel caso della gestione patrimoniale, come ha osservato Sarah Hammer, direttore esecutivo della Wharton School, come si legge su pymtns.com.
Tuttavia, la realtà è che molte società del settore finanziario stanno adottando la tecnologia a un ritmo decisamente più lento rispetto alle aziende tecnologiche che la sviluppano. Hardeep Walia, CEO di Charles Schwab, ha dichiarato che “siamo ancora nelle fasi iniziali”, aggiungendo che molte aziende sono ancora impegnate a fare esperimenti, a valutare l’adozione della tecnologia e a calcolare i ritorni sugli investimenti. In effetti, ha spiegato che nella maggior parte dei casi di utilizzo dell’IA, un essere umano è ancora coinvolto nel processo decisionale.
Hammer ha confermato che, sebbene l’IA generativa possa rivelarsi utile in processi aziendali inefficienti come la compensazione e la liquidazione, molte imprese stanno ancora cercando di comprenderne il valore, con difficoltà nel misurare il ritorno sugli investimenti, soprattutto considerando i costi elevati della tecnologia. Nonostante ciò, alcuni esperti, come Peter Slattery del MIT, hanno sottolineato che i costi dell’IA stanno diminuendo, grazie anche ai modelli open source come DeepSeek, che consentono alle aziende di contenere le spese. Tuttavia, Slattery ha avvertito che una delle difficoltà principali dell’IA generativa è la “questione dell’ultimo miglio”. I modelli linguistici avanzati potrebbero raggiungere una precisione del 90% rispetto a un lavoratore umano, ma necessitano ancora di significativi miglioramenti per arrivare a un livello di qualità che permetta di sostituire completamente gli esseri umani. Di conseguenza, è improbabile che l’IA venga totalmente automatizzata in tempi brevi.
D’altra parte, Tyler Derr, CTO di Broadridge, ha dichiarato che l’obiettivo principale dell’adozione dell’IA non è quello di sostituire il lavoro umano, ma piuttosto di migliorarne l’efficienza e di ottimizzare le operazioni. Un altro aspetto cruciale emerso nel dibattito riguarda i rischi legati all’adozione dell’IA. Man mano che questa tecnologia viene implementata in ruoli sempre più rilevanti all’interno delle aziende, i tradizionali modelli di gestione dei rischi potrebbero non essere sufficienti. Slattery, che guida il repository dei rischi legati all’IA del MIT, ha spiegato che l’ultimo aggiornamento della piattaforma ha aggiunto 100 nuovi rischi legati all’IA, con una nuova categoria che riguarda i rischi legati agli agenti AI multipli.
Un esempio di tale rischio riguarda la responsabilità. Quando gli agenti IA interagiscono tra di loro, potrebbe essere difficile determinare chi è responsabile in caso di errori o danni. Slattery ha posto una domanda fondamentale: se il mio agente e il tuo agente compiono un errore che nessuno dei due ha voluto, chi è responsabile? Inoltre, ha sottolineato che gli sviluppatori non riescono a comprendere appieno come i modelli di IA funzionino all’interno delle “black box”, aumentando ulteriormente la difficoltà di gestire i rischi derivanti da un’adozione su larga scala di queste tecnologie.
Anche Hammer ha sollevato preoccupazioni riguardo a questa questione, ribadendo l’importanza di una governance solida per gestire i rischi associati all’IA. Ha osservato che le aziende non si stanno ritirando dall’adozione dell’IA responsabile e ha citato normative globali come l’EU AI Act, che mirano a regolare l’uso dell’IA senza soffocare l’innovazione. Infine, Derr ha sottolineato che le politiche e le procedure di gestione dei rischi devono essere dinamiche, in quanto l’evoluzione dei casi d’uso richiede una continua valutazione dei rischi.
Riguardo alla collaborazione tra le aziende e la SEC per l’elaborazione delle normative sull’IA, Derr ha commentato che, proprio come nel caso della sicurezza informatica, è essenziale lavorare insieme. Solo un approccio collettivo potrà garantire il successo nell’affrontare le sfide legate all’adozione dell’IA nel settore finanziario.