L’utilizzo sempre più massiccio di programmi automatizzati per l’addestramento dei modelli di intelligenza artificiale sta mettendo a dura prova la tenuta della rete internet. Secondo un recente report di Barracuda Networks, azienda leader nella sicurezza informatica, sta emergendo una nuova categoria di software chiamati bot grigi. Questi strumenti, alimentati a loro volta da tecnologie di IA, scandagliano in automatico siti web e app per raccogliere enormi quantità di dati, spesso utilizzati per migliorare i modelli di intelligenza artificiale generativa, così come riporta cdt.ch.
Rispetto alle generazioni precedenti, i bot grigi sono molto più veloci e sofisticati. I ricercatori, infatti, spiegano che sono in grado di estrarre dati sensibili, proprietari o di valore commerciale, generando picchi di traffico tali da mettere in crisi la stabilità dei server e rallentare l’intero ecosistema online. In un caso specifico, un solo bot ha generato fino a cinquecentomila richieste in un giorno contro un’app mobile. Sebbene questi comportamenti non mettano direttamente a rischio la sicurezza degli utenti, l’impatto sull’infrastruttura web può essere notevole.
Tra dicembre 2024 e febbraio 2025, due bot in particolare — ClaudeBot e Bytespider, quest’ultimo collegato a TikTok — sono stati responsabili di milioni di richieste, arrivando a toccare i 9,7 milioni in un solo mese. L’analisi del traffico mostra come queste attività siano costanti, con una media di circa diciassette mila richieste all’ora per ogni singola app o sito coinvolto. Questa pratica automatizzata di raccolta delle informazioni è nota come scraping, e viene considerata dagli esperti una via di mezzo tra i bot “buoni” e quelli “maligni”. I primi, spiegano da Barracuda, sono usati ad esempio dai motori di ricerca o da sistemi di assistenza automatizzata; i secondi, invece, sono strumenti impiegati per scopi illeciti come furti di dati, frodi online e attacchi informatici.
I bot grigi, appunto, operano in una zona intermedia: non agiscono con intenti esplicitamente malevoli, ma nemmeno in modo trasparente o innocuo. Il loro obiettivo è ottenere grandi quantità di dati dal web per alimentare sistemi di IA, ma con un costo crescente in termini di traffico, risorse e sostenibilità dell’infrastruttura digitale.