In audizione davanti alle Commissioni riunite Trasporti e Cultura della Camera dei Deputati, TikTok ha difeso l’efficacia dei suoi strumenti di moderazione dei contenuti, sottolineando il ruolo crescente dell’intelligenza artificiale nel contrastare violazioni alle regole della piattaforma. Secondo quanto dichiarato da Luana Lavecchia, Senior Public Policy and Government Relations Manager di TikTok, “l’85% dei contenuti in violazione delle nostre policy viene rimosso dall’IA, è un enorme alleato”, pur precisando che la supervisione umana resta indispensabile, soprattutto per notizie false in momenti delicati come elezioni e referendum.
IA e moderazione: numeri e strumenti
La piattaforma, che conta oltre un miliardo di utenti attivi mensili nel mondo, sta investendo da anni in sistemi automatizzati per individuare e bloccare contenuti dannosi prima che raggiungano un vasto pubblico. I dati più recenti dei rapporti di trasparenza pubblicati da TikTok mostrano come l’uso di tecnologie automatizzate porti a rimuovere milioni di video ogni trimestre: in alcuni report internazionali, oltre 98% dei contenuti violativi è stato rimosso prima di segnalazioni degli utenti, e la maggior parte entro 24 ore dalla pubblicazione.
Secondo questi report, le violazioni più frequenti riguardano:
-
contenuti con temi sensibili o maturi;
-
violazioni della privacy o della sicurezza;
-
informazioni fuorvianti o false;
-
media manipolati o generati con IA.
Questi numeri chiariscono la portata dell’impegno dichiarato da TikTok nel contrastare i contenuti non conformi alle sue linee guida.
Critiche e sfide aperte
Nonostante i risultati annunciati, il maggiore utilizzo di sistemi automatizzati ha sollevato critiche da più fronti. In alcuni Paesi, i tagli al personale umano dedicato alla sicurezza online – in favore di soluzioni basate sull’IA – hanno generato preoccupazioni su possibili errori di moderazione e sulla capacità di gestire situazioni complesse o contestuali.
In Europa, l’applicazione del Digital Services Act (DSA) richiede trasparenza e responsabilità da parte delle piattaforme su come vengono moderate le informazioni online, e attende ancora verifiche più rigorose su come TikTok e altri social network rispettino tali obblighi.
Tra regole e libertà di espressione
Nel suo intervento alla Camera, Lavecchia ha evidenziato l’importanza di bilanciare la lotta ai contenuti vietati con il rispetto della libertà di espressione degli utenti. Ha inoltre ricordato l’adozione, dal 2023, di etichette specifiche per contenuti generati con intelligenza artificiale, con l’obiettivo di informare meglio sia gli utenti sia i decisori pubblici su potenziali rischi legati alla disinformazione digitale.
Prospettive future
La sfida per TikTok e per l’intero ecosistema dei social media resta complessa: da un lato, sviluppare sistemi sempre più accurati per identificare e rimuovere contenuti dannosi; dall’altro, assicurare che tali sistemi non limitino ingiustamente il dibattito pubblico o penalizzino ingiustamente utenti innocenti. Con il diffondersi sempre maggiore di strumenti di intelligenza artificiale, la discussione su come governare l’informazione digitale – tra automatizzazione, normativa, tutela dei diritti e ruolo umano – è destinata a restare al centro del dibattito pubblico nei prossimi anni.










