A partire da luglio, le piattaforme online, inclusi i social media, saranno obbligate per legge a impedire l’accesso ai contenuti dannosi per i minori, pena sanzioni economiche significative, come annunciato da Ofcom. Le aziende tecnologiche avranno tempo fino al 25 luglio per implementare queste misure, altrimenti dovranno affrontare multe e, in casi estremi, la chiusura, secondo le disposizioni dell’Online Safety Act del Regno Unito.
Nei giorni scorsi, l’ente di regolazione delle comunicazioni ha pubblicato oltre quaranta nuove linee guida che riguardano i siti e le applicazioni frequentate dai bambini, comprese quelle relative ai social media, ai motori di ricerca e ai giochi online, così come si legge su The Guardian.
Le nuove regole stabiliscono che le piattaforme più “rischiose”, come i social network, devono implementare controlli dell’età “molto efficaci” per identificare gli utenti sotto i 18 anni; gli algoritmi che suggeriscono contenuti agli utenti devono escludere materiale pericoloso; tutti i siti e le app devono avere procedure rapide per rimuovere contenuti dannosi; inoltre, i minori devono poter segnalare facilmente contenuti problematici.
Melanie Dawes, amministratrice delegata di Ofcom, ha sottolineato che queste modifiche rappresentano una sorta di “reset” per la protezione dei bambini online, con la promessa di un ambiente digitale più sicuro. Ha anche avvertito che le aziende che non rispetteranno le nuove norme saranno sanzionate. Le nuove misure sono state presentate mentre il ministro per la Tecnologia, Peter Kyle, ha annunciato di star considerando l’introduzione di un “coprifuoco” sui social media per i minori, dopo che TikTok ha introdotto una funzione che suggerisce ai ragazzi sotto i 16 anni di disattivare l’app dopo le 22:00.
Kyle ha dichiarato al Telegraph di essere “molto attento” agli effetti di questa funzione e che sta investendo nella ricerca per raccogliere prove prima di intraprendere qualsiasi azione. Ha anche aggiunto che le nuove normative di Ofcom dovrebbero segnare un “cambio di rotta” nell’affrontare le “esperienze tossiche” sulle piattaforme online.
Le piattaforme saranno obbligate a contrastare la diffusione di contenuti dannosi come violenza, incitamento all’odio, offese e bullismo online. I contenuti più gravi, come quelli relativi al suicidio, all’autolesionismo e ai disturbi alimentari, dovranno essere completamente eliminati dai feed destinati ai minori, così come la pornografia.
Ian Russell, attivista per la sicurezza online e padre di Molly, una ragazza quattordicenne che si è tolta la vita dopo aver visto contenuti pericolosi online, ha criticato le nuove linee guida, considerandole “troppo indulgenti” e orientate a proteggere i profitti delle aziende tecnologiche più che a combattere contenuti dannosi.