Il confine tra supporto tecnologico e violazione deontologica si fa sempre più sottile, ma per il New York Times la linea rossa è stata superata. Il prestigioso quotidiano statunitense ha annunciato l’interruzione di ogni rapporto professionale con un collaboratore esterno, il giornalista e scrittore Alex Preston, dopo la scoperta che una sua recensione era stata redatta con l’ausilio dell’intelligenza artificiale.
Il caso è scoppiato in seguito alla pubblicazione di una recensione letteraria. Alcuni lettori e osservatori attenti hanno notato sospette somiglianze tra il testo apparso sul Times e un articolo precedentemente pubblicato sul Guardian. Le verifiche interne hanno confermato il timore della testata: il pezzo era frutto di un «plagio inconsapevole» generato da un software di IA.
Il chatbot utilizzato dal collaboratore avrebbe infatti rielaborato contenuti preesistenti senza citare la fonte originale, inducendo il giornalista in errore ma violando, di fatto, i rigidi standard editoriali del quotidiano. «L’uso di contenuti non attribuiti rappresenta una chiara violazione dei nostri principi», ha dichiarato un portavoce della Old Gray Lady.
L’episodio solleva un dibattito rovente nel mondo dell’editoria. Se da un lato l’IA viene vista come uno strumento per aumentare la produttività, dall’altro il rischio di allucinazioni, errori e plagi mette a repentaglio la credibilità delle grandi testate. Per il New York Times, che ha recentemente intrapreso una battaglia legale contro OpenAI proprio per la tutela dei diritti d’autore, la decisione ha anche un forte valore simbolico: nella «tana del leone» del giornalismo di qualità, la firma umana resta l’unico marchio di garanzia non negoziabile.
La recensione incriminata è stata ora integrata sul sito web del quotidiano con una nota della redazione che avverte i lettori dell’accaduto, rimandando per correttezza all’articolo originale del Guardian.









