ChatGPT, l’intelligenza artificiale sviluppata da OpenAI, è ormai parte integrante della vita quotidiana di milioni di persone, con oltre un miliardo di richieste inviate ogni giorno. Tuttavia, nonostante il suo grande successo, ci sono crescenti preoccupazioni legate alla privacy e alla sicurezza dei dati. In effetti, ChatGPT è stato bandito in Italia a causa dei rischi associati alla gestione delle informazioni personali.
Il motivo di queste preoccupazioni è che tutte le informazioni condivise in chat possono essere utilizzate per addestrare ulteriormente l’IA, visualizzate da altri utenti o, nel peggiore dei casi, esposte accidentalmente a persone non autorizzate. OpenAI avverte chiaramente che qualsiasi dato fornito può essere usato per migliorare l’algoritmo. Per questo motivo, è fondamentale trattare tutto ciò che si scrive come potenzialmente pubblico. Forbes, infatti, ha stilato una lista di cinque cose che non dovresti mai chiedere a ChatGPT. Tra queste ci sono richieste come quelle di ottenere informazioni su come hackerare un bancomat, rubare password o manipolare qualcuno. Non solo tali azioni sono eticamente sbagliate, ma possono anche comportare conseguenze legali, con il rischio che i dati vengano inviati alle autorità competenti in caso di violazioni gravi.
Inoltre, è importante non utilizzare ChatGPT per scopi illegali. Ad esempio, nel Regno Unito e nell’Unione Europea è vietato utilizzare l’intelligenza artificiale per creare video DeepFake di persone reali, una violazione delle normative sulla privacy.
Un’altra importante precauzione riguarda l’accesso ai tuoi account online. ChatGPT non è progettato per gestire informazioni come login e password, e anche se è possibile connettersi ad altri servizi tramite l’IA, non dovresti mai condividere dati sensibili come numeri di carte di credito, codice CVC o numeri di conto bancario. Ci sono stati casi in cui informazioni private sono state accidentalmente divulgate, esponendo gli utenti a possibili rischi di attacchi informatici e furti di dati. A differenza di altre piattaforme più sicure, come quelle bancarie, ChatGPT non offre crittografia avanzata, protezione a due fattori né garanzie sulla cancellazione dei dati dopo il trattamento, così come riporta unian.ua.
Anche per quanto riguarda i documenti aziendali o dati riservati, è essenziale essere cauti. Report di lavoro, database di clienti e proposte commerciali, così come altri documenti interni aziendali, dovrebbero restare lontani dall’IA. Un esempio di rischio è rappresentato dal caso di Samsung, dove alcuni dipendenti hanno accidentalmente caricato documenti riservati su ChatGPT, esponendo informazioni sensibili.
Un altro aspetto critico riguarda la condivisione di dati medici. Anche se l’IA potrebbe sembrare una risorsa utile per chiarire sintomi o fornire informazioni sanitarie, non è mai consigliabile usare ChatGPT per trattare dati medici. L’IA non è un professionista medico e ha la capacità di “ricordare” e elaborare informazioni da diverse conversazioni, rischiando di mettere a rischio la tua privacy. Per le aziende che trattano dati medici, potrebbe esserci il rischio di sanzioni in caso di violazioni delle normative sulla privacy, come quelle previste dal GDPR in Europa.