Secondo un rapporto della Commissione Europea, entro il 2030 oltre la metà delle professioni richiederà competenze digitali avanzate. Un report del World economic forum prevede che entro la fine del decennio, da un lato, si assisterà alla creazione di circa 170 milioni di nuovi posti di lavoro, legati direttamente o indirettamente all’intelligenza artificiale, ma dall’altro si rischia di assistere alla scomparsa di circa 92 milioni di posti di lavoro. E’ attorno alla dicotomia tra rischi e opportunità dell’intelligenza artificiale sul posto di lavoro che si sviluppa l’incontro “La sanzione etica – Trasparenza, rischi e soluzioni dei nuovi divieti in tema di AI”, promosso dal fondo interprofessionale FonARCom, stamattina a Genova, ai Magazzini del cotone, in occasione del Festival del Lavoro, di cui FonARCom è main sponsor.
Come regolamentare l’intelligenza artificiale sul lavoro senza lasciare indietro nessuno? Punto di partenza imprescindibile è l‘AI Act, il nuovo regolamento europeo che disciplina l’utilizzo dell’intelligenza artificiale, introducendo divieti per le applicazioni ad alto rischio, obblighi di trasparenza e sanzioni fino a 35 milioni di euro o al 7% del fatturato per le imprese non conformi. Uno dei passaggi più significativi è l’obbligo di formazione per i lavoratori, in vigore dal 2 febbraio 2025, rivolto a tutte le aziende che progettano, integrano o semplicemente utilizzano sistemi di intelligenza artificiale.
Il magistrato della sezione Lavoro del Tribunale di Palermo, Giuseppe Tango, sottolinea che “il diritto del lavoro è destinato a inseguire il cambiamento organizzativo che si situa a valle, a sua volta, del progresso tecnologico. L’intelligenza artificiale non ha costituito una deviazione da questo consolidato paradigma e, in un brevissimo lasso di tempo, si è imposta trasversalmente, non solo nel laboratorio delle piattaforme digitali, ma anche nelle tradizionali lavorazioni classiche”. Per il togato, “la partita da giocarsi sarà nell’ambito della deriva algocratica. E, in questo caso, efficaci antidoti saranno sicuramente una normazione, una regolamentazione legislativa già europea, ma ora anche italiana, e sicuramente la salvaguardia di una riserva di umanità”.
E’ l’avvocato giuslavorista Fabrizio Di Modica a ricordare che “la Comunità europea ha già normato tutta la questione legata all’intelligenza artificiale con l’AI act, indicando le linee guida, i divieti, le sanzioni e anche alcuni obblighi legati all’importantissimo problema dell’alfabetizzazione”. Ma cosa succederà in Italia? “Il lungo iter di approvazione” di una normativa italiana sta scontando dei ritardi, rileva l’avvocato, dovuti ad “alcune incongruenze terminologiche, ma anche altri problemi legati all’eccessivo peso che questo ddl avrebbe su alcuni tipi di professioni che sono molto importanti, come quelle sanitarie, professioni intellettuali, la giustizia. Infine, altri problemi legati ad alcune autorità di governance”.
Se i problemi terminologici sembrano ormai superati, lo stesso non si può dire per gli altri. “Il nuovo che insegue il nuovo già ha dei problemi seri legati al fatto che la tecnologia si muove molto più rapidamente dell’iter normativo- rileva Di Modica- ma oggi incontriamo l’ulteriore problema, forse il più gravoso, della necessità di adeguarsi ad alcune linee guida, la cui soluzione ad oggi non sembra ancora certa. Si parla di un’evoluzione del testo per il 5 giugno: stiamo a vedere che cosa succederà”.
Più fiducioso il presidente dell’Ordine dei consulenti del lavoro di Palermo, Antonino Alessi. “Abbiamo una normativa europea che alcune volte ha difficoltà ad armonizzarsi con quella con quella locale- ammette- ma abbiamo già gli strumenti per la gestione dell’intelligenza artificiale. Basta mutuare alcune norme -penso all’81/08 per la sicurezza degli ambienti di lavoro- e adattarle alla sicurezza degli ambienti virtuali ove opera l’intelligenza artificiale”. Insomma, aggiunge Alessi, “c’è già nel nostro passato uno strumento che dobbiamo semplicemente adattare e utilizzare per gestire gli ambienti virtuali e legati all’intelligenza artificiale in sicurezza”.
È anche un modo per dire al mondo del lavoro che non c’è bisogno di spaventarsi più di tanto dall’ingresso a piedi pari dell’intelligenza artificiale nel mondo del lavoro. “Non c’è bisogno di demonizzare gli strumenti che ci vengono messi a disposizione da un futuro che, ormai, è presente- conclude Alessi- non preoccupiamoci oltremodo: queste possono essere ulteriori opportunità per i professionisti che si vogliono specializzare nella gestione della sicurezza virtuale e dell’intelligenza artificiale, con percorsi già in parte tracciati che dobbiamo semplicemente adattare”.