Nelle ultime ore, il governatore democratico Gavin Newsom ha bocciato il disegno di legge SB 1047 sulla sicurezza dell’Intelligenza Artificiale che, che mirava a prevenire l’uso improprio dell’IA e a proteggere i cittadini da potenziali danni. La legislazione era stata approvata verso la fine di agosto dall’assemblea statale con 41 voti favorevoli e 9 contrari.
Tuttavia, diverse organizzazioni, tra cui la Camera di Commercio, avevano sollecitato Newsom a porre il veto sul progetto di legge.
Questo provvedimento è stato promosso dal senatore democratico a Sacramento, Scott Wiener. La SB 1047 ha principalmente imposto ai più grandi sviluppatori di IA di implementare misure di sicurezza per mitigare i rischi catastrofici. Se il modello di IA di un’azienda interessata causa un disastro, definito come “vittime di massa” o danni pari o superiori a 500 milioni di dollari e le misure di sicurezza dell’azienda non sono in linea con le migliori pratiche del settore e/o gli standard governativi pertinenti, a quel punto l’azienda potrebbe essere ritenuta responsabile per danni e sanzioni finanziarie aggiuntive.
Le aziende come Google, OpenAI e Meta, che stanno sviluppando queste tecnologie, si sono opposte al testo. Qualora quest’ultimo fosse stato approvato, avrebbe messo un freno all’innovazione e, probabilmente, avrebbe costretto queste organizzazioni a lasciare la California per territori meno regolati. Tuttavia, Newsom, nelle ultime ore, ha firmato un testo in cui richiede di continuare a studiare i rischi legati allo sviluppo dell’Intelligenza Artificiale, in modo da produrre una legislazione più completa e equilibrata negli anni futuri.