Newsom blocca la legge sull’AI: “Serve una regolamentazione più ampia” | | | | Turtles AI

Newsom blocca la legge sull’AI: “Serve una regolamentazione più ampia”
Il governatore della California respinge la SB 1047, chiedendo un nuovo approccio per gestire i rischi legati all’AI
Isabella V

 

Il governatore della California, Gavin Newsom, ha recentemente bloccato una proposta di legge sull’AI, la SB 1047, sostenendo che la regolamentazione delineata non rappresenti una soluzione adeguata per garantire la sicurezza pubblica. Il disegno di legge, che si concentra su sistemi di AI di grandi dimensioni, non tiene conto di una vasta gamma di modelli più piccoli e specializzati, i quali, secondo Newsom, potrebbero essere altrettanto pericolosi. Tuttavia, il veto non rappresenta una chiusura definitiva: Newsom ha chiesto ai legislatori di tornare al tavolo per creare una normativa più completa e flessibile.

Punti chiave:

  •  Il disegno di legge mirava a regolamentare solo i modelli di AI di grandi dimensioni, escludendo quelli più piccoli e specializzati, considerati ugualmente pericolosi.
  •  Newsom ha criticato l’approccio per la sua mancanza di adattabilità rispetto a una tecnologia in rapida evoluzione e per un’analisi empirica insufficiente.
  •  Il governatore teme che una normativa troppo restrittiva possa scoraggiare le aziende di AI dal restare in California, pur sottolineando l’importanza di una regolamentazione sicura.
  •  Nonostante il veto, Newsom sostiene la necessità di una normativa forte e ha sollecitato i legislatori a elaborare una proposta di legge migliorata.

Domenica, il governatore Gavin Newsom ha esercitato il suo diritto di veto su una legge che avrebbe introdotto nuove regolamentazioni per l’AI in California. Il disegno di legge, conosciuto come SB 1047, aveva l’obiettivo di stabilire un quadro di controllo per i modelli di AI di grandi dimensioni, ma Newsom ha evidenziato che tale approccio era troppo limitato. In una dichiarazione ufficiale, ha ribadito la necessità di agire per prevenire eventuali catastrofi legate alla tecnologia, ma ha espresso preoccupazioni su vari aspetti del testo proposto. Il principale punto di critica è che la normativa avrebbe riguardato solo i modelli di AI più grandi, mentre i sistemi più piccoli e specializzati sarebbero rimasti esclusi dal controllo. Secondo il governatore, questi ultimi potrebbero rappresentare una minaccia altrettanto grave, se non maggiore, e il rischio è che la legge crei un falso senso di sicurezza tra il pubblico. 

Newsom ha sottolineato come l’adattabilità sia una priorità nella regolamentazione di una tecnologia ancora in evoluzione. Infatti, il disegno di legge non avrebbe preso in considerazione il contesto in cui i sistemi di AI vengono utilizzati, come ad esempio la loro applicazione in decisioni critiche o l’uso di dati sensibili. Di conseguenza, anche funzioni di base eseguite da un sistema di grandi dimensioni avrebbero dovuto rispettare rigidi standard, un aspetto che, secondo il governatore, non è l’approccio migliore per proteggere i cittadini dalle reali minacce tecnologiche. Per Newsom, è necessario un intervento legislativo più calibrato, basato su un’analisi concreta e in grado di adattarsi alle continue innovazioni tecnologiche.

La legge SB 1047, se fosse stata approvata, avrebbe richiesto agli sviluppatori di AI di adottare una serie di misure di sicurezza per impedire che i loro sistemi potessero essere sfruttati per creare armi di distruzione di massa, provocare danni economici per almeno 500 milioni di dollari attraverso attacchi informatici, o commettere reati equivalenti a quelli per cui un essere umano sarebbe perseguito penalmente. Tra le altre misure richieste vi era l’obbligo di implementare un "kill switch", ovvero un sistema che consenta di spegnere immediatamente un modello di AI, sia durante la fase di addestramento sia durante quella operativa. Oltre a ciò, le aziende avrebbero dovuto adottare rigide misure di sicurezza informatica per prevenire l’uso improprio o non autorizzato dei loro sistemi, e implementare protocolli per la gestione dei rischi, con verifiche e relazioni periodiche sui progressi raggiunti.

Nonostante le preoccupazioni del governatore, la proposta aveva ottenuto il supporto di alcuni settori politici e tecnologici. Tra i sostenitori vi era il senatore Scott Wiener, autore del disegno di legge, il quale ha definito il veto una battuta d’arresto per chi crede nella necessità di una supervisione delle grandi aziende tecnologiche. Secondo Wiener, l’assenza di una normativa vincolante per le imprese che sviluppano tecnologie avanzate lascia la popolazione esposta a rischi potenzialmente devastanti. D’altra parte, alcuni esperti ritengono che il veto di Newsom fosse necessario: Dean Ball, ricercatore presso il Mercatus Center, ha sostenuto che le soglie dimensionali previste dalla legge fossero già obsolete e non più in linea con la rapidità dei progressi tecnologici.

Nonostante il blocco della SB 1047, Newsom ha firmato una legge che richiederà ai creatori di AI generativa di pubblicare, entro il 2026, un riepilogo dettagliato dei set di dati utilizzati per addestrare i loro modelli. Questo fornirà una maggiore trasparenza riguardo alle fonti di informazione da cui i modelli AI attingono, ma la strada per una regolamentazione complessiva e radicale dell’AI in California appare ancora lunga e complessa.

L’equilibrio tra innovazione e sicurezza rimane un tema centrale nel dibattito, con Newsom che da una parte mira a mantenere lo stato all’avanguardia nello sviluppo tecnologico, dall’altra intende garantire che la crescita dell’AI avvenga in un quadro normativo solido e adatto alla protezione del pubblico.