Il disegno di legge SB 1047 sul Regolamento delle AI solleva polemiche tra Innovazione e Sicurezza | AI legge | AI regolamento | IA regole | Turtles AI

Il disegno di legge SB 1047 sul Regolamento delle AI solleva polemiche tra Innovazione e Sicurezza
Il disegno di legge SB 1047 punta a prevenire rischi legati all’uso delle AI più avanzate, ma divide l’opinione pubblica tra sostenitori della sicurezza e difensori dell’innovazione tecnologica.

Il disegno di legge SB 1047 della California ha innescato un acceso dibattito sulla regolamentazione delle AI, suscitando preoccupazioni tra i colossi tecnologici e i piccoli sviluppatori. Le modifiche recenti al testo legislativo mirano a bilanciare la sicurezza con l’innovazione, ma l’iter per la sua approvazione resta complesso.

Punti chiave

  • SB 1047 mira a prevenire danni significativi legati all’uso improprio di grandi modelli di AI.
  • La normativa impone protocolli di sicurezza rigorosi, incluso un "pulsante di arresto d’emergenza".
  • Critiche emergono dal settore tecnologico, con preoccupazioni per l’impatto sulle startup e sull’innovazione open source.
  • Modifiche recenti al disegno di legge cercano di bilanciare sicurezza e innovazione, ma l’esito finale resta incerto.

 

Il disegno di legge SB 1047, noto come "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act," rappresenta un tentativo della California di affrontare preventivamente i rischi potenziali legati all’uso dei modelli di AI più avanzati. Presentato da Scott Wiener, senatore della California, il testo normativo mira a prevenire danni significativi che potrebbero derivare dall’impiego improprio di tali tecnologie. La proposta, attualmente in attesa di una votazione finale nel senato dello stato, ha polarizzato l’opinione pubblica e ha attirato l’attenzione di numerosi attori nel settore tecnologico.

Il fulcro del disegno di legge riguarda la regolamentazione delle AI di grandi dimensioni, quelle che richiedono risorse computazionali eccezionali e costi di sviluppo superiori ai 100 milioni di dollari. I modelli che rientrano in questa categoria, come GPT-4 di OpenAI, sono al centro del dibattito, poiché la normativa prevede che le aziende sviluppatrici implementino protocolli di sicurezza rigorosi per evitare danni catastrofici, come attacchi informatici o la creazione di armi. Una delle disposizioni più discusse del testo riguarda l’introduzione di un "pulsante di arresto d’emergenza," che consentirebbe di disattivare immediatamente un modello di AI in caso di minaccia.

Il disegno di legge non si limita a stabilire regole per le aziende che sviluppano tali modelli, ma si estende anche a chi utilizza software open source. Se un modello derivato viene sviluppato con un investimento pari a meno di tre volte quello dell’originale, la responsabilità legale ricade ancora sullo sviluppatore del modello originale. Questo ha suscitato l’opposizione di figure influenti nel mondo dell’AI, come Andrew Ng e Yann LeCun, che sostengono che la proposta potrebbe ostacolare l’innovazione nel settore open source.

L’opposizione al disegno di legge non si ferma qui. Numerosi venture capitalist, tra cui Marc Andreessen di a16z, hanno espresso preoccupazioni sul potenziale impatto del SB 1047 sulle startup tecnologiche. L’aumento dei costi di sviluppo potrebbe portare molte piccole aziende a rientrare nei parametri del disegno di legge, con conseguenti oneri aggiuntivi per rispettare le nuove normative. Il rischio, secondo questi critici, è che la California diventi un ambiente meno favorevole per l’innovazione tecnologica.

D’altro canto, i sostenitori del disegno di legge, tra cui i "padri dell’AI" Geoffrey Hinton e Yoshua Bengio, vedono in queste misure una necessaria precauzione per evitare scenari disastrosi. Il Center for AI Safety, un’organizzazione che ha sostenuto pubblicamente il disegno di legge, ha paragonato i rischi dell’AI a quelli delle pandemie e delle guerre nucleari, sottolineando l’importanza di regolamentazioni preventive.

Le recenti modifiche al testo del disegno di legge, influenzate anche dalle proposte di Anthropic, una delle aziende di AI più avanzate, hanno cercato di mitigare alcune delle preoccupazioni espresse. Tra le modifiche più significative vi è l’eliminazione della "Frontier Model Division," l’agenzia che avrebbe dovuto sovrintendere all’applicazione delle nuove regole, e la riduzione dei poteri del procuratore generale della California, limitandoli alla possibilità di richiedere misure correttive senza poter intentare cause legali prima che si verifichi un danno effettivo.

Nonostante queste modifiche, il disegno di legge mantiene la sua struttura fondamentale, imponendo comunque una responsabilità significativa sugli sviluppatori di AI per garantire la sicurezza dei loro modelli. Tuttavia, resta da vedere se queste modifiche saranno sufficienti a ottenere l’approvazione finale e il sostegno necessario da parte del governatore Gavin Newsom, che avrà l’ultima parola sulla trasformazione del disegno di legge in legge.

In un contesto più ampio, il dibattito sul SB 1047 solleva questioni cruciali riguardanti il futuro della regolamentazione dell’AI. Mentre la tecnologia continua a evolversi a un ritmo vertiginoso, la necessità di un equilibrio tra innovazione e sicurezza diventa sempre più evidente. La California, con la sua lunga tradizione di leadership nell’innovazione tecnologica, si trova ora di fronte a una sfida delicata: stabilire norme che proteggano la società senza soffocare il progresso scientifico. Questo dibattito potrebbe non solo definire il futuro dell’AI nello stato, ma anche influenzare le politiche a livello nazionale e internazionale.