Nuove Normative OSI Ridefiniscono l’AI Open Source | Meta AI WhatsApp Italia | Meta AI Instagram | Meta AI APK | Turtles AI

Nuove Normative OSI Ridefiniscono l’AI Open Source
Maggiore trasparenza sui dati di addestramento sfida i giganti della tecnologia come Meta
Isabella V29 ottobre 2024

 

 L’Open Source Initiative ha aggiornato la definizione di AI open source, imponendo la trasparenza sui dati di addestramento. Questo nuovo standard potrebbe mettere in discussione l’apertura di modelli come Llama di Meta, che attualmente non rispettano le nuove linee guida.

Punti chiave:

  •  L’OSI richiede l’accesso ai dati di addestramento per considerare un’AI veramente open source.
  •  La definizione sfida modelli come Llama di Meta, con restrizioni sull’uso commerciale e mancanza di trasparenza sui dati.
  •  Meta sostiene che non esiste una definizione unica di AI open source e sottolinea la complessità del tema.
  •  Le preoccupazioni sui diritti d’autore e la protezione dei dati potrebbero influenzare le scelte delle grandi aziende tecnologiche.

L’Open Source Initiative (OSI) ha recentemente elaborato una nuova definizione di AI open source, stabilendo standard che richiedono una maggiore trasparenza rispetto ai dati utilizzati per l’addestramento dei modelli. Questa mossa, che implica che un sistema di AI debba fornire accesso non solo al codice sorgente, ma anche ai dettagli dei dati di addestramento e alle impostazioni utilizzate, rappresenta un passo significativo nel panorama tecnologico attuale. Fino ad ora, modelli come Llama di Meta erano considerati esempi di AI open source, ma con le nuove linee guida di OSI, tali affermazioni potrebbero essere messe in discussione. Llama, sebbene accessibile per il download e l’uso, ha limitazioni commerciali e non rivela informazioni sui dati di addestramento, il che lo rende inadeguato rispetto ai criteri definiti dall’OSI per una vera apertura.

Meta ha risposto a queste nuove normative, affermando che non esiste una definizione univoca di AI open source e che definire questa categoria è complesso, data la natura evolutiva dei modelli di AI. Secondo la portavoce di Meta, Faith Eischen, l’azienda condivide alcune posizioni con l’OSI, ma le divergenze rimangono evidenti, soprattutto quando si tratta di rendere l’intelligenza artificiale più accessibile senza compromettere la sicurezza o il vantaggio competitivo.

Negli ultimi anni, l’OSI ha visto un crescente interesse verso l’argomento dell’open source in relazione all’AI. Non è solo Meta a trovarsi in questa situazione: altre aziende come OpenAI e Anthropic si sono trovate coinvolte in controversie legali per presunti abusi di copyright legati ai dati utilizzati per l’addestramento dei loro modelli. Con la crescente pressione da parte di esperti e sostenitori dell’open source, la comunità tecnologica sta cominciando a chiedere maggiore responsabilità. Simon Willison, ricercatore indipendente, ha sottolineato che una definizione chiara di AI open source potrebbe aiutare a combattere l’"open washing", una pratica in cui le aziende si dichiarano open source senza realmente rispettare i principi di apertura.

Clément Delangue, CEO di Hugging Face, ha elogiato la definizione dell’OSI, considerandola un importante contributo al dibattito sull’apertura nell’AI e sul ruolo cruciale dei dati di addestramento. Anche Stefano Maffulli, direttore esecutivo di OSI, ha evidenziato come la definizione sia stata elaborata attraverso un processo collaborativo di due anni, coinvolgendo esperti di vari settori, dalla filosofia alla scienza dei dati.

Mentre Meta esprime preoccupazioni legate alla sicurezza nel rendere pubblici i propri dati di addestramento, i critici sostengono che la vera motivazione potrebbe essere il desiderio di ridurre la responsabilità legale e preservare il proprio vantaggio competitivo. Si stima che molti dei modelli di AI attualmente in uso siano stati addestrati su contenuti protetti da copyright, e le controversie legali stanno già emergendo in questo contesto. Maffulli ha paragonato la situazione attuale a quella vissuta da Microsoft negli anni ’90, quando l’azienda vedeva l’open source come una minaccia al proprio modello di business. La storia sembra ripetersi, con i giganti tecnologici che giustificano la necessità di mantenere la tecnologia sotto chiave per motivi economici e complessità.

La trasparenza e l’apertura diventano temi importanti nel dibattito sull’AI, e il futuro delle tecnologie aperte potrebbe dipendere dalle scelte che le grandi aziende decideranno di fare.