OpenAI sotto accusa: multa milionaria dall’Italia per violazioni sulla privacy | Chat GPT in italiano | Chat GPT gratis | OpenAI Chat | Turtles AI

OpenAI sotto accusa: multa milionaria dall’Italia per violazioni sulla privacy
Sanzione record per OpenAI: il Garante per la Privacy italiano accusa la società di violazioni nella raccolta dei dati personali, sollevando questioni importanti sull’etica e la trasparenza nell’uso dell’AI
Isabella V24 dicembre 2024


OpenAI, sviluppatore di ChatGPT, è nel mirino delle autorità italiane per presunte violazioni sulla raccolta e gestione dei dati personali. Una multa di 15 milioni di euro, accompagnata da ordini di adeguamento, evidenzia le crescenti tensioni tra regolamentazione e innovazione tecnologica.

Punti chiave:

  • Multa significativa: L’Autorità italiana ha imposto a OpenAI una sanzione di 15 milioni di euro per la gestione dei dati.
  • Trasparenza carente: Contestata la mancanza di chiarezza nell’uso dei dati personali e l’assenza di una base legale per la loro raccolta.
  • Tutela dei minori: Indagini hanno evidenziato un sistema debole di verifica dell’età, esponendo i minori a potenziali rischi.
  • Rispetto del GDPR: Le pratiche di formazione di ChatGPT sono risultate in conflitto con il regolamento europeo sulla protezione dei dati.

OpenAI si trova al centro di una controversia legale in Italia che potrebbe costare all’azienda una multa di 15 milioni di euro, equivalenti a circa 15,58 milioni di dollari, per presunte violazioni legate alla gestione dei dati personali. L’Autorità Garante per la protezione dei dati personali, il Garante, ha condotto un’indagine approfondita sulle modalità di raccolta dati utilizzate per l’addestramento di ChatGPT. Dalle verifiche è emerso che OpenAI non avrebbe fornito agli utenti informazioni chiare e trasparenti sull’impiego dei loro dati personali, mancando così di una base giuridica adeguata per tale attività, come richiesto dal Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea.

Un altro aspetto critico dell’indagine riguarda la protezione dei minori. Secondo le autorità, il processo di verifica dell’età integrato in ChatGPT sarebbe stato inadeguato, permettendo a bambini e adolescenti di accedere a contenuti generati dalAI senza adeguate garanzie. Inoltre, l’autorità ha sollevato preoccupazioni su una violazione della sicurezza dei dati verificatasi a marzo 2023, di cui OpenAI non avrebbe informato correttamente gli utenti.

Oltre alla sanzione economica, il Garante ha imposto a OpenAI di intraprendere una campagna di sensibilizzazione pubblica, che dovrà durare almeno sei mesi, per spiegare in dettaglio il funzionamento del sistema ChatGPT. Tale iniziativa mira a garantire che gli utenti – così come chi non utilizza il servizio – possano comprendere meglio come vengono raccolti e utilizzati i dati, quali diritti abbiano gli individui e come possano esercitare un maggiore controllo sui propri dati personali. La campagna includerà informazioni dettagliate sul modello di addestramento dell’AI e sull’accesso ai dati personali.

OpenAI ha reagito alla decisione definendola sproporzionata, sottolineando che l’importo della multa supera i ricavi ottenuti dall’azienda sul territorio italiano nel periodo considerato. Ha inoltre dichiarato la sua intenzione di presentare ricorso contro la sanzione, pur ribadendo il proprio impegno a sviluppare soluzioni di AI che rispettino i diritti alla privacy degli utenti e le normative vigenti. Questa vicenda mette in luce le crescenti tensioni tra le aziende impegnate nello sviluppo dell’intelligenza artificiale e le autorità regolatorie, in un contesto in cui tecnologia e privacy si intrecciano sempre più strettamente.

In questo scenario complesso, OpenAI si trova ora a dover bilanciare l’espansione tecnologica con le rigorose richieste normative, un equilibrio che determinerà il futuro delle interazioni tra innovazione e regolamentazione.