Creative Commons presenta CC Signals per una condivisione responsabile dei dati nell’era dell’AI | Large language models cosa sono | Chatgpt gratis | Cosa sono i large language models | Turtles AI

Creative Commons presenta CC Signals per una condivisione responsabile dei dati nell’era dell’AI
Un nuovo framework modulare e aperto definisce regole etiche e tecniche per l’uso dei dataset nell’addestramento dell’AI, con l’obiettivo di tutelare i beni comuni digitali e promuovere la trasparenza
Isabella V26 giugno 2025

 


Creative Commons lancia CC Signals, un sistema che permette ai proprietari di dataset di specificare condizioni (credito, contributo, apertura) per l’uso dei propri contenuti nell’addestramento dell’IA. Coinvolgimento pubblico previsto fino alla fase alpha di novembre 2025.

Punti chiave:

  • Struttura modulare: segnali combinano credito, contributo diretto/ecosistemico e uso aperto
  • Obiettivo: bilanciare accesso aperto e sostenibilità per custodi dei dati
  • Partecipazione aperta tramite GitHub, town hall e pubblicazione alpha in novembre 2025
  • Integrazione con standard IETF per interoperabilità tecnica e rilettura sociale

L’organizzazione no‑profit Creative Commons, già nota per aver promosso licenze che facilitano la condivisione rispettando il diritto d’autore, lancia oggi CC Signals, un nuovo quadro tecnico‑legale che consente ai detentori di dataset di comunicare in modo chiaro le condizioni per l’utilizzo dei loro contenuti da parte di sistemi di AI. Diversamente da strumenti come robots.txt o soluzioni che impediscono lo scraping, la proposta CC Signals intende offrire un’alternativa più strutturata: un set di segnalazioni espressive — «credit», «credit + direct contribution», «credit + ecosystem contribution», «credit + open» — che possono essere applicate in modo modulare a categorie di machine‑use standard (text/data mining, training generativo, inference), rendendo leggibile tanto per le macchine quanto per gli esseri umani quali obblighi devono rispettare gli sviluppatori AI.

Il cuore dell’iniziativa è l’idea di reciprocità: chi sfrutta i dati per addestrare modelli deve restituire, sia riconoscendo le fonti sia offrendo contributi (economici o in‑kind), oppure assicurando trasparenza sull’uso mediante modelli open. Come spiega Anna Tumadóttir, CEO di Creative Commons, «CC Signals sono pensati per sostenere i beni comuni nell’era dell’AI», assicurando modalità di condivisione responsabile e sostenibile.

Il framework affronta anche la complessità legale: la sua portata giuridica potrà variare a seconda del contesto e dell’autorità contrattuale del custode del dataset, ma in ogni caso funge da estensione del ruolo delle licenze CC, senza creare nuovi diritti proprietari, bensì definendo “maniere per le macchine” di accedere ai dati. Sul piano tecnico, CC Signals si basa sugli standard emergenti dell’IETF per assicurare compatibilità globale e scalabilità.

Il progetto, ufficialmente avviato il 25 giugno 2025, mette a disposizione la documentazione — compresi report di approfondimento (“From Human Content to Machine Data”), il sito dedicato, e il repository GitHub — invitando sviluppatori, ricercatori e custodi di contenuti a contribuire ﹘ sia attraverso issue e discussioni tecniche sia partecipando a sessioni online aperte al pubblico: il 15 e 29 luglio e il 15 agosto sono già previste le prime town hall. Il rilascio della versione alpha, costruita sulla base dei contributi raccolti, è programmato per novembre 2025.

L’interesse verso strumenti di controllo sull’addestramento AI è in costante crescita: esempi recenti su questa problematica includono X, che ha lanciato e poi ritirato una policy per l’uso dei dati pubblici da parte di terze parti; Reddit, che usa robots.txt per limitare i bot; Cloudflare, che sperimenta sistemi di fatturazione per lo scraping e meccanismi di confusione; mentre la comunità open source sviluppa strumenti per ostacolare crawler non conformi. CC Signals si inserisce in questo panorama con un approccio complementare, basato su visibilità, norme condivise e opzioni modulabili.

Il quadro introdotto da Creative Commons promuove un ecosistema AI che non richieda muri o barriere monetarie, ma sia fondato su un patto di responsabilità tra chi produce dati e chi li utilizza. Obiettivo: preservare l’apertura della rete e la disponibilità delle risorse informative, evitando derive verso internet protetto o esclusivo.


Un passo tecnico‑normativo che si propone di garantire equilibrio tra sviluppo dell’AI e tutela del patrimonio informativo condiviso.