AI senza filtri: la controversa alleanza tra Grok e Black Forest Labs | | | | Turtles AI

AI senza filtri: la controversa alleanza tra Grok e Black Forest Labs
Isabella V15 agosto 2024

 

Una nuova collaborazione tra xAI e Black Forest Labs ha portato alla creazione di un generatore di immagini AI su Grok, la piattaforma di chatbot di Elon Musk, che sta rapidamente attirando l’attenzione per la sua mancanza di filtri e garanzie di sicurezza. Con modelli open-source, Black Forest Labs ha progettato FLUX.1, un sistema di generazione di immagini che supera in qualità i concorrenti come Midjourney e OpenAI. Tuttavia, la mancanza di barriere di protezione nella piattaforma ha scatenato un flusso di contenuti potenzialmente pericolosi su X, sollevando preoccupazioni su disinformazione e uso improprio.

Punti chiave:
- Black Forest Labs è la startup dietro il generatore di immagini AI di Grok, con sede in Germania e finanziata da Andreessen Horowitz.
- La tecnologia FLUX.1 offre qualità superiore rispetto ai concorrenti, ma con pochi filtri di sicurezza.
- La collaborazione con xAI di Elon Musk si allinea alla visione di un’AI "anti-woke" con meno restrizioni.
- Le preoccupazioni per la diffusione di disinformazione e contenuti inappropriati su X sono in aumento.

Black Forest Labs, una startup tedesca nata da ex ricercatori di Stability AI, ha recentemente avviato una collaborazione con xAI di Elon Musk, integrando la propria tecnologia di generazione di immagini AI nel chatbot Grok. Il modello, denominato FLUX.1, è stato lanciato ufficialmente il 1° agosto e ha rapidamente guadagnato l’attenzione del settore per la sua capacità di produrre immagini di alta qualità, superando concorrenti affermati come Midjourney e OpenAI. Tuttavia, ciò che distingue FLUX.1 non è solo la qualità delle immagini, ma anche la quasi totale assenza di filtri di sicurezza, una scelta che sembra rispecchiare la visione di Musk per un’IA meno "sveglia" e più libera da vincoli. Questa decisione ha già sollevato preoccupazioni significative. La piattaforma X, ex Twitter, è stata invasa da immagini provocatorie e controverse create con FLUX.1, come ad esempio personaggi di fantasia armati o figure pubbliche in situazioni compromettenti. Queste immagini non potrebbero essere generate dai più rigorosi generatori di immagini di Google o OpenAI, che impongono limiti stretti per prevenire abusi. Nonostante ciò, Black Forest Labs continua a promuovere la propria tecnologia come un modello open-source accessibile a tutti, disponibile su piattaforme come Hugging Face e GitHub. La startup sta già lavorando per espandere le sue capacità con un modello di generazione video, ma la fiducia nella sicurezza di questi strumenti è stata messa in discussione, soprattutto considerando i recenti episodi di disinformazione virale su X. Ad esempio, immagini deepfake di Taylor Swift e contenuti fuorvianti sul vicepresidente Kamala Harris hanno suscitato polemiche e richieste di intervento da parte delle autorità. La controversia attorno a FLUX.1 e alla sua integrazione su X potrebbe rappresentare un banco di prova per Musk, che sembra disposto a rischiare per sostenere la sua visione di un’IA più libera. La scelta di evitare filtri di sicurezza potrebbe, però, ritorcersi contro, trasformando la piattaforma in un terreno fertile per la disinformazione.


Il lancio di FLUX.1 su Grok segna un punto di svolta nell’uso dell’intelligenza artificiale, ma la mancanza di misure di sicurezza potrebbe avere conseguenze imprevedibili sul panorama della comunicazione digitale.