L’impatto limitato dell’AI sulla disinformazione elettorale, secondo Meta | Facebook app | Meta AI WhatsApp quando esce | Meta WhatsApp | Turtles AI
Meta ha dichiarato che l’uso di contenuti generati tramite AI ha avuto un impatto limitato sulla disinformazione elettorale nelle sue piattaforme durante il 2024. Nonostante alcune preoccupazioni iniziali, l’azienda afferma che le sue politiche di sicurezza hanno ridotto efficacemente il rischio di interferenze esterne.
Punti chiave:
- L’AI ha rappresentato meno dell’1% della disinformazione elettorale nelle piattaforme di Meta.
- Sono state rifiutate 590.000 richieste di generazione di immagini politiche legate alle elezioni.
- Le reti di disinformazione hanno mostrato risultati limitati nell’utilizzo dell’AI generativa.
- Meta ha sventato operazioni di influenza e disinformazione in vari Paesi.
Nel corso del 2024, le preoccupazioni globali sull’utilizzo dell’AI per diffondere disinformazione e interferire nei processi elettorali sembrano essersi ridotte, almeno per quanto riguarda le piattaforme di Meta, che include Facebook, Instagram e Threads. Nonostante i timori iniziali, l’azienda ha osservato che l’impatto dei contenuti generati da AI sulle elezioni e sulla disinformazione è stato trascurabile, con tali contenuti che hanno costituito meno dell’1% della disinformazione verificata durante le elezioni principali in vari Paesi, tra cui Stati Uniti, India, Brasile e Sudafrica. Questo dato si riferisce ai contenuti che riguardano elezioni, politica e questioni sociali, in un periodo che ha incluso le elezioni di rilevanza internazionale. Meta ha affermato che, pur avendo rilevato casi di utilizzo confermato o sospetto dell’AI per scopi di propaganda, la diffusione di tali contenuti è rimasta contenuta, dimostrando l’efficacia delle politiche adottate per limitare i rischi. Inoltre, la compagnia ha evidenziato che l’impiego di reti coordinate per la diffusione di disinformazione non ha portato ai risultati attesi, poiché l’AI generativa non ha conferito un vantaggio significativo in termini di produttività nella creazione di contenuti. Meta, infatti, si concentra sulla sorveglianza dei comportamenti sospetti degli account piuttosto che sui singoli contenuti che producono, indipendentemente dal fatto che siano stati creati da AI. In questo contesto, l’azienda ha sottolineato anche il blocco di circa 20 operazioni di influenza condotte da attori stranieri, nonché l’interruzione di campagne che cercavano di manipolare l’opinione pubblica con account falsi o contenuti gonfiati da like e follower fittizi. Meta ha inoltre segnalato che su altre piattaforme, come X (ex Twitter) e Telegram, sono stati pubblicati video falsificati legati a operazioni di disinformazione legate alla Russia.
Concludendo un anno di monitoraggio e risposta alle minacce, Meta ha annunciato che continuerà a rivedere le sue politiche e a prendere nuove misure per contrastare l’uso improprio dell’AI nelle prossime elezioni.