Aumenta la trasparenza durante i mesi che vedranno elezioni in USA e altre nazioni importanti: Meta combatte i media sintetici con misure decisive.
Aggiornamento marzo 06, 2024 - Sulla scia dei precedenti annunci riguardo filigrane e sanzioni per i contenuti generati dall'AI, Meta annuncia l'implementazione diffusa di etichette per le pubblicazioni sulle sue piattaforme provenienti da strumenti di Intelligenza artificiale.
- Stiamo apportando modifiche al modo in cui gestiamo i media manipolati sulla base del feedback del Consiglio di sorveglianza e del nostro processo di revisione delle politiche con sondaggi di opinione pubblica e consultazioni di esperti.
- Inizieremo a etichettare una gamma più ampia di contenuti video, audio e immagini come “Made with AI” quando rileveremo indicatori di immagine AI standard del settore o quando le persone rivelano che stanno caricando contenuti generati dall’intelligenza artificiale.
- Siamo d'accordo con la raccomandazione dell'Organismo di Vigilanza secondo cui fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati ed evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questi contenuti sulle nostre piattaforme in modo da poter aggiungere etichette e contesto.
Nick Clegg, presidente degli affari globali di Meta, ha spiegato che queste nuove misure mirano a "galvanizzare" l'industria tecnologica, soprattutto in vista delle imminenti elezioni globali. La difficoltà nel distinguere i media generati dall'AI dalla realtà è un problema sempre più rilevante, e Meta sta affrontando questa sfida con un approccio multiforme.
Attualmente, Meta applica la filigrana "Imagined with AI" alle immagini generate dal suo strumento Imagine AI. Questa filigrana sarà estesa alle foto create con strumenti di terze parti, come quelli di Google, OpenAI, Microsoft o altre software house. L'obiettivo è fornire agli utenti una maggiore chiarezza sull'origine dei contenuti condivisi, promuovendo la trasparenza.
Inoltre, l'azienda introdurrà sanzioni per gli utenti che non divulgheranno se un video o un brano audio realistico sono stati creati con l'AI. Questo passo è cruciale per prevenire la diffusione di contenuti manipolati e fuorvianti, specialmente durante periodi politicamente sensibili come le elezioni.
Meta sta collaborando con gruppi come Partnership on AI per sviluppare strumenti avanzati per rilevare media sintetici, anche quando i metadati sono stati alterati. Questo impegno testimonia la volontà di Meta di lavorare a livello di settore per affrontare la sfida dell'autenticità dei contenuti generati dall'IA.
Nick Clegg ha anche sottolineato l'attenzione di Meta nei confronti di video e contenuti audio progettati per ingannare il pubblico su questioni politiche cruciali. La società prevede sanzioni che spaziano da avvertimenti alla rimozione del contenuto, indicando un approccio rigoroso per contrastare la manipolazione dei media.
Internamente, Meta sta esplorando l'uso di modelli linguistici di grandi dimensioni (LLM) come un "meccanismo di triage" per i moderatori umani. Questa strategia mira a garantire una gestione più efficiente dei contenuti problematici, un ulteriore passo verso un'esperienza online autentica e trasparente.
In sintesi, Meta sta affrontando la sfida dei contenuti generati dall'AI con una serie di nuove iniziative che promuovono la trasparenza e contrastano la manipolazione, mantenendo un occhio attento sulle elezioni globali e, soprattutto, USA, ormai imminenti.