Världsnyheter

Meta per identificare più immagini generate dall’intelligenza artificiale in vista delle prossime elezioni

Il CEO di Meta Platforms Mark Zuckerberg arriva alla corte federale di San Jose, in California, il 20 dicembre 2022.

David Paul Morris | Bloomberg | Immagini Getty

Meta sta espandendo i suoi sforzi per identificare le immagini manipolate dall’intelligenza artificiale nel tentativo di eliminare la disinformazione e i deepfake in vista delle prossime elezioni in tutto il mondo.

La società sta sviluppando strumenti per identificare i contenuti generati dall’intelligenza artificiale su larga scala quando appaiono su Facebook, Instagram e Threads, ha annunciato martedì.

Fino ad ora, Meta ha etichettato solo le immagini generate dall’intelligenza artificiale sviluppate utilizzando i propri strumenti di intelligenza artificiale. Ora, la società afferma che cercherà di applicare queste etichette al contenuto di GoogleOpenAI, Microsoft, AdobeMetà viaggio e Shutterstock.

Le etichette appariranno in tutte le lingue disponibili su ciascuna app. Ma il cambiamento non sarà immediato.

Nel post sul blog, Nick Clegg, presidente degli affari globali di Meta, ha scritto che la società inizierà a etichettare le immagini generate dall’intelligenza artificiale da fonti esterne “nei prossimi mesi” e continuerà a lavorare sulla questione “nel prossimo anno”.

Il tempo aggiuntivo è necessario per collaborare con altre società di intelligenza artificiale per “allinearsi su standard tecnici comuni che segnalano quando un contenuto è stato creato utilizzando l’intelligenza artificiale”, ha scritto Clegg.

La disinformazione legata alle elezioni ha causato a crisi per Facebook dopo le elezioni presidenziali del 2016 a causa del modo in cui attori stranieri, in gran parte russi, sono stati in grado di creare e distribuire contenuti altamente caricativi e imprecisi. La piattaforma è stata sfruttata ripetutamente negli anni successivi, anche durante la pandemia di Covid, quando le persone la utilizzavano per diffondere grandi quantità di disinformazione. Anche i negazionisti dell’Olocausto e i teorici della cospirazione di QAnon erano comuni sul sito.

Meta sta cercando di dimostrare di essere pronto affinché i malintenzionati utilizzino forme di tecnologia più avanzate nel ciclo 2024.

Sebbene alcuni contenuti generati dall’intelligenza artificiale siano facilmente rilevabili, non è sempre così. È stato dimostrato che i servizi che pretendono di identificare il testo generato dall’intelligenza artificiale, come i saggi, lo fanno mostrare pregiudizi contro i non madrelingua inglesi. Per immagini e video non è molto più semplice, anche se spesso ci sono dei segnali.

Meta cerca di ridurre al minimo l’incertezza lavorando principalmente con altre società di intelligenza artificiale che utilizzano filigrane invisibili e alcuni tipi di metadati nelle immagini create sulle loro piattaforme. Tuttavia, ci sono modi per rimuovere le filigrane, un problema che Meta intende risolvere.

“Stiamo lavorando duramente per sviluppare classificatori che possano aiutarci a rilevare automaticamente i contenuti generati dall’intelligenza artificiale, anche se il contenuto è privo di marcatori invisibili”, ha scritto Clegg. “Allo stesso tempo, stiamo cercando modi per rendere più difficile la rimozione o la modifica delle filigrane invisibili”.

Audio e video possono essere ancora più difficili da monitorare rispetto alle immagini perché non esiste ancora uno standard di settore che consenta alle aziende di intelligenza artificiale di aggiungere identificatori invisibili.

“Non possiamo ancora rilevare questi segnali ed etichettare questi contenuti da altre società”, ha scritto Clegg.

Meta aggiungerà un modo per consentire agli utenti di rivelare volontariamente quando caricano video o audio generati dall’intelligenza artificiale. Se condividono un deepfake o un’altra forma di contenuto generato dall’intelligenza artificiale senza rivelarlo, la società “potrebbe applicare sanzioni”, si legge nel post.

“Se determiniamo che immagini, video o contenuti audio creati o alterati digitalmente creano un rischio particolarmente elevato di fuorviare materialmente il pubblico su una questione materiale, potremmo aggiungere un’etichetta più evidente, se necessario”, ha scritto Clegg.

OROLOGIO: Meta è troppo ottimista riguardo alla crescita dei ricavi e dei costi

Meta è troppo ottimista riguardo alla crescita dei ricavi e dei costi nel 2024, afferma Laura Martin di Needham