In vista delle elezioni europee, Meta prepara un team per contrastare la disinformazione. Marco Pancini, Head of Eu Affairs di Meta, ha descritto in un articolo gli impegni dell’azienda. “Con l’avvicinarsi delle elezioni, attiveremo anche un centro operativo elettorale specifico per l’UE – scrive Pancini – che riunirà esperti di tutta l’azienda provenienti dai nostri team di intelligence, scienza dei dati, ingegneria, ricerca, operazioni, politica dei contenuti e legali per identificare potenziali minacce e mettere in campo soluzioni specifiche mitigazioni in atto nelle nostre app e tecnologie in tempo reale”.
Le attività di Meta contro la disinformazione
Per garantire sicurezza e integrità durante il periodo elettorale, Meta sta già collaborando con organizzazioni di fact-checking, “26 partner in tutta l’UE che coprono 22 lingue”, per analizzare i contenuti. L’azienda intende attivare diverse misure per:
- Rimuovere la disinformazione da Facebook, Instagram, Threads;
- Contrastare le operazioni di influenza segreta;
- Esaminare i contenuti generati dall’intelligenza artificiale.
Meta allegherà etichette di avviso ai post sfatati dai fact checker e ridurrà la loro distribuzione nel feed, riducendo di conseguenza anche la possibilità, per gli utenti, di visualizzarli. Allo stesso tempo, l’azienda attiverà un processo di revisione degli annunci. Sono infatti vietate le inserzioni che convincono gli utenti a non votare, che mettono in discussione la legittimità di un programma e, ancora, le inserzioni che rivendicano in anticipo una vittoria elettorale.
Nonostante l’AI sia già uno strumento applicato al mondo della politica, potrebbe talvolta offuscare le campagne elettorali in corso. Come accaduto in Argentina poco tempo fa, i due candidati hanno utilizzato l’AI per alterare foto e video esistenti o crearne altri. In vista delle elezioni, Meta ha dunque intenzione di esaminare anche i contenuti generati dall’intelligenza artificiale, con l’obiettivo di proteggere sia i candidati sia gli elettori da questa capacità generativa.
Una strategia di classificazione sarà Altered, che include “audio, video o foto falsificati, manipolati o trasformati”. Quando un contenuto è considerato “alterato”, verrà etichettato e declassato nel feed, in modo che meno persone lo vedano. D’altra parte, gli utenti che condividono contenuti generati con l’intelligenza artificiale, dovranno aggiungere un’etichetta per evitare sanzioni, come la rimozione del contenuto o la sospensione dell’account.
Una risposta