L’era digitale, pur portando innumerevoli benefici, si è rivelata un terreno fertile per nuove forme di truffa. L’ultimo episodio è quello del falso keynote Apple diffuso su YouTube proprio durante la presentazione dei nuovi iphone e generato interamente dall’intelligenza artificiale.
Come è successo?
Grazie agli avanzamenti nell’AI, è ora possibile creare video estremamente realistici di persone che pronunciano discorsi, anche complessi e tecnici, senza che queste siano realmente presenti. Gli autori di questa truffa hanno sfruttato questa tecnologia per simulare un keynote di Apple generando un discorso del CEO Tim Cook che parlava di un metodo per ricavare bitcoin attraverso un qrcode in sovraimpressione da scannerizzare con il proprio smartphone.
La live veniva promossa da diversi canali aperti proprio per diffondere il finto keynote che mostravano come copertina della live la medesima del keynote ufficiale Apple e lo stesso titolo.
Così centinaia di utenti, ignari della finta live hanno scannerizzato il qrcode e sono finiti su un sito di criptovalute che tentava di rubare le credenziali ai malcapitati utenti.
Fortunatamente i video in questione sono stati segnalati e rimossi da Youtube e il sito truffaldino è stato oscurato.
Eventi come questo minano la fiducia degli utenti nei contenuti online, rendendo sempre più difficile distinguere il vero dal falso.
Questo caso, molto simile a quello che abbiamo raccontato mesi fa, ci ricorda quanto sia importante affrontare il problema della disinformazione in rete. Le autorità e le piattaforme online devono collaborare per sviluppare strumenti e politiche efficaci per contrastare la diffusione di contenuti falsi e ingannevoli.
Il falso keynote generato dall’AI è solo l’ultimo esempio di come la tecnologia possa essere utilizzata per manipolare l’opinione pubblica. È fondamentale che tutti noi siamo consapevoli di queste nuove minacce e che adottiamo le misure necessarie per proteggerci, muovendoci sempre con i piedi di piombo e tenendo alta la guardia sul fronte digitale.