L’autenticazione biometrica, che utilizza caratteristiche uniche del corpo umano come impronte digitali, riconoscimento del volto e scansione dell’iride, è diventata una caratteristica comune nei dispositivi moderni come smartphone e computer. Tuttavia, con l’avvento dell’intelligenza artificiale IA, queste forme di sicurezza stanno diventando sempre più vulnerabili.
Ma, in sostanza, come l’IA può compromettere l’autenticazione biometrica?
Deepfake per il riconoscimento facciale
Il termine “deepfake” è stato coniato nel 2017 e si riferisce a una tecnica di sintesi dell’immagine umana basata sull’intelligenza artificiale. Questa tecnica utilizza un tipo di apprendimento automatico chiamato Generative Adversarial Networks per combinare e sovrapporre immagini e video esistenti con video o immagini originali.
I deepfake possono essere utilizzati per creare video o audio falsi che sembrano molto realistici. Di esempi ne stiamo vedendo moltissimi ultimamente sulle piattaforme social, con video in cui personaggi famosi o celebrità sembrano fare o dire cose che non hanno mai fatto o detto.
Questi video possono ingannare facilmente lo spettatore, rendendo difficile distinguere tra ciò che è reale e ciò che è falso, come è successo di recente in una multinazionale di Hong Kong in cui sono stati rubati 25 milioni di dollari.
Questi deepfake possono ingannare anche i sistemi di sicurezza più avanzati basati sul riconoscimento facciale.
Clonazione delle impronte digitali
L’IA può essere utilizzata per creare repliche delle impronte digitali che possono ingannare i sensori di impronte digitali. Questo processo, noto come spoofing delle impronte digitali, può essere realizzato attraverso la creazione di stampi prendendo un calco dell’impronta digitale dell’obiettivo quando, ad esempio, la vittima non è cosciente o non si sente bene oppure attraverso l’acquisizione di immagini dallo scanner, anche se questo metodo è tecnicamente più complicato, ma non tutte le aziende che gestiscono i dati delle impronte digitali li immagazzinano in modo sicuro. Più semplicemente è possibile utilizzare programmi di clonazione utilizzati per clonare l’impronta digitale della persona che sta cercando di sbloccare la porta, ad esempio.
Attacchi di apprendimento automatico
Gli attacchi di apprendimento automatico possono essere utilizzati per ingannare i sistemi di autenticazione biometrica. Questi attacchi utilizzano l’IA per apprendere come funzionano i sistemi di sicurezza e quindi trovare modi per eluderli.
Sebbene l’autenticazione biometrica offra un livello di sicurezza superiore rispetto alle password tradizionali, l’IA sta creando nuove vulnerabilità che devono essere affrontate. È essenziale che i produttori di dispositivi continuino a sviluppare nuove misure di sicurezza per proteggere gli utenti da queste minacce emergenti. Nel frattempo dobbiamo essere consapevoli di queste vulnerabilità e prendere misure ancora più stringenti per proteggere le nostre informazioni personali.
Prepariamoci ad un escalation di frodi informatiche.