Sentiamo parlare sempre più spesso dei deepfake e dei rischi che comportano, in tutti gli ambiti. Tuttavia, stanno diventando un rischio sempre più urgente anche per le aziende. Come? Continua a leggere per saperlo e capire come le aziende possono proteggersi.

I rischi 

L’intelligenza artificiale sta impattando sulla cybersicurezza, in termini positivi, ma anche negativi, come puoi leggere nel mio articolo L’intelligenza artificiale in ambito cybersicurezza. Tuttavia, sta emergendo una nuova casistica che in particolare riguarda l’impatto dell’IA e dei deepfake sulla sicurezza dell’Identity management. Vediamo di cosa si tratta.

Innanzitutto, vediamo cosa sono i deepfake: il termine deepfake deriva da “fake”, ovvero “falso”, e “deep learning”,  un metodo di IA, e indica una tecnica che permette di alterare foto, video o audio grazie all’IA. In sostanza, è possibile alterare media orginali: ad esempio, si può sovrapporre il volto di una persona sopra il corpo di un’altra in un video, facendo sembrare che sia una persona a compiere certe azioni, piuttosto che un’altra. Così come con la voce, facendo sembrare che una persona pronunci parole che in realtà non ha mai detto. Il problema è che questa tecnologia diventa ogni giorno più evoluta e ormai sta diventando sempre più difficile, se non impossibile, distinguere un deepfake dalla realtà.

Se vuoi approfondire cosa sono i deepfake e i possibili rischi, puoi leggere il mio articolo in merito Deep fake: un lato oscuro dell’AI?.

Come ti accennavo prima, i deepfake sono in continua evoluzione, anche grazie ai progressi continui dell’IA generativa, che li rende sempre più dettagliati e quindi realistici

Come impatta tutto questo sulle aziende?

Come riporta uno studio di Gartner, i deepfake possono compromettere i sistemi di sicurezza aziendali: molti sistemi di Identity Management utilizzano infatti la verifica dell’identità per accedere a password, account o dati aziendali con autenticazione biometrica. Con i deepfake questi sistemi sono sempre più ingannabili: utilizzando il deepfake di un dipendente, un estraneo potrebbe avere accesso a tutti i suoi documenti e dati aziendali, o per quali questo dipendente è autorizzato. 

Tuttavia, le truffe con i deepfake non si limitano solo all’autenticazione biometrica. Purtroppo si sono già verificati casi di truffe per il furto di dati o di denaro che sfruttano i deepfake. Ad esempio, come riporta questo articolo di Wired, un dipendente di una multinazionale è stato truffato proprio in questo modo: a seguito di una mail in cui gli veniva richiesto di eseguire una transazione ed aver avuto il sospetto che si trattasse di phishing, ha partecipato a una video call con i suoi colleghi, togliendosi ogni dubbio. Peccato che la call era in realtà una finta riunione con finti colleghi, creati con la tecnologia, che l’hanno indotto con l’inganno a pagare ben 3 milioni di euro.

Sempre secondo lo studio di Gartner, solo nel 2023, si è registrato un aumento del 200% degli attacchi informatici che sfruttano tecnologie di falsificazione dell’autenticazione biometrica.

Potrebbe interessarti anche: Spear Phishing: di cosa si tratta e come puoi difenderti

Come proteggersi

Attualmente, le soluzioni di protezione per i sistemi di verifica dell’identità che utilizzano l’autenticazione biometrica si basano sul rilevamento degli attacchi di presentazione, ovvero i PAD (Presentation Attack Detection) , che valutano la vitalità dell’utente, rilevando campioni biometrici. Questi però non riescono a riconoscere i deepfake: per riuscire ad arginarli, sarà necessario, ipotizza Gartner, combinare i PAD con altre tecnologie, quali gli IAD (Injection Attack Detection), ovvero il rilevamento degli attacchi di iniezione, e l’ispezione delle immagini. L’obiettivo è quello di riuscire a riconoscere i deepfake e prevenire così gli attacchi informatici: infatti, sempre secondo lo studio di Gartner, il 30% delle aziende, reputerà le soluzioni di verifica dell’identità inaffidabili, se utilizzate da sole, a causa dei deepfake entro il 2026.

Potrebbe interessarti anche: Cyber Threat Intelligence: ecco come funziona