Intelligenza artificiale e ingegneria sociale: le nuove frontiere del cybercrime

Le tecniche di intelligenza artificiale hanno da sempre lo scopo di spingere l’interlocutore, ingannandolo, ad assecondare le intenzioni dell’attaccante.

Tutti ormai conosciamo e sappiamo difenderci dalle mail truffa provenienti dagli stati africani o dalla tipica e-mail di phishing, di conseguenza l’ingegneria sociale ha trovato nuovi metodologie per portare i propri attacchi.

Tra le nuove tecniche vi sono anche quelle che utilizzano l’intelligenza artificiale allo scopo di produrre contenuti multimediali contraffatti che hanno come obbiettivo quello di screditare una determinata persona o, per quello che qui interessa, ingannare un soggetto e portarlo a fare qualcosa.

DeepFake quale tecnica di attacco

Il nuovo orizzonte, infatti, prevede la creazione di video o audio che imitano in tutto e per tutto le caratteristiche di un soggetto rilevante all’interno dell’organizzazione aziendale attaccata, inoltrando il contenuto ad una persona facente parte della catena di comando sottoposta al soggetto “imitato”.

all’interno di questo contenuto il dirigente impartisce al sottoposto un ordine, in genere l’esecuzione di un bonifico o trasferimento di denaro o la condivisione di dati, al quale molto difficilmente non verrà dato seguito.

Trend Micro rivela:

“L’utilizzo da parte dei cybercriminali di contenuti vocali generati dall’Intelligenza Artificiale a scopo di social engineering, è stato rilevato per la prima volta a marzo 2019. A quanto riferito, un’azienda elettrica in Uk sarebbe stata derubata di 243 mila dollari da truffatori che avrebbero usato una AI per imitare la voce del CEO della società”

Le ragioni che rendono particolarmente efficace questa tecnica sono relativamente intuitive:

  • Non è molto complesso reperire immagini e tracce vocali dei soggetti più in vista delle aziende attaccate, in quanto questi compaiono spesso in video online, o a conferenze o eventi aperti al pubblico.
  • Grazie a queste informazioni la tecnologia permette di creare contenuti altamente credibili, che mettono il soggetto attaccato nella condizione di avere la piena convinzione di obbedire ad un ordine legittimo impartito da un proprio superiore.

Come difendersi

Ad una minaccia nuova come questa è necessario utilizzare contromisure altrettanto nuove.

Questa così sofisticata tecnica di ingegneria sociale, infatti, non può essere contrastata con nessuno dei comuni device di sicurezza informatica e in genere non viene rilevata dal soggetto dotato di competenze informatiche nella media.

  • Google ha già rilasciato un vasto dataset di video deepfake per aiutare i ricercatori a rilevare le falsificazioni, che possono essere utili a riconoscere contenuti sospetti (video dall’aspetto “artificiale”, messaggi vocali dall’intonazione sbagliata o molto lenti)
  • Formazione: l’unica vera contromisura a questo genere di attacchi è e rimane una adeguata formazione del personale, che sappia sempre riconoscere i segnali che rivelano la presenza di una possibile truffa.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


Torna in alto