Skin
Cybersicurezza-aziende
Tech

Truffatori clonano la voce di un direttore d’azienda per una rapina in banca da 35 milioni di dollari

Questo articolo di Thomas Brewster è apparso su Forbes.com

Secondo gli investigatori di Dubai, la clonazione vocale dell’intelligenza artificiale è stata utilizzata in un’enorme rapina negli Emirati Arabi Uniti.

All’inizio del 2020, un direttore di banca degli Emirati Arabi Uniti ha ricevuto una chiamata da un uomo di cui riconosceva la voce: un direttore di una società con cui aveva parlato in precedenza. Il direttore aveva una buona notizia: la sua azienda stava per effettuare un’acquisizione, quindi aveva bisogno che la banca autorizzasse alcuni trasferimenti per un importo di 35 milioni di dollari. Un avvocato di nome Martin Zelner era stato assunto per coordinare le procedure e il direttore della banca poteva vedere nella sua casella di posta le e-mail del manager e di Zelner, che confermavano il denaro necessario e dove era necessario che venisse trasferito. Il direttore della banca, credendo che tutto apparisse legittimo, iniziò a fare i bonifici.

Quello che non sapeva era che faceva parte di un’elaborata truffa, in cui i criminali avevano usato la tecnologia del deepfake vocale per clonare il discorso del direttore, secondo un documento del tribunale in cui gli Emirati Arabi Uniti hanno cercato investigatori americani che li aiutassero a rintracciare 400.000 dollari di fondi rubati, finiti nei conti con sede negli Stati Uniti detenuti dalla Centennial Bank. Gli Emirati Arabi Uniti ritengono che sia stato uno schema elaborato, in cui sarebbero coinvolte almeno 17 persone. I soldi rubati sarebbero stati inviati a conti bancari sparsi in tutto il mondo.

Nel documento sono stati forniti pochi dettagli in più, senza nessuno dei nomi delle vittime della truffa. La procura di Dubai, che sta conducendo le indagini, non ha risposto alle richieste di commento al momento della pubblicazione. Anche un avvocato con sede negli Stati Uniti di nome Martin Zelner, contattato per un commento, non ha risposto.

È il secondo caso noto di truffatori che presumibilmente utilizzano strumenti di modellazione vocale per eseguire una rapina. Ma sembra aver avuto molto più successo del primo, in cui i truffatori hanno usato la tecnologia per impersonare un ceo di un’azienda energetica con sede nel Regno Unito in un tentativo di rubare 240.000 dollari nel 2019, secondo quanto riportato dal Wall Street Journal.

Il caso degli Emirati Arabi Uniti mostra quanto possano essere devastanti tali truffe ad alta tecnologia e rientra tra gli avvertimenti sull’uso dell’intelligenza artificiale per creare le cosiddetti deepfake visuali e auditivi nel crimine informatico.

“I fake audio e visivi rappresentano l’affascinante sviluppo della tecnologia del 21esimo secolo, ma sono anche potenzialmente pericolosi e rappresentano un’enorme minaccia per dati, denaro e aziende”, afferma Jake Moore, un ex agente di polizia del dipartimento di polizia del Dorset, nel Regno Unito, ora esperto di sicurezza informatica presso la società di sicurezza ESET. “Attualmente siamo in balia di attori malintenzionati che trasferiscono competenze e risorse nell’utilizzo della tecnologia per manipolare persone ignare dei rischi dei deepfake e persino della loro esistenza. La manipolazione dell’audio, che è più facile da effettuare rispetto alla creazione di video deepfake, aumenterà di volume, senza una giusta educazione e consapevolezza di questo nuovo tipo di attacco informatico”.

Una volta era una tecnologia confinata al regno dell’immaginario – vedi Mission Impossible – ma oggi la clonazione vocale è ampiamente disponibile. Diverse startup tecnologiche stanno lavorando su tecnologie vocali AI sempre più sofisticate, da Aflorithmic a Londra a Respeecher in Ucraina e Resemble.AI in Canada. La tecnologia aveva suscitato scalpore negli ultimi mesi con la rivelazione che il compianto Anthony Bourdain aveva sintetizzato la sua voce per un documentario sulla sua vita. Nel frattempo, riconoscendo il potenziale uso dannoso dell’intelligenza artificiale, una manciata di aziende, come la società di sicurezza Pindrop ora afferma di poter rilevare voci sintetizzate e quindi prevenire le frodi.

Se le registrazioni di te che parli sono disponibili online, sui social media, su YouTube o sul sito web di un datore di lavoro, potrebbe esserci una battaglia segreta in corso per il controllo della tua voce senza che tu lo sappia.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .