Seguici su
Tecnologia 28 agosto, 2018 @ 4:21

Perché preoccuparsi dei deep fake, la nuova frontiera delle fake news

di Dino Amenduni

Docente di comunicazione politica ed elettorale.Leggi di più dell'autore
Classe 1984, di Bari, è socio, comunicatore politico e pianificatore strategico dell'agenzia di comunicazione Proforma. Cura un laboratorio di comunicazione politica ed elettorale all'Università di Perugia. È nello staff del Festival Internazionale del Giornalismo di Perugia. chiudi

Pensate che le fake news siano il grande male di quest’epoca? Date un’occhiata a questo video, allora:

E, se possibile, tenete a mente la prima frase nella descrizione sulla sua pagina di YouTube: “Stiamo entrando in un’era nella quale i nostri nemici possono far dire qualsiasi cosa, a chiunque, in qualsiasi momento”. Avete appena visto un minuto abbondante di una dichiarazione di Barack Obama, segnata tuttavia da un problema fondamentale: Obama non ha mai pronunciato quelle parole. Il video è un esperimento realizzato da Jordan Peele – attore, regista e sceneggiatore americano – che ha utilizzato alcuni software già disponibili sul mercato come Fakeapp, una tecnologia che permette di “montare” il volto di qualcuno sul corpo di qualcun altro.

Come ha fatto notare Buzzfeed, che ha collaborato con Peele per la realizzazione di questo esperimento, questa potrebbe essere la nuova dimensione della comunicazione politica contemporanea, e non è assolutamente una bella notizia. Oggi esistono tecnologie che possono permettere alle macchine della propaganda di immettere materiale audiovisivo totalmente artefatto, ma confezionato come se fosse del tutto verosimile. Si parla di deep fake, di falso profondo, laddove la profondità può essere intesa sia come natura del livello di sofisticazione raggiungibile, che come livello di opacità di chi immette questi materiali in rete. Come spesso accade, è la pornografia ad aver aperto il fronte del deep fake: Fakeapp è infatti già stato usato in questi mesi per giustapporre volti di personaggi famosi su contenuti per adulti.

Il grande e drammatico problema di questo tipo di contenuti è che potrebbero esasperare una delle questioni che negli ultimi anni ha reso popolare il dibattito sull’informazione manipolata: rinforzano ulteriormente le convinzioni di utenti che hanno idee molto polarizzate su uno specifico argomento o su un persona, e che dunque sono maggiormente esposte a finire dentro trappole cognitive come il bias di conferma (cioè la ricerca e il ricordo di fonti informative che confermano le proprie tesi). Se Obama dice in un video di non essere nato negli Stati Uniti, e questo è esattamente ciò di cui un utente è convinto, perché quest’ultimo dovrebbe preoccuparsi dell’attendibilità di ciò che sta vedendo (soprattutto se è terribilmente realistico)? In Italia, per il momento, non sono esempi noti al grande pubblico di video o audio palesemente manipolati con questo genere di tecniche. Negli Stati Uniti invece il dibattito è già molto maturo – forse anche a causa delle imminenti elezioni di metà mandato – e si iniziano a intravedere già i primi anticorpi al virus.

Il primo anticorpo è di natura tecnica, e agisce sullo stesso terreno di battaglia della malattia che cerca di sconfiggere. Il Dipartimento della Difesa ha infatti notato alcune caratteristiche dei video deep fake che potrebbero aiutare nella progettazione di un sistema di intelligenza artificiale capace di riconoscere immediatamente l’esistenza di un contenuto artefatto. In particolare, è stato notato che i movimenti oculari di un video fake sono palesemente innaturali, perché la tecnologia alla base della costruzione di video fake si basa su immagini di volti a occhi aperti.

La seconda reazione riguarda, ovviamente, le contromisure che uno staff politico può adottare se il leader – o l’organizzazione politica per cui lavora – si trova al centro di una polemica incentrata su un video o un audio inesistente, ma tremendamente virale. Prima di tutto, è stato notato dagli esperti, la costruzione di una rete digitale di simpatizzanti e militanti, e la loro attivazione attraverso newsletter, permette un tempo di reazione minore in caso di attacco. In secondo luogo, bisogna potenziare i meccanismi di monitoraggio dei contenuti virali online, perché un incendio può essere spento con più facilità se controllato alla radice.

In ogni caso, quel che rimane è un’ombra minacciosa che si staglia all’orizzonte: c’è il rischio che passeremo buona parte dei prossimi anni a inseguire contenuti falsi, costruiti ad arte da macchine di propaganda per colpire avversari politici o personali: saremo ancora in grado di distinguere la realtà dalla fiction?

Vuoi ricevere gli approfondimenti di Forbes direttamente nel tuo Inbox? Iscriviti alla nostra newsletter!