Perché l’intelligenza artificiale non può prevedere (e condizionare) le nostre scelte

Intelligenza artificiale
(Shutterstock)
Share

Il documentario del 2019 The Great Hack, disponibile in Italia su Netflix, racconta lo scandalo Cambridge Analytica. La società inglese raccolse i dati di milioni di utenti di Facebook per analizzare il loro uso del social network, con l’obiettivo di identificare i loro gusti e le loro preferenze. Come racconta il New York Times, tutto ebbe inizio attraverso un questionario al quale risposero circa 300mila cittadini americani. Si trattava di un questionario per la profilazione psicografica, visibile e accessibile non dall’interno di Facebook, bensì da altre pagine web delle più disparate tipologie. Le persone che accedevano al questionario davano l’autorizzazione – in modo inconsapevole – ad accedere al loro profilo Facebook. Veniva così attivata un’applicazione che scaricava i dati dei loro profili: nome, data di nascita, località e lista delle pagine Facebook a cui avevano messo un “Mi piace”. L’applicazione scaricò, oltre ai dati di queste 300mila persone, anche quelli dei profili di tutti i loro amici. Secondo quanto dichiarato poi dalla stessa Facebook, furuno colpiti così 87 milioni di utenti. Per ognuno, Cambridge Analytica affermò di avere a disposizione 5mila data point.

Le risposte date al questionario psicografico furono utilizzate per classificare le persone secondo 5 profili psicologici che, abbinati alle preferenze espresse nell’attività su Facebook, consentirono a Cambridge Analytica di creare contenuti personalizzati per “influenzare milioni di persone”, come affermato varie volte nel corso del documentario.

Una bambola voodoo di dati

Gli autori di The Great Hack sostengono infatti – attraverso interviste e reportage – che Cambridge Analytica creò contenuti personalizzati per influenzare gli elettori, sotto forma di blog, articoli, video e inserzioni diffusi su tutte le piattaforme. In questo modo spinse milioni di elettori a votare per Donald Trump nelle elezioni presidenziali statunitensi del novembre 2016 e a favore della Brexit nel referendum sull’uscita del Regno Unito dall’Unione europea del giugno 2016.  

Discutendo di Cambridge Analytica, qualcuno è arrivato a dire che le aziende tecnologiche possiedono oggi una “bambola vodoo di dati” per ciascuno di noi. Una bambola che costituisce una rappresentazione digitale completa della nostra vita, tale per cui, schiacciandola nei punti giusti, è possibile manipolare il nostro comportamento nella vita reale.

In realtà, se è vero che è possibile tratteggiare il profilo psicologico di una persona sulla base del suo comportamento in rete, tuttavia non ci sono prove che sia possibile modificare le sue preferenze di voto attraverso una comunicazione personalizzata. A questo proposito, due ricercatori di Stanford hanno recentemente condotto una meta-analisi su 49 esperimenti sul campo, finalizzata a misurare l’effetto di persuasione della comunicazione personalizzata a fini elettorali – dagli annunci sui media alle mail, fino alle telefonate e alle visite a domicilio con conseguente faccia a faccia -.

I due ricercatori affermano che “l’effetto medio di questi esperimenti è pari a zero”. In altri termini, se una persona preferisce il “partito blu” rispetto al “partito rosso”, continuerà a preferire il blu – magari di un colore più acceso – anche dopo essere stato bombardato da messaggi personalizzati che vogliono fargli preferire il rosso. Detto con parole ancora diverse, le preferenze elettorali di una persona dipendono dai suoi valori e dalle sue esperienze pregresse e sono difficilmente modificabili attraverso messaggi personalizzati. Tali messaggi possono, semmai, agire da rafforzativo per chi già ne condivide il contenuto e i valori di riferimento.

L’intelligenza artificiale può prevedere i nostri acquisti?

Se da una parte è impossibile – o perlomeno molto difficile – modificare le preferenze elettorali di una persona attraverso una comunicazione personalizzata, è invece plausibile cambiarne le preferenze di acquisto attraverso messaggi generati da sistemi di intelligenza artificiale sulla base del comportamento in rete? Si può, cioè, prevedere che una cosa piaccia a un consumatore sulla base delle pagine che visita, delle parole che scrive nella barra di ricerca, dei suoi “Mi piace” e dei suoi commenti? 

Non c’è dubbio che i progressi legati allo sviluppo dell’intelligenza artificiale – e in particolare ai metodi di apprendimento automatico, il cosiddetto machine learning – stiano consentendo sviluppi rivoluzionari in molti ambiti della nostra vita, come il riconoscimento delle immagini e la traduzione dei testi. Tuttavia, prevedere le preferenze delle persone – e potere in questo modo influenzare il loro comportamento di acquisto – è qualcosa di molto diverso da ciò che può fare l’intelligenza artificiale. I motivi per i quali l’AI non riesce a prevedere correttamente le preferenze delle persone sono vari. Tuttavia, quello più rilevante è che le preferenze sono fortemente condizionate dal contesto in cui avviene la scelta.

Il contesto della scelta

Per capire come il contesto condizioni il comportamento delle persone, immaginate di abitare nel centro di una grande città. Uscite dal vostro palazzo e vi dirigete verso la vostra auto. Lungo il tragitto, seduto a terra, vedete un mendicante che chiede l’elemosina. Tra le tante persone che gli passano vicino, senza nemmeno guardarlo, il vostro sguardo si sofferma su un uomo elegante, di mezza età, in gessato grigio. Il mendicante, vedendolo arrivare, gli tende la mano, ma l’uomo mostra totale indifferenza. Potreste pensare: “Ma come si fa? Quel tipo non ha sicuramente problemi di soldi, è proprio un egoista”.

L’ipotesi che avete fatto, cioè che l’uomo elegante sia egoista e indifferente al mendicante, è un esempio del cosiddetto attribution bias, o “errore di attribuzione”: la tendenza a sovrastimare l’importanza delle caratteristiche personali e a sottostimare quella del contesto nel determinare il comportamento delle persone. Avete cioè attribuito le sue azioni a caratteristiche personali, piuttosto che a fattori legati alla fretta o all’umore del momento.

Molti rigorosi studi hanno dimostrato che è soprattutto la situazione a determinare le preferenze dei consumatori, non le loro caratteristiche personali o il loro profilo psicologico. Viene allora da chiedersi: la super-intelligenza artificiale non riesce a tenere conto del contesto? La risposta è negativa, per motivi legati al modo in cui tali sistemi sono realizzati. O – come si dice in gergo – a come sono “allenati”.

Torta o biscotti?

Immaginiamo, per esempio, di volere utilizzare un sistema basato sull’apprendimento automatico, con l’obiettivo di capire se i consumatori caratterizzati da un certo profilo psicologico preferiscono la torta al cioccolato rispetto ai biscotti al cioccolato. Nella prima fase di questo studio si utilizzano centinaia di immagini di torte e biscotti, raccolte attraverso una ricerca fatta con Google: immagini di biscotti con cioccolato sciolto nell’impasto, biscotti con pezzi di cioccolato fondente che sporgono dall’impasto, due fette di biscotto con striscia di cioccolato all’interno, una cheesecake al cioccolato, una torta vaniglia e cioccolato, e così via. Per essere sicuri di avere distinto correttamente i biscotti dalle torte, in questa fase il ricercatore chiede a un gruppo di consumatori di etichettare ogni immagine come “torta” o “biscotto”.

Nella seconda fase del progetto, viene chiesto a un gruppo più ampio di persone di rispondere a un questionario di profilazione psicografica. Se il questionario fosse, ad esempio, quello usato da Cambridge Analytica, le persone verrebbero suddivise in cinque gruppi in funzione di altrettanti tratti psicologici: apertura all’esperienza, coscienziosità, estroversione, amichevolezza e stabilità emotiva. Dopo questa profilazione iniziale, viene chiesto agli intervistati quanto giudicano “appetitose” le immagini mostrate loro, attraverso domande del tipo: “Quanto ti piacerebbe mangiare questa torta?”, “Quanto ti sembra gustoso questo biscotto?”. In questo modo il software super-intelligente apprende, per esempio, che le persone coscienziose preferiscono le torte, mentre le persone estroverse preferiscono i biscotti. Se abbiamo successo, nel giro di poche settimane otteniamo un sistema di apprendimento automatico “allenato” che è in grado di proporre messaggi che pubblicizzano torte al cioccolato alle persone coscienziose e messaggi che pubblicizzano biscotti al cioccolato alle persone estroverse.

Se invece di chiedere ai partecipanti di esprimere la loro preferenza rispondendo a una domanda fossero applicati invece i sistemi di intelligenza artificiale per la cosiddetta “lettura delle emozioni”, che elaborano i dati derivanti dalla scansione dell’attività cerebrale, si potrebbe scoprire che, nelle persone coscienziose, i centri del piacere si attivano soprattutto alla vista di biscotti al cioccolato. Se questa attivazione è accompagnata anche da un battito cardiaco accelerato, allora la preferenza per i biscotti al cioccolato da parte delle persone coscienziose è certa: molto più certa della risposta (opposta) che hanno dato e che – secondo le aziende che sviluppano i sistemi super-intelligenti per la lettura delle emozioni – non esprime la loro vera preferenza.

I limiti dell’intelligenza artificiale

Quindi, direte voi, qual è il problema? Cos’è che non va? Le cose che non vanno sono varie. Vale la pena di analizzarne un paio. La prima è che noi abbiamo assunto fin dall’inizio che i biscotti e le torte al cioccolato siano due categorie di prodotti distinte in modo netto e preciso. Questa ipotesi ha guidato la fase iniziale del progetto (la cosiddetta fase di stimolazione) e il modo in cui abbiamo poi classificato i consumatori sulla base delle loro ipotetiche preferenze. In questo modo la nostra idea viene codificata nel modello di apprendimento automatico del software super-intelligente nel corso del suo allenamento. 

Ma cosa sarebbe successo se avessimo considerato anche altri dolci dall’apparenza simile alle torte o ai biscotti al cioccolato? Ad esempio, un rotolino di pasta frolla ripieno di cioccolato, come dovrebbe essere considerato? E invece una barretta di cioccolato? E se consideriamo degli amaretti al cioccolato di pezzatura un po’ grande? Complicato, vero? Certo, tanto complicato, anche per un software super-intelligente.

E poi, che cosa succederebbe se lasciassimo all’algoritmo di apprendimento automatico il compito di dedurre autonomamente le categorie “torta” e “biscotto”? Se gli permettessimo di applicare, cioè, la tecnica chiamata apprendimento automatico senza supervisione, in cui le preferenze delle immagini sono dedotte senza che queste siano state prima etichettate. Potremmo scoprire, ad esempio, che ci sono gruppi di consumatori che adorano le torte al cioccolato con lo zucchero a velo sulla superficie, ma non le torte al solo cioccolato senza zucchero a velo. E poi, con quanto zucchero a velo? Poco o tanto? Forse dipende da quanto cioccolato c’è nell’impasto. E si potrebbe continuare così all’infinito.

La crepa principale del nostro studio sta, però, nel non avere considerato il contesto in cui il consumatore deve scegliere tra torta e biscotto. Ci potrebbero essere, infatti, persone coscienziose che preferiscono la torta a colazione e i biscotti al pomeriggio. Altre, invece, quando sono sazie – cioè al termine di un pasto – rifiutano la torta ma sono ben disposte verso un biscotto. E altre ancora – sempre coscienziose – che in una festa di compleanno non si sognerebbero mai di mangiare biscotti, perché in tutta la vita alle feste di compleanno hanno sempre mangiato solo torte.

Se, mentre leggiamo una pagina web, ci compare un annuncio lampeggiante che pubblicizza una marca di scarpe da trekking o la polizza sanitaria di una compagnia di assicurazione, ed entrambi non ci interessano per niente, non dobbiamo arrabbiarci. È un fatto fastidioso, che rende difficile la lettura della pagina. Si tratta però solamente di un errore commesso da un software (quasi) super-intelligente che non riesce a prevedere correttamente le nostre preferenze.