Seguici su
Tecnologia 6 novembre, 2018 @ 3:57

Chi insegna l’etica umana agli algoritmi?

di Gianluca Dotti

Contributor

Giornalista scientifico freelance e divulgatore, si occupa principalmente di scienza, tecnologia, business e startup.Leggi di più dell'autore
Classe 1988, dopo la laurea magistrale in Fisica della materia all’università di Modena e Reggio Emilia ottiene due master. Libero professionista dal 2014 e giornalista pubblicista dal 2015, ha collaborato o collabora anche con Wired Italia, Radio24, Business Insider Italia, L’Unità, OggiScienza, Galileo e Youris. chiudi
Oliver Schabenberger, Executive Vice President, COO e CTO di SAS, ospite a Milano del convegno internazionale Analytics Experience 2018. (Analytics Experience/SAS)

Sappiamo come sfruttare la matematica per diagnosticare il cancro, ma non abbiamo idea di chi debba essere responsabile quando la matematica sbaglia. Probabilmente siamo solo agli albori dell’era dell’analytics, ossia dell’analisi sistematica dei big data, ma i tempi sono già maturi perché gli algoritmi smettano di essere scatole nere indecifrabili, e siano resi palesi i criteri con cui sono stati realizzati dai programmatori. Il tema delle implicazioni sociali dell’intelligenza artificiale, vale a dire, non può più essere appannaggio di pochi tecnici addetti ai lavori, ma merita una riflessione e una discussione collettiva, vista la prevedibile pervasività degli algoritmi nella quotidianità domestica e lavorativa del nostro futuro.

“È un tema che doveva essere sollevato già 20 anni fa: rispetto ad allora, oggi la velocità con cui l’evoluzione avviene è diversa, così come è diverso il numero di settori a cui tutto ciò si applica. Non si può aspettare oltre”. A lanciare questo appello è Oliver Schabenberger, Executive Vice President, COO e CTO di SAS, ospite a Milano del convegno internazionale Analytics Experience 2018, organizzato dalla stessa azienda e centrato sulle soluzioni avanzate di analisi dei dati.

Come ha raccontato a Forbes Randy Guard, Executive Vice President e CMO di SAS, oggi l’analytics trova applicazione principalmente nelle banche e nelle assicurazioni per sistemi antifrode e di gestione del rischio, in parallelo a un forte interesse da parte di università e centri di ricerca. I servizi di visualizzazione e di preparazione dei dati sono i più richiesti, soprattutto nel settore pubblico, a cui si affiancano altri ambiti applicativi come i trasporti, il commercio, le catene di distribuzione e i sistemi diagnostici in ambito medico. Infine, sta prendendo piede il modello result as a service: il cliente ha un database e un problema da risolvere, e l’azienda di servizi informatici fornisce tutto il pacchetto, dalla progettazione del software fino al risultato finale.

Conoscere come si usa un software e le sue funzioni non significa comprendere a fondo le scelte di programmazione fatte. E la mancanza di trasparenza può avere ripercussioni non solo sul business, ma soprattutto sul senso profondo di ciò che stiamo demandando alla tecnologia. “Quando parliamo di guida autonoma, o di sistemi per la diagnosi del cancro”, ha spiegato Schabenberger, “non possiamo accontentarci di capire superficialmente come questi algoritmi funzionano, ma dobbiamo interessarci all’etica con cui sono stati realizzati. Ecco perché occorre trasparenza”.

Oliver Schabenberger. (Courtesy Sas)

Accanto ai casi estremi in cui si demanda agli algoritmi della sorte delle vite umane (chi curiamo? da che parte sterziamo un’automobile in una situazione di emergenza?), un’altra decisione di fondo è se impedire o meno che i software apprendano dai big data anche i pregiudizi della nostra società. “Da una parte potremmo dare in pasto agli algoritmi solo dati ripuliti, filtrati in base a ciò che oggi consideriamo giusto o sbagliato”, continua Schabenberger, “dall’altra potremmo utilizzare tutti i dati così come sono”. In questo secondo scenario avremo algoritmi che agiscono come specchi fedeli della società, incluse le quote di sessismo, razzismo e discriminazione delle minoranze.

“Affidandoci ai big data avremo poca accuratezza proprio nei confronti dei gruppi minoritari, perché raccoglieremo meno dati e dunque anche gli algoritmi ne risentiranno”. Come ha spiegato anche Schabenberger, “un modello, un algoritmo e un set di dati possono essere perfetti solo in un mondo ideale, mentre nella realtà ci saranno sempre imprevisti e correzioni da inserire. Parlare di automazione e autonomia non significa girare la testa dall’altra parte rispetto a questi problemi, ma continuare a occuparsene”.

Come riuscire, allora, a rimuovere la blackness of the box, l’apparente barriera di indecifrabilità dei software? Da un lato passando dal freddo linguaggio della programmazione a quello naturale umano, che facilita la comprensione del contesto, ossia dell’idea generale che sta alla base di un algoritmo. Dall’altro allargando il sistema decisionale alla politica e alla società intera, evitando che le scelte siano fatte individualmente da chi si occupa del codice di programmazione. “Va però sfatato un falso mito”, racconta Schabenberger, “e cioè che se un algoritmo compie una scelta poco etica, la responsabilità sia di chi lo ha costruito, perché potrebbe invece essere colpa dei pregiudizi nascosti nei dati utilizzati per la parte di apprendimento automatico”.

Oggi infatti il sistema è data-centrico, e la stessa disciplina della analytics si basa proprio sulla raccolta di enormi quantità di informazioni prima che sullo sviluppo dell’algoritmo. “Questo approccio porta con sé alcune criticità”, spiega Schabenberger,” perché gli algoritmi costruiti a partire da un particolare insieme di dati sono difficilmente generalizzabili”. Se si sviluppa un sistema di riconoscimento facciale in Europa, quanto potrà essere accurato e funzionare bene (almeno all’inizio) se lo si applica in un altro continente? Se sviluppiamo un software di guida autonoma per le città, quale affidabilità avrà se lo si utilizza in un contesto extraurbano?

Eppure spesso le preoccupazioni relative agli algoritmi si concentrano su altro, come il timore di perdere i posti di lavoro. “Il 100% dei lavori saranno affetti in qualche modo dalla cosiddetta Artificial Narrow Intelligence”, racconta Schabenberger, “ma non è per forza una cattiva notizia. Se analizziamo quanto il lavoro sia mutato in seguito a ciascuna rivoluzione industriale, capiamo che il cambiamento è sempre stato positivo. Il modo di lavorare si è trasformato, ma non è variato il numero di occupati. Con l’intelligenza artificiale accade una cosa simile: eliminiamo i compiti ripetitivi che possono essere fatti dalle macchine, ma lasciamo posto ai lavori più creativi e peculiari dell’essere umano, che daranno vita a nuove professioni”.

Randy Guard, Executive Vice President e CMO di SAS, durante un intervento al convegno internazionale Analytics Experience 2018. (Analytics Experience/SAS)

Un esempio emblematico è quello delle frodi finanziarie: grazie all’intelligenza artificiale non si risolvono tutte le frodi, ma le si riduce a una percentuale infima. Ciò significa che gli umani potranno concentrarsi su quei pochi casi da risolvere attraverso nuove soluzioni, anziché perdere tempo con situazioni risolvibili direttamente da un algoritmo. O, allo stesso modo, per i piloti d’aereo: “oggi i velivoli sono già in grado di viaggiare da soli grazie al pilota automatico”, spiega Schabenberger, “ma questo non significa che il pilota non sia più lì. Più che una minaccia, l’intelligenza artificiale è un potenziamento e un ausilio alle abilità umane”.

Se guardiamo alla relazione uomo-algoritmo a lungo termine, invece, in prospettiva vediamo l’affacciarsi della cosiddetta Artificial General Intelligence (AGI), con la quale i computer potranno pensare e risolvere potenzialmente qualsiasi problema, proprio come un essere umano. “Finora l’AGI non esiste se non nei film di fantascienza”, illustra Schabenberger, “ma ci si sta lavorando”. Ciò induce, già da ora, a riflettere sulle conseguenze etiche di questa prossima evoluzione: “dobbiamo pensare a come spegnere il fuoco già prima di iniziare ad accenderlo”, continua, “perché se l’AGI sarà in grado di fare ciò che si propone, in uno scenario distopico, per gli umani potrebbe essere game over”.

Il cambio di paradigma, allora, sta nello smettere di chiedersi quanto saremo in grado di rendere le macchine intelligenti, ma quanto possiamo noi diventare più intelligenti grazie alle macchine. “Dobbiamo lavorare per capire le potenziali conseguenze dimenticate o sottovalutate dell’intelligenza artificiale”, chiosa Schabenberger. “Perché se da un lato c’è il timore che possa schiacciarci come fossimo formiche, dall’altro abbiamo l’opportunità di costruire sistemi in grado di ridurre l’ingiustizia sociale e il dolore umano. Anche se l’amore e l’empatia continueranno ancora a lungo a differenziarci dalle macchine”.