Innovation

Questo filosofo di Oxford sta sviluppando un nuovo sistema per integrare l’AI nel mondo reale

Philipp Koralus, filosofo, insieme ai suoi colleghi dell’Università di Oxford, sta sviluppando in Inghilterra un nuovo sistema per riuscire a lavorare al meglio con l’AI, integrandola nel nostro mondo. Ed è convinto che la filosofia sia il mezzo più adatto per proteggere l’umanità.

Lo abbiamo incontrato a Londra, dove ci ha parlato del suo progetto e della sua visione del futuro.

È professore associato di Filosofia della Mente e Scienze Cognitive all’Università di Oxford. Su cosa sia basa la sua ricerca?

La mia ricerca ha riguardato gli aspetti dell’intelligenza, in particolare la natura del ragionamento, il giudizio morale e il processo decisionale. Inizialmente ho fatto un dottorato di ricerca congiunto in Filosofia e Neuroscienze all’Università di Princeton. Pensavo di poter capire come pensiamo attraverso le neuroimmagini.

Sono arrivato a preferire di modellare i processi di pensiero attraverso esperimenti di giudizio più semplici. Ho concluso che questo doveva essere fatto in modo continuo con l’intelligenza artificiale. Gli psicologi e gli economisti comportamentali tendono a concentrarsi sugli errori di ragionamento, mentre l’intelligenza artificiale tende a concentrarsi sul ragionamento corretto. Ovviamente, il buon pensiero e il cattivo pensiero coesistono negli esseri umani, quindi dobbiamo dare un senso a entrambi.

Ritiene che l’AI sia pericolosa?

L’intelligenza artificiale è il più grande cambiamento di piattaforma dai tempi di internet. Di recente abbiamo invitato alcune persone: un compositore, un regista, uno sviluppatore di software, un finanziere e un amministratore delegato. Tutti avevano storie sull’utilizzo di ChatGPT per migliorare i loro flussi di lavoro.

Naturalmente, qualsiasi moltiplicatore di capacità è anche un potenziale moltiplicatore di rischio quando viene utilizzato da malintenzionati. Sono particolarmente preoccupato per la manipolazione sociale, dalle truffe per imitazione alle campagne di disinformazione.

Lei è anche senior research associate presso l’Institute for Ethics in AI dell’Università di Oxford.

Questo istituto è un centro leader per lo studio di come i valori morali si intersecano con l’intelligenza artificiale. Quest’ultima deve essere regolamentata e per ottenerla correttamente è necessaria una visione chiara di come i valori a cui teniamo siano influenzati dalla tecnologia.

I filosofi hanno importanti contributi da dare, non perché abbiamo la visione definitiva di quello di cui ci si dovrebbe preoccupare, ma perché possiamo aiutare a chiarire come varie cose, che probabilmente interessano già l’umanità, sono implicate nelle nuove tecnologie in modi inaspettati.

Nel suo recente libro Reason and Inquiry parla di The Erotetic Theory. Di cosa si tratta?

Il mio punto di partenza è che abbiamo bisogno di una teoria dell’intelligenza per i sistemi senza uno scopo fisso. Lei e io siamo tali sistemi. Allo stesso modo, i sistemi di intelligenza artificiale più utili come ChatGPT non hanno uno scopo fisso. L’idea centrale della teoria erotetica – dalla parola greca “interrogare” – è molto semplice. Il nucleo del pensiero è sollevare domande e, principalmente, cercare di risolverle nel modo più diretto possibile. In secondo luogo, cerchiamo un equilibrio rispetto a ulteriori questioni che potrebbero essere sollevate.

Ci può fare un esempio?
Certo. Fa molto caldo oggi a Londra. Potremmo chiedere se possiamo prendere un cocktail margarita ghiacciato. Potremmo quindi semplicemente avere una risposta come: “Sarebbe rinfrescante!” Tuttavia, se prima solleviamo un’ulteriore domanda: “Che ne dici di una limonata fredda?” Potremmo avere come risposta: “Sarebbe rinfrescante!”

Quindi?
Quindi, questo non risolve più la nostra domanda a favore di un cocktail, poiché anche una limonata è rinfrescante. Ciò significa che il nostro giudizio iniziale pro-margarita era fragile per ulteriori domande. Spesso rispondiamo alle nostre domande in modo troppo diretto quando potremmo essere più circospetti, il che può portare a errori di giudizio. Il successo razionale richiede di trovarsi in quello che io chiamo equilibrio erotetico: una sorta di sicurezza di giudizio rispetto a un’appropriata gamma di domande. Questo è il tipo di sicurezza che l’AI attualmente tende a mancare.

Ad esempio, in uno studio recente, abbiamo scoperto che la versione più avanzata di GPT ha commesso più del tipo di errori di giudizio che gli esseri umani commettono quando non sono in equilibrio erotetico. Poiché GPT sta imparando a farlo dai dati umani, abbiamo chiamato il documento Humans in, Humans out. Speriamo che, oltre a far luce sul giudizio umano, la teoria erotetica ci aiuti a costruire un’AI più sicura.

Con chi altro sta collaborando nei suoi studi sull’AI?

La ricerca su argomenti legati all’intelligenza artificiale è diventata un po’ come la ricerca sulle turbine a reazione, in cui sono necessarie sia la teoria che un serio sforzo industriale. Attualmente, sto realizzando un progetto con Generally Intelligent, una società della Bay Area di San Francisco che sviluppa agenti di intelligenza artificiale che vengono impiegati in situazioni del mondo reale, per costruire sistemi più sicuri e affidabili.

Come vede il futuro del mondo?

L’intelligenza artificiale potrebbe inaugurare una nuova età dell’oro dello sviluppo umano. Per un numero incalcolabile di persone, l’assistenza dell’Ai potrebbe fornire mezzi accessibili per poter contribuire alla società. La mancanza di capacità di utilizzare le informazioni e trasformarle in risultati attuabili sarà drasticamente ridotta.

La natura di molti lavori cambierà di conseguenza. Alcuni lavori scompariranno. Tuttavia non è corretto presumere che ci sarà meno lavoro per le persone in generale, solo perché avremo bisogno di meno persone per svolgere la stessa quantità di lavoro. L’umanità è piena di potenzialità non realizzata. Per esempio: prendiamo l’istruzione. L’istruzione standardizzata è inefficace rispetto a ciò che è teoricamente possibile in termini di trasferimento di conoscenze e abilità.

E se avessimo tutor di intelligenza artificiale con infinita pazienza e capacità di riformulare il materiale per farlo divenire rilevante per lo studente? L’intelligenza artificiale potrebbe consentire agli insegnanti di concentrarsi sui singoli studenti in un modo finora impossibile. Spetta quindi alla società decidere se utilizzare una maggiore efficienza per ottenere gli stessi vecchi risultati in modo più economico o se vogliamo raccogliere i frutti di una migliore istruzione.

L’intelligenza artificiale potrebbe anche essere un’arma di educazione di massa in aree che non hanno alcuna scolarizzazione significativa e aiutare ad affrontare un’enorme ingiustizia globale. L’AI da sola non determina se costruiremo un’era illuminata o una distopia.

Quali saranno i maggiori problemi per l’umanità in futuro?

Trovare energia pulita e abbondante, la qualità della vita e mantenere un ordine mondiale che miri a una libertà significativa per l’individuo.

Lei è nato in Germania, come ha deciso di studiare e lavorare all’estero?

Sono cresciuto in Germania, Austria e in Inghilterra. Sono nato a Monaco. Mio padre allora lavorava for l’UNDP (United Nations Development Program) ed era in Papua Nuova Guinea. Mi trasferii con mia madre a Vienna. Quando ero adolescente, venni in Inghilterra, per frequentare una boarding school, la Brockwood Park School.

Era una scuola molto liberale, vegetariana, e focalizzava nel dare ai ragazzi la maggiore libertà che volevano, con un processo non accademico ma innovativo. Ci ispiravano a dare sfogo alla nostra creatività, a realizzare progetti d’arte, di giardinaggio, di design. Mi ritrovai a gravitare nella biblioteca, che era ricca di libri di scienza e di filosofia. Andai poi a studiare negli Stati Uniti.

Come si è appassionato alla filosofia? Quanto pensa sia importante oggi?

Ero al Pomona College in California, stavo seguendo diversi corsi da linguistica francese, a psicologia, matematica e scienze. Avevo provato svariate materie sia in discipline umanistiche sia scientifiche. Ponevo troppe domande che erano considerate fuori dai limiti possibili.

Alla fine, uno dei miei professori mi fece marciare fisicamente fuori dall’aula del seminario e nell’ufficio di un professore di filosofia e gli disse: “Penso che questo sia uno dei tuoi!” Mai uno studente è stato più grato di me per essere stato espulso dalla classe. La filosofia offre totale libertà di prospettiva se sei disposto a correre dei rischi. La filosofia può attraversare qualsiasi disciplina, ma senza un insieme fisso di presupposti.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .