chatgpt-bard-intelligenza-artificiale
Tech

L’Ia ha una coscienza? Lo studio di un team di neuroscienziati, filosofi e informatici

L’Intelligenza artificiale ha una coscienza? È questa la domanda – posta da esperti, scienziati e filosofi – a cui un team internazionale composto da 19 neuroscienziati, filosofi e informatici – guidati da Patrick Butlin, dell’Università di Oxford, e Robert Long, del Centro per la Sicurezza della Ia in California – ha provato a rispondere.

La ricerca, citata dalla rivista Nature sul suo sito, è stata pubblicata su arXiv, la piattaforma che raccoglie le ricerche non ancora sottoposte all’esame della comunità scientifica. Per rispondere a questa domanda, il gruppo di studiosi ha ideato una lista di criteri che, se soddisfatti, indicherebbero che un sistema ha una alta probabilità di avere una coscienza.

Come si legge su Nature, il team sostiene che non individuare una “coscienza” di un sistema Ia può essere un grave errore. “Se consideriamo che qualcosa abbia una coscienza”, secondo la co-autrice Megan Peters, neuroscienziata presso l’Università della California, “ciò cambia molto su come noi esseri umani riteniamo che quell’entità dovrebbe essere trattata”.

I criteri usati

Una delle sfide nello studio della coscienza nell’Ia è definire cosa significhi avere una coscienza.  Come si legge su Nature, gli autori hanno assunto che la coscienza sia correlata a come i sistemi elaborano le informazioni, indipendentemente da ciò di cui sono composti: siano essi neuroni, chip informatici o qualcos’altro. Questo approccio è chiamato funzionalismo computazionale. Hanno anche ipotizzato che le teorie sulla coscienza basate sulla neuroscienza, che vengono studiate attraverso scansioni cerebrali e altre tecniche in esseri umani e animali, possano essere applicate all’Ia.

Per creare il loro quadro di riferimento, gli autori hanno quindi utilizzato sei teorie diverse. L’idea è che se un sistema Ia funziona in modo che corrisponda ad alcuni aspetti di molte di queste teorie, allora è più probabile che abbia una coscienza.

Una delle teorie prese come parametro è la teoria del “global workspace”, che sostiene che gli esseri umani e altri animali utilizzano molti sistemi specializzati, anche chiamati moduli, per svolgere compiti cognitivi come vedere e sentire. Questi moduli lavorano in modo indipendente, ma in parallelo, e condividono le informazioni integrandosi in un unico sistema. Questa teoria può essere applicata anche all’intelligenza artificiale “osservando l’architettura del sistema e come le informazioni vi fluiscono”, ha spiegato Long.

Secondo quanto riportato sulla ricerca, nessuno dei sistemi attuali dotati di Ia – tra cui ChatGpt – risponde ai requisiti di coscienza elencati sulla base della checklist.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .