Skin
Bryan Harris Sas
Innovation

Solo il 3% delle aziende italiane ha adottato del tutto l’IA generativa. I due terzi hanno paura delle implicazioni etiche

Il 30% delle aziende italiane ha già cominciato a sperimentare l’intelligenza artificiale generativa, ovvero l’IA in grado di produrre testi, immagini o altro in base a richieste in linguaggio naturale. Un altro 30% prevede di farlo nel prossimo anno, il 31% entro due. È il risultato di un sondaggio condotto da Coleman Parkes Research e sponsorizzato da Sas, che ha intervistato, a livello globale e italiano, figure con potere decisionale nel settore dell’IA generativa e dell’analisi dei dati. L’esito della ricerca è stato annunciato durante la tappa milanese di Sas Innovate on Tour, evento con cui la società statunitense racconta in giro per il mondo le sue novità e discute di innovazione, dati e intelligenza artificiale.

Il 60% del campione ritiene che l’intelligenza artificiale generativa migliorerà in modo significativo l’esperienza dei clienti e sarà un importante fattore di innovazione. Solo il 3%, però, afferma di avere già adottato del tutto queste tecnologie nei propri processi.

Tra le principali barriere d’ingresso, gli intervistati indicano la mancanza di strumenti appropriati (57%), dubbi sull’uso dei dati interni ed esterni (56%), la complessità del passaggio dalla fase concettuale a quella pratica e nel dimostrare il ritorno sull’investimento (51%). Il 45% cita la difficoltà di integrare l’IA con i sistemi già in azienda, un 40% lamenta l’assenza di competenze interne. Solo il 18% ammette una comprensione limitata della tecnologia.

Gli investimenti sull’intelligenza artificiale

Alcune aziende hanno già guadagnato molto grazie all’intelligenza artificiale. È stato il boom dell’IA, per esempio, a spingere Nvidia verso i 3.000 miliardi di dollari di capitalizzazione di mercato e il patrimonio del suo fondatore, Jensen Huang, oltre i 100 miliardi. Durante un incontro con alcuni giornalisti a Milano, Bryan Harris, executive vice president e chief technology officer di Sas, ha spiegato però che solo una piccola parte di chi ha puntato sull’intelligenza artificiale ha già ottenuto un ritorno sull’investimento. Anche se queste aziende registrano un forte impatto sulla loro attività. “La qualità dei modelli è funzione della qualità dei dati”, ha detto. “Di conseguenza, solo chi ha investito sui dati ottiene già un ritorno sull’investimento”.

Oggi parlare di intelligenza artificiale significa parlare soprattutto di IA generativa, cioè di strumenti come ChatGPT. “L’IA generativa, però, è solo una parte del mondo dell’intelligenza artificiale”, ha rimarcato Harris. “È uno sviluppo che risponde alla domanda: ‘Come facciamo a creare un’interazione con i dati che sia simile a quella che si ha con gli esseri umani?’. Ma ha alcuni limiti. È scarsa, per esempio, nei ragionamenti quantitativi, e non basterà qualche altro sviluppo per colmare la lacuna. Altri tipi di IA ‘tradizionale’, che in realtà sono molto avanzati, continueranno a servire”.

L’importanza della qualità del dato

In un altro incontro con la stampa, Marinela Profi, AI product strategy global lead di Sas, ha ribadito che i modelli linguistici di grandi dimensioni (cioè addestrati su enormi quantità di dati per comprendere e generare messaggi in linguaggio umano) “da soli non bastano. Per noi l’intelligenza artificiale generativa è una funzionalità che può migliorare i processi produttivi esistenti. Non è una soluzione a tutti i problemi di business”.

Profi ha insistito sull’importanza della qualità dei dati su cui le organizzazioni basano le decisioni. “Spesso le persone mi chiedono che cosa cambierà nei prossimi cinque anni. Io preferisco chiedermi che cosa resterà uguale, e rispondo che avremo sempre il problema dei dati scarsi o di bassa qualità”. Una possibile soluzione è rappresentata dai dati sintetici, cioè generati da algoritmi di calcolo e simulazioni basate su tecnologie di intelligenza artificiale generativa, che imitano i dati del mondo reale. “Questo strumento si sta dimostrando molto potente. Serve quando il dato è sensibile e bisogna proteggerne la riservatezza, quando il dato è assente o scarso, oppure quando ha una bassa qualità, magari perché ci sono bias”.

Una questione etica

Dal sondaggio di Coleman Parkes e Sas sono emerse anche preoccupazioni sulla privacy dei dati (79% degli intervistati), sulla sicurezza (73%) e sulle implicazioni etiche (65%) legate all’uso della tecnologia.

Su questo tema, il 4 giugno 13 dipendenti ed ex dipendenti di OpenAI e Google DeepMind hanno pubblicato una lettera aperta in cui hanno accusato le loro aziende di privilegiare il profitto rispetto alla sicurezza. Uno dei firmatari, William Saunders, ex dipendente di OpenAI, in una dichiarazione al New York Times ha riassunto l’atteggiamento della società come ‘Buttiamo le cose nel mondo, vediamo che cosa succede e poi aggiustiamole’. Un altro, Jan Leike, che non ha sottoscritto la lettera ma ha pubblicato diversi post su X, ha affermato che “la cultura e i processi per garantire la sicurezza sono passati in secondo piano rispetto al lancio di prodotti scintillanti”.

Reggie Townsend, vice president of data ethics di Sas e membro del National AI Advisory Committee, che consiglia il governo americano sull’intelligenza artificiale, ha dichiarato che “il settore, nel complesso, ha preso atto del fatto che la sicurezza è importante. Noi, come azienda, agiamo secondo questo principio. È vero che ci sono imprese che cercano di andare veloci e con poche costrizioni. È un problema e un fronte su cui i governi devono intervenire. Allo stesso tempo, oggi assistiamo alla nascita di un’industria della sicurezza dell’IA”.

Un’intelligenza superiore a quella umana

I 13 firmatari della lettera non sono stati i primi a esprimere timori del genere. Lo scorso anno Geoffrey Hinton, considerato uno dei padri dell’intelligenza artificiale, si è detto preoccupato per gli sviluppi della tecnologia in un’intervista alla trasmissione 60 Minutes. Tra le altre cose, ha affermato che “ci stiamo avviando verso un periodo in cui, per la prima volta nella storia, potrebbe esserci qualcosa di più intelligente di noi”.

“Dobbiamo interrogarci su che cosa intendiamo con ‘noi’”, ha detto Townsend. “Al momento forniamo ai modelli di intelligenza artificiale dati che esistono già e che conosciamo. Magari non li conosco io, ma ‘noi’, come specie’, li conosciamo”.

Un’altra questione su cui riflettere, secondo Townsend, è che “abbiamo una nuova fonte da cui ricavare informazioni quando ne abbiamo bisogno. Strumenti di questo genere esistono da tempo: una volta erano le enciclopedie, più di recente internet. C’è una differenza, però. Con le enciclopedie, occorreva sapere che cosa cercare e dove. Con internet, bisognava orientarsi tra tanti link e capire quali erano più utili. In queste operazioni, insomma, era necessario esercitare il pensiero critico. Con strumenti di intelligenza artificiale, questa parte si perde. È quello che è successo con i telefoni cellulari: una volta conoscevo a memoria 25 numeri di telefono, ora faccio fatica a ricordare il mio. Quando ho rinunciato a esercitare la memoria e ho delegato questa funzione al telefono, ho sacrificato informazioni. Dobbiamo chiederci se vogliamo andare in questa direzione”.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .