L’intelligenza artificiale è in continuo sviluppo e le aziende fanno fatica a starle dietro. Non avendo tecnologie proprietarie, il 53% delle società si affida a prodotti di IA di terze parti. È quanto emerge dal Building Robust Rai Programs as Third-Party AI Tools Proliferate, l’ultimo report redatto dal Mit Sloan Management Review e da Boston Consulting Group.
Il campione
L’indagine compiuta dall’istituto di ricerca dell’università del Massachusetts e dalla multinazionale di consulenza strategica ha coinvolto 1.240 esponenti di società con un fatturato annuo di almeno 100 milioni di dollari, rappresentanti di 59 settori e presenti in 87 paesi. Rispetto al report dello scorso anno, gli intervistati che ricoprono ruoli di leadership nella gestione della cosiddetta IA responsabile (che cioè segue uno sviluppo sicuro, affidabile ed etico) sono aumentati dal 16% al 29%.
I rischi di affidarsi a terzi
Tuttavia, il 71% delle organizzazioni non supervisiona i propri processi di implementazione e la stragrande maggioranza delle organizzazioni intervistate (78%) si affida fortemente a terze parti per l’uso della tecnologia esponendosi a una serie di rischi, tra cui danni alla reputazione, perdita di fiducia dei clienti, perdite finanziarie e problemi sul versante normativo. Per mitigarli, è importante utilizzare una vasta gamma di approcci e di metodi di valutazione, come la pre-certificazione dei fornitori, le revisioni interne e il rispetto dei requisiti normativi e degli standard del settore.
“L’intelligenza artificiale porta con sé alcune aree di attenzione, come il rischio di generare informazioni sbagliate, o quello di divulgazione dei dati sensibili nel caso di utilizzo improprio dei tool commerciali”, ha commentato Roberto Ventura, managing director and partner di Boston Consulting Group. “È proprio per questo motivo che un approccio responsabile all’espansione dei programmi di intelligenza artificiale è quanto mai urgente per le aziende, per essere pronte ad affrontare i crescenti rischi legati al suo utilizzo”.
L’importanza delle norme sull’IA
Il panorama normativo sta evolvendo di pari passo alla tecnologia, con molte leggi inerenti all’intelligenza artificiale che entrano in vigore di continuo. Il 51% delle aziende intervistate, rappresentative per lo più dei settori finanziario, assicurativo, bancario e pubblico, ha dichiarato di non essere soggetto a normative specifiche in merito all’uso dell’IA, ma di applicarle comunque. Le aziende che invece devono rispettare leggi a riguardo non solo contano il 13% in più di figure specializzate in intelligenza artificiale responsabile, ma rilevano anche meno insuccessi nell’implementazione della tecnologia (il 32% contro il 38% di chi non deve seguire norme).
Fondamentale è il ruolo degli amministratori delegati. L’indagine infatti evidenza che le aziende con un ceo capace di assumere un ruolo pratico nei processi di adozione dell’intelligenza artificiale riportano il 58% in più di vantaggi aziendali rispetto a quelle con ad meno partecipi.
LEGGI ANCHE: Disney crea una task force dedicata all’intelligenza artificiale. Servirà ad abbattere i costi di film e tv
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .