Articolo tratto dal numero di ottobre 2024 di Forbes Italia. Abbonati!
Ce ne accorgiamo guardando sui social foto o video palesemente irreali, o ascoltando la voce riprodotta alla perfezione di personaggi noti usata nelle maniere più diverse, ma sarebbe una terribile semplificazione ridurre il fenomeno alla manipolazione di immagini e filmati.
L’intelligenza artificiale si sta affermando sempre più come una tecnologia di base che – se ben usata – può portare all’umanità benefici tanto dirompenti quanto quelli apportati in passato dall’elettricità o dalla macchina a vapore.
Certo, come ogni accelerazione repentina della tecnologia, accanto alle opportunità porta con sé incognite e problemi: è il caso dei pericoli del fake content, che può colpire la reputazione di individui e organizzazioni, ma anche dei rischi cyber e di altri connessi a piccole e grandi scelte condizionate da bias e interpretazioni errate dei dati (le cosiddette ‘allucinazioni’ dell’IA).
C’è però un ambito su cui vale la pena di soffermarsi, ossia il suo utilizzo negli ecosistemi digitali, in particolare nel settore del digital trust. Un’applicazione tipica dell’intelligenza artificiale è a supporto delle tecniche di identificazione basate su face matching, ovvero sul riconoscimento facciale del cliente che presenta un documento di identità, in cui, grazie all’IA, è possibile verificarne sia la presenza concreta (la cossiddetta ‘liveness’), sia la coerenza tra viso e foto sul documento.
“Quest’ultimo, tuttavia, deve dare la certezza della propria autenticità: l’IA viene ancora in soccorso, grazie a tecnologie di anti-tampering documentale che rilevano la correttezza formale, verificando in tempo reale font, allineamenti, dimensioni, elementi di sicurezza del documento e restituendone uno score di affidabilità”, spiega Igor Marcolongo, head of business evolution di InfoCert-Tinexta Group.
Il ruolo dell’AI
Altre soluzioni che si avvalgono dell’IA sono usate per sviluppare assistenti digitali che dimostrano sensibilità emotiva e capacità di instaurare un dialogo significativo con l’utente, funzionando come agenti virtuali intelligenti affidabili.
“Una delle prime applicazioni di questo genere”, continua Marcolongo, “è il progetto Present (Photoreal realtime sentient entity) nell’ambito di Horizon Europe, programma quadro dell’Unione europea per la ricerca e l’innovazione nel periodo 2021-27. Con la diffusione dei large language model (modelli linguistici di grandi dimensioni alla base della cosiddetta IA generativa) è stato possibile lanciare sul mercato soluzioni che assistono i clienti quando si trovano a interagire con i contact center o mentre utilizzano prodotti come la firma elettronica e la posta certificata. Ciò permette di creare relazioni con l’utenza chiamata a conversare con i prodotti: aggiungere funzionalità alle soluzioni tecnologiche semplifica loro la vita. Ciò è tanto più vero quando si chiede all’IA di sostituire il tradizionale ufficio protocollo o ufficio posta, soprattutto all’interno delle grandi organizzazioni. Oggi è possibile ottenere classificazioni automatizzate della corrispondenza digitale in ingresso, inclusa la Pec: l’IA è in grado di leggere e capire il contenuto dei messaggi e di smistare le comunicazioni alle persone giuste, a valle della corretta interpretazione delle diverse tipologie di documenti (meeting report, contratti, reclami, atti amministrativi e corrispondenza ordinaria), garantendo il rispetto di tempistiche previste, ad esempio in caso di reclamo”.
Non è tutto. “Questi risultati”, prosegue Marcolongo, “si raggiungono solo se si lavora in squadre costituite da persone di varia provenienza dal punto di vista della formazione: dagli esperti di tecnologia a quelli di business, da quelli di marketing a quelli di compliance. Soprattutto ora che ogni utilizzo dell’intelligenza artificiale si confronterà con il framework normativo di Bruxelles. Servono skill trasversali in grado di coordinarsi, nonché un team multidisciplinare, curioso e orientato alla sfida. L’IA non può essere concepita solo come una tecnologia, dal momento che interagisce con le diverse branche della vita delle organizzazioni, e richiede quindi di essere valutata con approccio olistico”.
Se quindi l’intelligenza artificiale offre opportunità, non vanno tralasciati rischi e questioni etiche che investono chi deve rapportarsi con gli sviluppi del settore. “Per mitigare gli impatti negativi della tecnologia”, spiega ancora Marcolongo, “un approccio one size fits all non è efficace. Occorre agire in maniera olistica su diversi livelli”.
Le tecnologie di digital trust
Il dibattito è grande, anche con un intervento del Papa, allo scorso G7 in Puglia, sugli aspetti etici dello sviluppo e dell’utilizzo dell’IA. E intensa è la discussione tra i giuristi sull’efficacia dell’AI Act e su come renderlo applicabile.
“Ritengo che le tecnologie di digital trust, che già oggi garantiscono la veridicità e la fiducia delle singole transazioni digitali”, continua Marcolongo, “possano contribuire alla costruzione di una ‘trustworthy AI’. Anzi, più ci si addentra in questo ambito, più si riconosce che gli spazi destinati alla fiducia digitale sono sterminati, perché l’IA può diventare un alleato formidabile di chi invece vuole mistificare la realtà. Oltre allo sviluppo di nuove tecnologie e standard, come quello sviluppato dalla Coalition for Content Provenance and Authenticity (C2pa) per combattere le fake news, occorre agire anche sull’accountability dei soggetti che intervengono nella catena di addestramento e configurazione dei modelli alla base, rendendoli individuabili grazie a un’identità digitale certificata. Serve avere un corretto sistema di logging and tracking delle azioni, che devono essere rese immodificabili e integre e mantenute nel tempo per poter attribuire le relazioni di causa-effetto ai responsabili, nonché riuscire a dare evidenza del dataset utilizzato per l’addestramento dei modelli di IA”.
In quanto area di business volta a garantire l’identità e l’integrità del contenuto, oltre al tempo di una transazione o il suo valore legale, il digital trust è un pilastro per costruire le basi di un ambiente digitale sicuro, affidabile e rispondente a standard di fiducia sempre più impegnativi.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .