ChatGpt e il suo folgorante successo, 100 milioni di utenti registrati nei primi mesi, è un servizio molto utile per i privati e per le imprese ma -come tutte le innovazioni diffuse su vasta scala- racchiude problematiche inaspettate.
“Questa Ai Generativa, tra le tante cose belle che riesce a fare, è anche in grado di scrivere codici. Anche chi non è esperto di programmazione può ordinare un software al sistema. Questo significa che può scrivere anche malware, phishing per i dati personali, le carte di credito e altre pratiche borderline tipo il deepfake di un personaggio o di un manager molto influente, il menu è davvero vasto. E tra questi si nascondono anche i malware polimorfici generati da Ai”, dice Giuseppe Massa, national cybersecurity officer Cisco Security & Trust.
Ma OpenAi che ha creato ChatGpt permette di fare queste cose?
Direttamente no. Se gli chiediamo di costruire un malware ci risponde che non lo farà a causa delle restrizioni che gli sono imposte. Eppure sui forum online vengono presentati vari metodi per aggirare il divieto. Ad esempio, si può creare una porzione di codice di un certo tipo e poi unirlo a un altro e si raggiunge l’obiettivo del malware. È un dato di fatto. Noi addetti di cybersecurity abbiamo riscontrato un picco di malware negli ultimi mesi, che sono riconducibili alla diffusione di queste piattaforme di Ai.
Come si usano i DeepFake per estorcere soldi?
In Inghilterra c’è stato il caso di un gruppo di criminali informatici che hanno sintetizzato la voce di un amministratore delegato facendogli autorizzare un pagamento di 200mila sterline. Bisogna sapere che nel deepweb esistono sistemi di Ai generativa senza restrizioni che possono essere usate per il cybercrime.
È possibile riconoscere un attacco di phishing?
Oggi sono più sofisticati di ieri. Come sanno bene gli studenti che si fanno scrivere le tesine da ChatGpt, questi sistemi scrivono in un italiano corretto. Se una volta una mail scritta in maniera rudimentale ci metteva in allarme, adesso il linguaggio è perfetto ed è più facile cadere nelle trappole e farsi estorcere dati sensibili.
Come si pone Cisco rispetto a questo fenomeno planetario dell’Ai?
Siamo perfettamente consapevoli di essere all’interno di una importante rivoluzione e promuoviamo un uso etico e responsabile di questi sistemi, che poi sono modelli matematici costruiti dagli uomini. I sistemi di Ai sono già dentro le nostre applicazioni. Facciamo l’esempio di WebEx usato in milioni di riunioni aziendali. E’ dotato di un sistema intelligente per la cancellazione degli errori basato su machine learning.
Tra le tecnologie che fornite ai vostri clienti c’è una in particolare che analizza anche i dati criptati?
Si chiama Cisco Ngfw: Encrypted Visibility Engine e permette di analizzare il traffico di una rete per capire se ci sono dei malware all’interno e lo fa con i metadati (i descrittori di questo traffico). In sostanza, senza decifrare il traffico cryptato riesce a individuare al suo interno la presenza di malware.
In cosa consiste Cisco Talos?
Ogni giorno noi riceviamo dai nostri clienti 620 miliardi di richieste web e Talos analizza questa enorme quantità di dati attraverso machine learning e Ai. Per un essere umano risulterebbe impossibile.
“La gestione della sicurezza negli ultimi anni ha subito una incredibile evoluzione. Ieri avevamo dei bei firewall che proteggevano come un recinto delle aree specifiche. Oggi la sicurezza va gestita in maniera integrata in tutte le componenti che riguardano l’azienda”, aggiunge Fabio Florio, business development manager Cisco Italia.
“La buona notizia che arriva dalla Cisco Consumer Privacy Survey 2023 è che gli utenti di una fascia di età compresa tra 18 e 44 anni proteggono molto di più delle passate generazioni quando approcciano nuove app e nuovi servizi”.
I governi si apprestano a legiferare sulla sicurezza dei dati anche nell’imminente Ai Act europeo. Cosa ci dice la vostra ricerca su questo tema?
A livello mondiale il 35% del campione intervistato ha detto che tocca al Governo occuparsi di queste tematiche. In Italia la percentuale sale al 43%.
Ma gli utenti sono preoccupati o entusiasti della diffusione capillare di sistemi di Ia?
A livello Italia il 61% degli intervistati vorrebbe che i dati fossero anonimi. E il 53% si mostra preoccupato rispetto a questa nuovi modelli di Ai Generativa. Il 42% invece ritiene che sia una innovazione che migliorerà lavoro e società.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .