Articolo di Greta Nasi, docente di Amministrazione pubblica e direttore del Master of science in cyber risk strategy and governance dell’Università Bocconi
La pervasività delle tecnologie nella vita quotidiana di cittadini e aziende rende più vulnerabili i sistemi informatici ed espone ad innumerevoli rischi. I dati pubblicati nel rapporto Clusit 2023 evidenziano un incremento significativo degli attacchi verso tutte le tipologie di aziende, ma in particolare verso le amministrazioni pubbliche, le aziende manifatturiere, i servizi professionali e il comparto informatico.
A fronte di attacchi cyber sempre più frequenti e con conseguenze critiche in circa l’80% dei casi per le vittime a livello di reputazione, di impatto economico, sociale e dal punto di vista geopolitico, servono contromisure e strumenti adeguati che non sono sempre disponibili nelle aziende ed istituzioni italiane.
LEGGI ANCHE: Il creatore di ChatGpt chiede più regole per l’intelligenza artificiale. Ma le big tech sono contrarie
L’importanza dell’intelligenza artificiale
Spesso manca la consapevolezza del rischio, ma anche le risorse, le competenze e gli strumenti per prevenire gli attacchi, monitorare minacce e vulnerabilità tecniche e rispondere in modo tempestivo agli incidenti. Per proteggere i sistemi informatici dagli attacchi, mitigando i rischi della confidenzialità, integrità e disponibilità e dei dati richiede tempo, attività ripetitive e continue di monitoraggio e analisi dei sistemi informatici per tenere sempre costantemente aggiornati i sistemi e individuare in modo tempestivo possibili minacce.
Le tecnologie di intelligenza artificiale offrono molti vantaggi nel migliorare la sicurezza informatica e altre attività e processi che in genere richiedono intelligenza umana in termini di automazione, miglioramento del processo decisionale, esperienza personalizzata basata sulle preferenze degli utenti e maggiore sicurezza e protezione in diverse aree come la politica alimentare, i trasporti, e assistenza sanitaria.
LEGGI ANCHE: AI Causale, la nuova frontiera dell’intelligenza artificiale
Threat intelligence e cybersecurity
L’intelligenza artificiale può supportare attività di threat intelligence, monitoraggio di vulnerabilità e minacce grazie alle componenti di capacità decisionali automatizzate, consentendo ai team di sicurezza informatica di rispondere in modo più rapido ed efficiente ai problemi rilevati dalle applicazioni AI e spostando l’attenzione su attività più strategiche di governance complessiva della cybersecurity.
L’AI può facilitare il rilevamento e la risposta alle minacce, che implica l’identificazione e la risposta a potenziali attacchi informatici. L’obiettivo è rilevare attività sospette o comportamenti anomali su una rete di computer, un sistema o un’applicazione e rispondere rapidamente per mitigare il rischio, ridurre al minimo i possibili danni e prevenire ulteriori danni. Implica il monitoraggio ripetitivo e continuo di sistemi e reti per identificare comportamenti insoliti che minacciano la continuità aziendale.
I vantaggi
Le tecnologie avanzate di rilevamento delle minacce includono l’apprendimento automatico e gli algoritmi di intelligenza artificiale. Questi possono aiutare ad automatizzare il rilevamento delle minacce e le attività di analisi comportamentale ed essere addestrati per identificare modelli e anomalie nel traffico di rete, rispondendo in modo accurato e tempestivo.
Inoltre, si possono usare le tecnologie AI anche nella gestione delle vulnerabilità per identificare i rischi tecnici nei sistemi hardware e software, consentendo alle organizzazioni di correggerli e aggiornarli prima che gli aggressori possano sfruttarli. Le organizzazioni che impiegano reti di computer complesse come, ad esempio, operatori di infrastrutture critiche che governano una centrale elettrica, possono trarre notevoli vantaggi da queste tecnologie, poiché la scansione manuale delle vulnerabilità non sarebbe fattibile con lo stesso grado di efficienza.
I rischi
Se da un lato, i vantaggi dell’uso dell’intelligenza artificiale nell’ambito della cybersecurity sono significativi e potenzialmente estendibili anche oltre il supporto della ricerca, monitoraggio e risoluzione di rischi informatici, ci sono anche dei rischi di cui bisogna essere consapevoli.
Le tecniche e gli algoritmi di intelligenza artificiale devono essere adeguatamente allenati per evitare che producano risultati non attendibili che possono portare ad azioni di mitigazione del rischio non allineate alle reali minacce, con ripercussioni sull’efficiente allocazione di risorse per la gestione del rischio e sulla sua efficacia.
Il tema dei dati sensibili
Inoltre, le stesse applicazioni di intelligenza artificiale possono essere attaccate, ad esempio ci potrebbero essere attacchi all’integrità di programmazione degli algoritmi che porterebbero a evidenze viziate sull’effettivo stato di sicurezza dei sistemi. Per questo l’interconnessione tra sicurezza informatica ed intelligenza artificiale è sempre maggiore. Da un lato, l’intelligenza artificiale può migliorare la sicurezza informatica identificando e mitigando le minacce in modo più efficace.
D’altra parte, l’AI stessa può essere vulnerabile agli attacchi informatici, che potrebbero compromettere dati e sistemi.
In primo luogo, le tecnologie di intelligenza artificiale fanno molto affidamento sui dati per apprendere e prendere decisioni. La sicurezza e la privacy di questi dati sono fondamentali (Zhang et al, 2019). Supponiamo che i dati sensibili vengano compromessi o vi si accedano soggetti non autorizzati. In tal caso, può essere utilizzato per lanciare violazioni dei dati che possono servire a diversi scopi come attacchi informatici, spionaggio industriale, lancio di campagne di disinformazione e altri incidenti di sicurezza. Inoltre, potrebbe essere difficile capire come alcuni sistemi di AI prendono le decisioni. Ciò richiede maggiore trasparenza per garantire l’identificazione di potenziali rischi per la privacy e la sicurezza.
Le regolamentazioni
In secondo luogo, i modelli di intelligenza artificiale possono essere distorti, portando a risultati non intenzionali o addirittura discriminatori. Le sfide di bias e correttezza possono portare gli algoritmi di intelligenza artificiale a prendere decisioni errate, che diventano dannose nel caso di attacchi contraddittori che prendono di mira i modelli di intelligenza artificiale per manipolare i dati che utilizzano per apprendere e prendere decisioni.
Per affrontare queste sfide, è essenziale implementare rigorose misure di privacy e sicurezza per gestire correttamente i dati e garantire l’equità e la trasparenza dei sistemi di intelligenza artificiale, fornendo nel contempo la supervisione e l’intervento umano. Tutte le organizzazioni che utilizzano tecnologie di intelligenza artificiale dovrebbero adottare politiche e procedure di sicurezza appropriate specifiche per l’Ai, investire nella formazione e nella consapevolezza della sicurezza per i professionisti dell’Ai e controllare e testare regolarmente i propri sistemi di intelligenza artificiale per identificare le vulnerabilità e affrontare i potenziali rischi per la sicurezza.
Il rapido sviluppo dell’intelligenza artificiale e la sicurezza informatica e la loro integrazione, offre opportunità di scenari applicativi nuovi e sinergici. Gli sviluppi futuri possono includere lo studio della consapevolezza situazionale basata sull’intelligenza artificiale per la sicurezza informatica, che può fornire previsioni e protezione intelligenti per il cyberspazio; lo sviluppo di algoritmi di intelligenza artificiale specializzati per la sicurezza informatica, in particolare per l’intelligenza dei big data; e innovative soluzioni di protezione della sicurezza per l’Ai in futuro.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .