Machine learning: il cuore matematico dell’intelligenza artificiale tra fiducia e responsabilità

Forbes.it
Share

di Cristina Conti, Global Technology Practice Advanced Analytics e AI – SAS

In linea di massima, quando si parla di data science ci si riferisce all’abilità di estrarre informazioni di valore dai dati, di machine learning per indicare l’insieme di tecniche e algoritmi per poter estrarre queste informazioni, di AI quando si utilizzano questi algoritmi per replicare comportamenti tipicamente umani. Moltissime persone, però, associano il machine learning al deep learning, come se fossero sinonimi. In realtà Il deep learning è l’insieme di tecniche appartenenti alla famiglia delle reti neurali che sta aiutando a proiettare il machine learning verso il futuro. Cioè verso l’abilità di analizzare dati “emozionali” quali immagini,  video, testi e conversazioni.

 

Supervisione o apprendimento con rinforzo: come imparano gli algoritmi?

Caratteristica classica degli algoritmi è la presenza di feature (le informazioni che usiamo per indagare) e di label (le informazioni che vogliamo prevedere). Tipicamente si differenzia tra modelli supervisionati e non supervisionati per identificare o meno la presenza di tali label. Ci sono poi modelli ibridi, come i modelli semi-supervisionati (dove ad esempio una feature è allo stesso tempo un label) o modelli di reinforcement learning, per cui il concetto di supervisione perde senso perché non è possibile definire label e feature, in un processo di apprendimento continuo.

Fiducia, ma niente sfere di cristallo. Etica e responsabilità rimangono “umani”

Il machine learning, va detto, non è una sfera di cristallo, va guidato nella ricerca e nella soluzione dei task che gli vengono assegnati per evitare che si prospetti uno scenario futuristico dove le decisioni si prendano sulla base di processi “black box”, ossia mediante algoritmi difficili da comprendere, interpretare e motivare.

Negli analytics “tradizionali”, guidati da un albero decisionale, è abbastanza semplice per l’uomo ricostruire i passaggi che hanno portato ad un output e quindi anche stabilire responsabilmente le azioni da intraprendere. I processi che portano all’output mediante tecniche di machine learning, al contrario, non consentono di risalire all’albero, cioè rendono molto complesso capire come l’algoritmo è arrivato a tale conclusione.

Cristina Conti.

Fairness, accountability e trust: ecco il machine learning che funziona

Se riuscire a interpretare correttamente gli algoritmi può essere compito davvero arduo per l’essere umano, va però detto che la comunità scientifica sta da tempo lavorando ad approcci di fairness, accountability e trust utili per avere una “interpretazione locale” (metodologie che prendono il nome di LIME – Local Interpretable Model-agnostic Explanations).

Queste tecniche aiutano l’uomo non tanto a ricostruire l’albero decisionale (che significherebbe ricostruire l’interpretazione dell’algoritmo completo) ma a capire, per uno specifico output, quali siano state le variabili determinanti che hanno inciso sul processo decisionale generando quello specifico output.

 

Il caso del lupo e dell’husky

Uno degli esempi più noti in letteratura e molto utile per capire il concetto di “trust” – e quindi di responsabilità decisionale attraverso l’utilizzo del machine learning – è la storia del lupo e dell’husky.

Nell’ambito del riconoscimento delle immagini, agli algoritmi vengono dati “in pasto” gradi moli di dati per poter apprendere le immagini e restituirne un output. Nel caso del lupo e dell’husky, l’algoritmo di machine learning utilizzato nell’esperimento aveva imparato che il lupo ha il pelo più scuro mentre l’husky ha il manto più chiaro. Un output che però l’algoritmo non sempre riusciva a fornire in modo corretto, attribuendo a volte all’husky la natura di lupo.

Utilizzando una metodologia di tipo LIME si è scoperto che ‘l’errore’ dipendeva dallo sfondo (una variabile): quando lo sfondo era molto chiaro (per esempio la neve), l’husky risultava avere un pelo più scuro dello sfondo dell’immagine, quindi l’algoritmo gli attribuiva impropriamente la natura di lupo.

Ciò che insegna questo caso è che, pur non conoscendo l’albero decisionale, è possibile capire qual è la variabile che incide sull’output e stabilire quindi con più serenità se tale output sia da prendere in considerazione o meno. In ogni caso, è sempre all’uomo che spetta la decisione finale.

Share