Seguici su
Tecnologia 20 giugno, 2019 @ 12:14

L’assistente vocale ora riconosce i sintomi dell’infarto, e ti salva la vita

di Simona Politini

Staff

Leggi di più dell'autore
chiudi
smart speaker
(Shutterstock)

E se l’assistente vocale potesse salvarci la vita? Forse questo momento non è poi così lontano. I ricercatori dell’Università di Washington hanno sviluppato un algoritmo di intelligenza artificiale da applicare agli smart speaker che sarebbe in grado di riconosce un infarto a distanza.

Le malattie del sistema cardiocircolatorio rappresentano una delle principali cause di morte, anche in Italia. Tuttavia, ai primi sintomi di infarto, un’azione tempestiva sul paziente può fare la differenza. Non a caso, infatti, come dimostra uno studio pubblicato sul Journal of the American College of Cardiology spesso la morte per attacco cardiaco sopraggiunge di notte quando un intervento immediato risulta più complesso.

Partendo da questi presupposti, gli studiosi hanno messo a punto un sistema da poter inglobare all’interno di assistenti vocali o smartphone in grado di ascoltare i suoni emessi durante la respirazione e associati all’arresto cardiaco e quindi avvisare i servizi di emergenza quando a casa non c’è nessuno che possa fornire assistenza o tutti dormono.

Come riconoscere un attacco di cuore? Ci pensa Alexa

Tra i sintomi di infarto rientra il cosiddetto respiro agonico. “Questo tipo di respirazione accade quando un paziente sperimenta livelli di ossigeno davvero bassi. È una sorta di rumore gutturale e la sua unicità lo rende un buon biomarcatore audio da utilizzare per identificare se qualcuno è in fase di arresto cardiaco”, ha detto Jacob Sunshine, assistente professore di anestesia e medicina del dolore nonché uno degli autori dello studio.

Allenando l’algoritmo di intelligenza artificiale al riconoscimento di questa tipologia di respiro, gli altoparlanti smart come Amazon Alexa o Google Home potrebbero essere in grado di registrare un evento di questo tipo e dunque avvisare chiunque si trovi nelle vicinanze per fornire assistenza e in caso di mancata risposta chiamare automaticamente il numero di emergenza.

Assistente vocale, il nuovo strumento per prevenire un infarto: lo studio

Per dimostrare la propria idea i ricercatori hanno rilevato estratti audio di 2,5 secondi da chiamate reali giunte al 911 (numero di emergenza Usa) e addestrato un modello di apprendimento automatico al fine di classificare la respirazione agonizzante con Amazon Alexa, iPhone 5s e Samsung GalaxyS4.

I suoni sono stati riprodotti anche da distanze diverse con rumori di sottofondo aggiunti come un cane o un clacson di macchina, per garantire che lo strumento possa sentire la respirazione al di là degli avvenimenti che tutti i giorni si svolgono intorno alla casa. Durante i test di riconoscimento del respiro agonico il tasso di falsi positivi su oltre 200.000 clip è stato dello 0,2 per cento.

 

Tecnologia 19 giugno, 2019 @ 12:07

Gli «etichettatori», ovvero i nuovi schiavi dell’intelligenza artificiale

di Paolo Mossetti

Contributor, scrivo di cultura economica.Leggi di più dell'autore
Nato a Napoli, ha studiato economia e antropologia a Milano, lavorato nel marketing editoriale a Londra e Oxford e come scrittore freelance e cuoco a New York. Ha scritto, tra gli altri, per N+1, Domus, Esquire Italia, Il Tascabile e Lo Straniero. chiudi

L’opinione diffusa è che l’Intelligenza Artificiale possa fare tutto da sola: ad esempio, nel segmento delle self-driving car, catturare con dei sensori immagini ad altissima risoluzione del paesaggio circostante, e scegliere autonomamente quale direzione prendere, quando fermarsi, dove parcheggiare; una entità capace di accrescere – tra l’altro – le proprie conoscenze mano a mano che viene adoperata, arricchendo il proprio archivio personale di esperienze con soluzioni alternative per risolvere problemi.

In realtà, ogni tipo di linguaggio è fondamentalmente ambiguo. Nel “dialogo” che una macchina instaura con il mondo in cui si muove, il condizionamento e il contesto sono molto forti, e i robot hanno bisogno di costanti feedback che li aiutano a capire meglio i segnali che ricevono, sotto forma di volti, rumori, espressioni del volto. Più si abbassa il tempo di risposta consentito tra segnale e reazione, più la comunicazione gestita dalle macchine diventa difficile. L’AI continua ad avere bisogno di un gran numero di persone in carne ed ossa che la informi su cosa sta guardando, e le insegni a distinguere un albero da un grattacielo, o un bambino da un adulto, per evitare errori grossolani o tragici. È qui che intervengono i cosiddetti “etichettatori”, e spesso fanno una vita così grama che, chi ha a cuore la loro sorte, li definisce i “nuovi mezzadri” della Silicon Valley.

Quella dei lavoratori impiegati nel labeling, cioè nell’attività di “nominare” concetti e cose, è una specie di sottoclasse si è sviluppata parallelamente alla rivoluzione dell’AI, riporta Axios. Essa comprende migliaia di impiegati a basso salario negli Stati Uniti e nel resto del mondo che hanno il compito gramo di catalogare milioni di pezzettini di immagini e dati per “istruire” l’AI, renderla più “sveglia”: nella fase di progettazione di un servizio o di un prodotto, ma anche durante il suo impiego, perché il machine learning non basta mai.

È un’attività che viene spesso data per scontata o realizzata all’ultimo momento, poiché l’attenzione viene concentrata tutta sul visual design dei prodotti e sull’interfaccia a cui poi l’etichettatura deve adeguarsi. Nonostante questo, rappresenta un business enorme: secondo uno studio di Cognilytica il labeling potrebbe passare da un valore di 150 milioni oggi a oltre 1 miliardo di dollari entro la fine del 2023.

Molte società ricorrono all’esternalizzazione: l’ad di Alegion, una piattaforma di crowndfunding con sede in Texas, fa sapere che si affida a etichettatori che lavorano all’estero e vengono pagati tra i 3 e i 6 dollari l’ora.  La BBC ha parlato recentemente dei lavoratori kenyani che preparano le informazioni necessarie all’AI occidentale.

È un lavoro noiosissimo, sia chiaro, che consiste nel passare tutto il giorno davanti a un computer evidenziando (tanto per dirne una) i segnali stradali all’interno di fotografie scattate dai veicoli che si guidano da soli. In questo settore un’ora di filmati, per essere “etichettata”, può richiedere fino a 800 ore di lavoro. Secondo alcuni osservatori però questo settore potrebbe rappresentare un’occasione di sviluppo per le aree rurali, dove i lavoratori tendono a essere meno specializzati e in ogni caso a rischio disoccupazione a causa della stessa intelligenza artificiale.

Dei lavoratori nel labeling si stanno interessando, però, sempre più i sociologi e gli economisti, che li trovano rappresentativi di alcune dinamiche tipiche della globalizzazione – e forse un caso esemplare per capire come affrontarle. Le società americane che fanno uso di labeler sostengono di pagarli tra i 7 e i 15 dollari l’ora, ma potrebbe trattarsi solo della fascia di salariati più privilegiata. In Asia si scende fino ai 2 dollari l’ora. Senza il labeling umano, l’AI resterebbe “ottusa”, ma per il momento i grandi vincitori restano i grandi investitori che fanno base per lo più nel Nord America, in Europa e in Cina e cercano di mantenere le mansioni dei labeler più ripetitive possibile. Così possono evitare richieste di aumenti salariali, da un lato, e dall’altro sfruttare una larga fetta di manodopera disponibile in tempi brevi e senza nessuna qualifica.

“Stiamo creando posti di lavoro nel digitale che prima non esistevano”, si giustifica un manager che lavora con l’AI, intervistato da Axios. “Molto spesso coloro che fanno questo lavoro provengono da fattorie o da fabbriche che sono state spolpate dall’automazione”.

Secondo Mary Gray e Siddharth Suri, autori di saggio che affronta questo tema dal titolo Ghost Work, le pratiche di sfruttamento diffuse all’interno del mondo hi-tech rafforzano le disparità già presenti nell’economia dei robot. Il mercato, da solo, non basta a trovare il prezzo più giusto e umano per queste attività, spiegano, e ci si è ridotti a valutare gli etichettatori come un bene durevole; andrebbero, invece, considerati come una forma di intelligenza collettiva.

In un’economia dove le società sono attraversate sempre più da polarizzazioni politiche e si parla sempre più di ineguaglianza, la deflazione salariale è diventata una questione morale e non soltanto economica. James Cham, che lavora con una società di venture capital, sostiene che le società di AI giocano sulla differenza tra il prezzo ridicolmente basso degli etichettatori e l’immenso profitto di lungo termine del prodotto finale: “I lavoratori sono pagati solo una volta, come i mezzadri, con un salario di sussistenza. I proprietari terrieri invece si prendono tutti i ricavi perché così è impostato il sistema”, spiega ad Axios, aggiungendo che si tratta di “Una grande operazione di arbitraggio”.

Cultura 28 maggio, 2019 @ 12:01

L’Intelligenza Artificiale arriva anche alla Biennale di Venezia

di Glenda Cinquegrana

Dirigo una galleria d’arte e mi occupo di consulenza.Leggi di più dell'autore
Dal 2006 al 2014 dirige la galleria Glenda Cinquegrana: the Studio, in cui si occupa di soprattutto di giovani artisti italiani e internazionali. Dal 2014 fa consulenza nell’ambito di progetti di arte e comunicazione con Glenda Cinquegrana Art Consulting. Nel 2016 crea la piattaforma di scouting e formazione per le arti visive, The Art Incubator. Dal 2008 in poi ha collaborato come contributor con diverse riviste online sui temi della fotografia e dell'arte contemporanea. Sul cartaceo di Forbes ha una pagina mensile dedicata all'arte. chiudi
installazione verde luci
AVZ_arsenale-34_HITO STEYERL Andrea Avezzù

Che cosa si intende per Intelligenza Artificiale oggi? Sotto il termine AI si vogliono racchiudere quegli algoritmi che oggi sono capaci di processare un alto numero di dati e informazioni, alla luce dei quali riescono a fornire interpretazioni a fenomeni di diverso genere. Questi sono perfino capaci di generare opere d’arte.

E’ del novembre dello scorso anno la notizia che una pittura digitale realizzata da un algoritmo processando informazioni visive è stata venduta a un’asta da Christie’s per la cifra record di 432.000 dollari.
L’arte e gli artisti si sa, guardano avanti sul proprio tempo: da diversi anni ci sono alcuni artisti che stanno lavorando su questo argomento come oggetto-soggetto delle proprie ricerche. E’ il caso di Hito Steyerl classe 1966. La Steyerl, premiata recentemente con il prestigioso premio tedesco Käthe Kollwitz prize, è la prima donna essere nominata artista più influente nella classifica Power 100 redatta dall’Art Review nel 2017. Il suo lavoro, che lo scorso anno è stato esposto alla Serpentine Gallery di Londra sotto la guida di Hans Ulrich Obrist, con una mostra dedicata all’Intelligenza Artificiale.

Con Hito Steyerl l’Intelligenza Artificiale quest’anno approda alla Biennale di Venezia, nell’ambito della mostra May you live in interesting times curata da Ralph Rugoff. Il suo è un doppio lavoro di video installazione certamente destinato a lasciare il segno nel pubblico. La Steyerl usa in modo critico e ironico l’intelligenza artificiale: i suoi AI computer costruiscono opere che hanno un finto carattere didattico, e le cui voci del computer parlanti ci raccontano storie che lungi dall’essere vere, risultano essere fallaci e inutili.

installazione foto
AVZ_arsenale-34_HITO STEYER

Pieni di sense of humor e visivamente interessanti, le sue opere offrono ai visitatori esperienze ricche, e cariche di riflessioni sulla stessa validità del mezzo AI. Le notizie diffuse dai suoi computer parlanti aprono le sue opere a molteplici letture, di cui non ultime alcune relative al virtuale quale sede di diffusione di false informazioni ed errate credenze. Della Styerl la mostra May you live in interesting times a cura di Ralf Rugoff propone due opere differenti. Nel Padiglione dei Giardini, il lavoro intitolato Leonardo Submarine 2019 è ispirato ad un progetto di Leonardo da Vinci del 1515 pensato per difendere la città sull’acqua dagli attacchi nemici. Questa installazione vede l’AI discutere con il pubblico di pace, di guerra, di tecnologia e di potere. Gli schermi permettono ai visitatori di fare un viaggio su l’imbarcazione, mostrando in immagini corsi d’acqua, palazzi, e i cieli aperti di Venezia.

L’installazione parlante fa riferimento al fatto che Finmeccanica, principale azienda italiana produttrice di armi, avrebbe cambiato la sua ragione sociale in Leonardo s.p.a, in onore dell’artista fiorentino, quale metafora del tema della guerra. La mistione fra realtà e finzione è tale da confondere lo spettatore, in un procedimento ironico che mette in dubbio la veridicità delle informazioni prodotte dal computer continuamente. Ancora più elaborata e complessa è il l’opera collocata da Rugoff nell’Arsenale: l’installazione ‘This is the future’ è un ambiente in cui il visitatore entra percorrendo passerelle articolate e popolate di schermi digitali sui quali alcuni fiori che si muovono in processo di sviluppo continuo. Il percorso poi immette il pubblico in uno spazio simile a quello di un teatro, dove un’Intelligenza Artificiale, sotto forma di computer generatore di immagini e voce, parla del presente e del futuro della nostra civiltà, fra ironia e serietà, fra profezia e gioco. In un percorso ad ostacoli, in cui tutto quelle che viene detto può essere
messo costantemente in dubbio dallo spettatore.

Tecnologia 24 maggio, 2019 @ 9:30

Un algoritmo ci permetterà di ascoltare solo una persona tra la folla

di Paolo Mossetti

Contributor, scrivo di cultura economica.Leggi di più dell'autore
Nato a Napoli, ha studiato economia e antropologia a Milano, lavorato nel marketing editoriale a Londra e Oxford e come scrittore freelance e cuoco a New York. Ha scritto, tra gli altri, per N+1, Domus, Esquire Italia, Il Tascabile e Lo Straniero. chiudi
concerto rock
(Shuttestock)

Immaginate di essere a una festa parecchio affollata, con la musica a tutto volume, circondati da gente che parla ad alta voce. Nonostante la confusione, però, riuscite comunque a concentrarvi sull’unica voce che volete sentire – magari l’amico che vi sta facendo una confessione, o il vostro partner che dalla cucina vi chiede se avete portato tutto a tavola. Questa capacità, piuttosto utile a dire il vero, del cervello di azzerare il rumore circostante e focalizzarsi su specifiche persone che vi stanno parlando viene chiamata dagli scienziati effetto cocktail party. È una funzione che molti di noi danno per scontata, ma per le persone che usano apparecchi acustici anche il minimo suono incongruo può rappresentare una fonte di disturbo.

Questo succede perché i dispositivi artificiali al momento in commercio non sono in grado di fare ciò che fa il cervello umano senza nessun aiuto, cioè discriminare quel preciso suono che vogliamo sentire dal resto dei suoni che entrano nelle nostre orecchie. Né, tantomeno, questi apparecchi sono in grado di farci restare concentrati su quel suono mentre altra gente chiacchiera intorno a noi. Poiché non vi è alcun modo per escludere totalmente certi suoni dalle nostre orecchie e farne passare altre, tutti i suoni di un ambiente entrano nelle nostre orecchie e vengono tradotti in segnali elettrici nel cervello. Questi segnali si muovono in diverse aree cerebrali prima di raggiungere la corteccia uditiva, ovvero la parte del cervello che elabora il suono. Non sempre il risultato è comprensibile.

Un nuovo dispositivo, potenzialmente rivoluzionario, sta per essere sviluppato dalla Columbia University per ovviare a tutto questo. Ne parla la rivista scientifica Science Advances nel numero di maggio. Lo farebbe piazzando degli elettrodi sotto la nostra corteccia uditiva – la sezione del cervello di poco dentro l’orecchio che processa i suoni. Nel momento in cui il nostro cervello verrebbe sommerso da rumori diversi, il dispositivo filtrebbe ciascuna voce amplificando quelle che corrispondono a specifiche onde celebrali. In pratica, si sintonizzerebbe con la nostra attenzione. L’audio ottenuto sarebbe comunque misto (rumori e voce principale insieme) ma il vantaggio evidente è che chi parla non avrebbe bisogno di un addestramento previo per farsi decifrare dall’apparecchio: avverebbe tutto in automatico.

La parte da leone, tanto per cambiare, nel matching tra attività neurale e suono proveniente dall’esterno, la farebbe un algoritmo, parte del cosiddetto sistema di deep-learning, vale a dire quel campo campo di ricerca dell’apprendimento automatico e dell’IA che si basa su diversi liveali di rappresentazione, corrispondenti a gerarchie di caratteristiche di fattori o concetti. L’algoritmo del super-apparecchio acustico sarà programmato dunque per passare al setaccio un’infinità di voci, accenti e tonalità differenti, capire cosa vogliamo davvero ascoltare e apprendere come farlo sempre meglio col passare del tempo. Secondo Behtash Babadi, che lavora al dipartimento di ingegneria elettronica della University of Maryland, per ora siamo a uno studio ancora embrionale del progetto, ma le potenzialità sono allettanti. “Nel giro di pochi secondi potrebbe silenziare tutti tranne quelli che vogliamo sentire”, spiega in un’intervista con Tecnology Review.

Un team della Columbia ha già testato il dispositivo su tre persone, che dovevano affrontare un’operazione chirurgica legata alla cura dell’epilessia. Il trattamento prevedeva infatti l’impianto di elettrodi nel loro cervello affinché i segnali neurali potessero essere monitorati. A quel punto i ricercatoria ne hanno approfittato e si sono inseriti nel percorso terapeutico, facendo ascoltare ai pazienti dotati del nuovo apparecchio una registrazione di quattro voci differenti, che parlavano l’una sull’altra. A un certo punto l’audio veniva interrotto e gli è stato chiesto di ripetere l’ultima frase prima della pausa, per essere certi che l’avessero decifrata correttamente. Il tasso di successo è stato del 91 per cento.

Ci sono ancora due ostacoli evidenti: il primo è che il sistema attuale rende indispensabile l’impiato di elettrodi dentro la calota cranica. I ricercatori, però, sostengono che le onde celebrali possono essere captate dal nuovo software anche soltanto con sensori piazzati all’esterno dei canali auditivi: in futuro, dunque, potrebbero essere inseriti in una nuova generazione di apparecchi acustici anziché direttamente nel nostro cervello. Un dispositivo esterno non sarebbe accurato quanto i sensori applicati direttamente sulla corteccia, ma avrebbe il vantaggio di poter essere usato anche da persone senza problemi all’udito, che vogliono semplicemente migliorare le proprie capacità di focus.

Il secondo ostacolo è rappresentato dallo scarto temporale – ridotto ma comunque significativo – tra il momento in cui il nostro cervello distoglie l’attenzione da un soggetto che sta parlando e si concentra su un’altra fonte che parla, e il momento in cui l’algoritmo se ne accorge. Solo pochi secondi, sufficienti a perdere l’inizio di una discussione, come spiega Nima Mesgarani, autore del paper della Neural Acoustic Processing Lab della Columbia University. In altre parole più si vuol rendere accurato un dispositivo, più bisogna dargli tempo. Secondo Mesgarani c’è bisogno di ulteriore ricerca da fare, ma il problema potrebbe essere risolto entro cinque anni – data entro la quale questi nuovi dispositivi potrebbero entrare in commercio.

Tecnologia 24 aprile, 2019 @ 1:44

Intelligenza artificiale: un europeo su quattro la vorrebbe al posto dei politici

di Simona Politini

Staff

Leggi di più dell'autore
chiudi
Robot giocattolo vintage
(Shutterstock)

Le elezioni europee sono alle porte, ma se ci fosse la possibilità di votare Mr. AI probabilmente ci ritroveremmo guidati da una serie infinita di sofisticati algoritmi. È ciò che emerge dalla ricerca condotta dal Center for the Governance of Change (CGC) presso la IE University di Madrid.

 

Intelligenza artificiale vs politici europei

Secondo l’European Tech Insights 2019, questo il nome dello studio che ha coinvolto oltre 2.500 adulti tra i 18 e i 99 anni in otto paesi europei (Francia, Germania, Irlanda, Italia, Spagna, Paesi Bassi e Regno Unito), infatti, un cittadino europeo su quattro preferirebbe lasciare che fosse un’intelligenza artificiale a prendere decisioni importanti sulla gestione del proprio Paese. Nei Paesi Bassi, in Germania e nel Regno Unito, la percentuale è ancora più alta con un cittadino su tre che ammette di preferire una macchina per determinare la direzione del proprio paese piuttosto che un essere umano. In Italia tale percentuale si attesta al 28 per cento.

Diego Rubio, direttore esecutivo del CGC, ha dichiarato: “Questa mentalità, che probabilmente fa riferimento alla crescente sfiducia dei cittadini nei confronti dei governi e dei politici, costituisce un interrogativo importante a carico del modello europeo di democrazia rappresentativa, poiché sfida la stessa nozione di sovranità popolare”.

 

Intelligenza artificiale e lavoro

La ricerca, volta a comprendere meglio le percezioni e le preoccupazioni nei confronti delle nuove tecnologie informatiche, rivela inoltre come la quarta rivoluzione industriale stia producendo un crescente senso di insicurezza e incertezza, con molti cittadini europei convinti che, se non adeguatamente controllate, le innovazioni tecnologiche potrebbero causare più danni che benefici per la società nel prossimo decennio.

La stragrande maggioranza degli europei intervistati (oltre il 70%) si aspetta infatti che i propri governi stabiliscano nuove leggi e tasse per limitare l’automazione ponendo addirittura dei limiti al numero di posti di lavoro che le aziende potranno sostituire con le macchine, anche se ciò significherebbe fermare il progresso tecnologico, e lamentano (il 60%) un sistema educativo inadeguato nel prepararli ad affrontare le sfide poste dalle nuove tecnologie in un mercato del lavoro in rapida evoluzione.

 

Nuove tecnologie informatiche: la sfiducia dei cittadini europei

Di seguito presentiamo altri numeri rilevanti ricavabili dallo studio e che segnalano una crescente preoccupazione degli europei verso l’invasività della tecnologia:

  • Il 56% degli europei è preoccupata che i robot possano occupare la maggior parte dei posti di lavoro oggi appannaggio di esseri umani;
  • Il 67% degli europei pensa che la governance delle nuove tecnologie sia, con il cambiamento climatico, la più grande sfida che l’UE deve affrontare in questo momento;
  • Oltre alle sfide sul mercato del lavoro, gli europei temono un cambiamento nella loro vita sociale: oltre due terzi degli intervistati (il 68%) ritengono che in futuro le persone passeranno più tempo a socializzare online che di persona.
Investimenti 18 aprile, 2019 @ 8:50

Quello che i top manager non dicono…lo legge un nuovo software per investire

di Paolo Mossetti

Contributor, scrivo di cultura economica.Leggi di più dell'autore
Nato a Napoli, ha studiato economia e antropologia a Milano, lavorato nel marketing editoriale a Londra e Oxford e come scrittore freelance e cuoco a New York. Ha scritto, tra gli altri, per N+1, Domus, Esquire Italia, Il Tascabile e Lo Straniero. chiudi
Il nyse di new york
Il floor del New York Stock Exchange (Photo by Drew Angerer/Getty Images)
È un software che funziona in modo quasi poliziesco: scopre quello che gli amministratori delegati non possono o non vogliono dire, quando si nascondono dietro giri di parole o termini vaghi per non turbare gli azionisti. Analizzando una quantità spropositata di materiale informativo – tweet, dichiarazioni pubbliche, report trimestrali e trascrizioni – questo software punta a cogliere dettagli preziosi per gli investitori, fornendogli un importante vantaggio sui concorrenti. È un lavoro che fanno già moltissimi analisti in carne ed ossa. Ma si sa, l’essere umano tende a stancarsi più facilmente degli algoritmi, e così c’è chi ha pensato di affidarsi all’Intelligenza Artificiale e automatizzare l’intero processo.

A sviluppare questo software è stata una startup israeliana-americana, Amenity Analytics, di cui ha parlato recentemente Bloomberg. Il software, promettono i creatori, non si allontana troppo da un sogno proibito per i detective Cia ed Fbi, in quanto è capace di afferrare segnali impercettibili per gli analisti distratti (o comuni mortali) ad esempio cambi nel tono della voce e delle parole utilizzate, circonlocuzioni incongrue, oppure statistiche nell’uso di specifici termini che risultano anomale rispetto all’abitudine. Con l’aiuto di potenti algoritmi, Amenity  traduce questa lettura in un valore numerico – positivo o negativo – che aiuterà i trader a prendere decisioni più velocemente. I venture capitalist americani sembrano fidarsi, e la settimana scorsa Amenity ha ottenuto un round di finanziamenti per circa 16 milioni di euro (nel 2017 ne aveva raccolti 7 milioni).

Intervistato da Haaretz, il vicepresidente della sezione ingegneristica di Amenity, Roy Penn, ha spiegato che gli analisti umani, a causa del loro carico di lavoro, talvolta possono lasciarsi sfuggire parole-chiave che racchiudono il reale significato di un comunicato stampa o di una dichiarazione pubblica. Amenity si occupa invece di recuperare e analizzare tutte le informazioni rilasciate in passato da quelle stesse società per rintracciare indizi precisi e trend interessanti. Agendo in questo modo da “segnalatore” di sensazioni preoccupanti o tranquillizzanti, che si traducono com’è ovvio in decisioni di investimento.

“Abbiamo identificato all’incirca 50 diverse maniere con cui un a.d. può evitare di rispondere alle domande”, spiega Penn. Ad esempio, un manager che evita le domande scomode soltanto il 10 per cento delle volte e poi inizia a farlo per diversi incontri di fila può essere un dato che il software di Amenity può rilevare e segnalare a chi ne fa uso. “Uno dei nostri clienti l’ha chiamato il rilevatore di balle”.

Fondata tre anni fa, Amenity impiega un set di strumenti per il data mining appositamente pensato per i documenti finanziari, ed è stato già adottato da agenzie di rating come Moody’s, dal Nasdaq, e da giganti della comunicazione come TimeWarner. Le principali menti dietro il progetto sono Nathaniel Storch, che ha lavorato per anni in finanza, e Ronen Feldman, un professore israeliano esperto di data mining applicato alla linguistica. Adesso Amenity dà lavoro a 60 persone, due terzi delle quali in Israele. La società non vuole rivelare i suoi ricavi, ma gli amministratori dicono che tutti i profitti sono reinvestiti per la crescita.

Tra gli investitori che hanno creduto in Amenity c’è Intel, che gli ha chiesto di fare un progetto sulla realtà aumentata e sul modo in cui questa è discussa nei media. La società così ha scoperto che Nintendo aveva iniziato a disseminare i riferimenti alla realtà aumentata fino a un anno e mezzo prima del lancio del videogioco PokémonGo. Attenzione: questo non vuol dire che il sistema di Amenity può determinare con anticipo quale determinato prodotto verrà lanciato – realizzare veri e propri “scoop”, insomma – ma può perlomeno anticipare se qualcosa di grosso sta bollendo in pentola, da qualche parte.

Il motore che spinge Amenity è alimentato dal natural language processing, il trattamento informatico del linguaggio umano attraverso l’analisi di grandi quantità di dati. In altre parole i computer sminuzzano ogni frase che analizzano in diverse componenti, frasi e paragrafi, che vengono passati a raggi-X dal punto di vista sintattico e grammaticale, e confrontati con altri pezzetti di informazioni provenienti dal soggetto analizzato, archiviati nel sistema. Secondo i suoi creatori, l’Intelligenza artificiale di Amenity è capace di identificare l’uso di sarcasmo e metafore, così come di capire il tono di un discorso basandosi sulle pause, i balbettii tra una parola e l’altra, oppure il tempo impiegato per rispondere a una domanda.

Storch e Feldman pensano in grande, e così come prossima mossa stanno pensando di sviluppare un sistema che possa essere usato da fondi speculativi di dimensioni ridotte, oppure dai cosiddetti family office, vale a dire società di servizi che gestiscono il patrimonio di famiglie facoltose. Amenity ha tentato inoltre di espandersi come consulente algoritmico nel settore delle assicurazioni e dell’industria automobilistica.

Certo non mancano i concorrenti: da International Business Machines Corp. e la sua piattaforma di AI, Watson, a Google del conglomerato Alphabet, ai raffinati sistemi di analisi costruiti in house da diversi giganti bancari.

I risultati di Amenity sembrano tuttavia incoraggianti, almeno fino a questo momento. Nell’autunno scorso, Barclays Capital ha usato questo punteggio del “sentimento” fornito da Amenity durante alcune conference call sui dati trimestrali per decidere se comprare o vendere a breve le azioni di quelle società – producendo un ritorno annuale di circa il 13 per cento più alto dell’indice usato come benchmark. Sempre secondo Barclays, il sistema di punteggi di Amenity è più affidabile del sistema tradizionale che elabora la stima del sentiment aziendale basandosi sulle parole menzionate più spesso durante una call.

Basandosi sul software di Amenity, la società di ricerca borsistica Evercore ha esaminato diversi comunicati stampa di società quotate nello S&P 500 per studiarne i trend macro, e capire se erano turbate dalla guerra dei dazi con la Cina oppure se presagivano la fine della corsa di Wall Street e l’arrivo di una nuova crisi economica. Il sistema ovviamente funziona meglio quando gli utenti confrontano il sentiment score di una dichiarazione pubblica con i numeri delle dichiarazioni precedenti, o usando i numeri prodotti da altre società del settore come benchmark. In fondo, l’uso dei cliché come sistema per evadere e confondere ha a che fare non solo con le circostanze specifiche di un bilancio trimestrale, ma anche con la cultura e le usanze che uno specifico contesto si porta dietro.

 

Tecnologia 11 aprile, 2019 @ 11:24

Quando non capiremo più se di fronte a noi c’è un uomo o un’intelligenza artificiale

di Antonella Scarfò

Contributor

Giornalista professionista, con un passato da studiosa di letteratura e un futuro da digital strategist.Leggi di più dell'autore
Giornalista professionista, con un passato da studiosa di letteratura e un futuro da digital strategist. Ho scritto per l’Enciclopedia Treccani, la Salerno Editrice, la Loffredo Editore. Poi La Stampa, Rai, RDS, Left. Mi piace indagare come la tecnologia trasforma l’uomo e la società. chiudi
donna con fasci di laser
(GettyImages)

Tra qualche anno vivremo in case Google, Amazon o Apple. E potrebbe essere il nostro microonde a decidere se siamo a dieta. Parola della futurologa americana Amy Webb, professoressa della NYU Stern School of Business. Nel libro “The Big Nine”, Webb denuncia i rischi di un’intelligenza artificiale attualmente in mano solo a 9 aziende: 3 cinesi, Baidu, Alibaba e Tencent definite con l’acronimo BAT e 6 statunitensi, che qualcuno ha ribattezzato G-MAFIA (Google, Microsoft, Amazon, Facebook, IBM and Apple). L’unica alternativa a un presente controllato dai giganti del tech, afferma Webb, è la nascita di un ente internazionale per l’AI simile all’Agenzia per l’Energia Atomica (AIEA). Un organismo capace di garantire sia il controllo delle aziende che la difesa dei diritti umani, e di promuovere il progresso pacifico della scienza e dell’ingegneria.

 

Intelligenza artificiale: se i regolamenti sono inutili

Un’idea che le autorità europee e statunitensi starebbero prendendo in considerazione, secondo la studiosa, ma non secondo fonti interne alla Casa Bianca, da cui non arrivano conferme. La proposta imporrebbe infatti una svolta strategica sull’AI molto radicale rispetto all’attuale immobilismo del governo americano e alla timidezza delle iniziative europee. Lo scorso 8 aprile, la Commissione Europea ha emanato le linee guida su quella che viene definita la “Trustworthy AI”, l’intelligenza artificiale “di cui ti puoi fidare”. La strategia europea sceglie così di puntare tutto sui temi etici: centralità umana, trasparenza, privacy, benessere sociale e rispetto dell’ambiente. L’OECD (Organizzazione per la cooperazione e lo sviluppo economico), inoltre, ha già annunciato l’arrivo di raccomandazioni. Secondo alcune voci critiche, questi regolamenti servono a poco, perché la guerra per il dominio dell’AI tra Usa e Cina è combattuta su ben altri fronti e a colpi di innovazione tecnologica. Nell’attuale contesto competitivo, l’unico governo che riesce ad imporre le proprie regole sulle aziende nazionali, quello di Pechino, ha già scelto da tempo tutt’altra strada rispetto a quella europea, puntando alla leadership mondiale.

 

Uno sviluppo etico dell’intelligenza artificiale, la mossa “naive” dell’Ue

L’Europa sta cercando di “unire le forze, per restare all’avanguardia nella rivoluzione tecnologica nel rispetto dei valori UE” si legge sul sito web della Commissione, attraverso la conquista della fiducia dei consumatori. C’è però chi la pensa diversamente. “I consumatori si preoccupano innanzitutto dell’efficacia della tecnologia” afferma Daniel Castro, vice presidente dell’Information Technology and Innovation Foundation (ITIF), un think tank che include membri di alcune Big tech. Castro mette in guardia l’Europa dal perseguire regole che definisce “naive”: “L’approccio europeo “ethics-first” impedirà lo sviluppo di prodotti competitivi” afferma. Oltre alla voce di esperti vicini ai grandi investitori americani, la rivista Politico.eu riporta il commento di un analista di Bruxelles, secondo il quale “l’ethic Ai” sarebbe “il nuovo Green”.

 

L’intelligenza artificiale etica ha una sola chance: la rivolta dei consumatori

E se l’approccio UE riuscisse a conquistare davvero i consumatori? Tra i requisiti previsti dalle linee guida europee c’è la “trasparenza”. Chi fruisce della tecnologia, si legge nel rapporto, deve essere informato in modo chiaro che sta interagendo con un sistema di intelligenza artificiale e non con un essere umano. La richiesta dell’UE sfida il noto “test di Turing” alla base dell’AI, secondo il quale, semplificando, una macchina diventa “intelligente” se è in grado di spacciarsi per una persona. A 70 anni di distanza da Alan Turing, i consumatori hanno sperimentato anche gli effetti emotivi di questa sovrapposizione artificiale tra uomo e macchina. Forse non ci siamo ancora innamorati delle voci di Siri, Alexa o Tiān Māo (l’assistente vocale cinese), ma ci sarà capitato sicuramente di litigare per sbaglio con il chatbot di un ristorante o di una compagnia telefonica. Come consumatori, quindi, prima ancora che come cittadini, potremmo stancarci di questa confusione e optare per prodotti “di cui poterci fidare”.

 

La sfida dell’invisibilità dell’intelligenza artificiale

L’intelligenza artificiale si sviluppa grazie alla sua invisibilità. La scrittrice Pamela McCorduck l’ha definito “paradosso di odd” oppure “effetto AI”: ogni innovazione introdotta diventa dopo poco tempo familiare a tal punto che le persone dimenticano si tratti di intelligenza artificiale. E’ questa la sfida più grande che ogni tentativo di regolamentazione deve superare.

 

Il test del “contributo significativo” per misurare l’efficacia dell’AI

Una buona notizia per gli umani, però, c’è: è sempre più difficile per un robot mostrarsi “intelligente”. “La nuova sfida per un sistema di AI sarà riuscire a sedere in un meeting e dare un contributo significativo al dibattito, senza essere interpellato da qualcuno e ovviamente prima che il meeting finisca” scrive Amy Webb. La capacità di leggere il contesto, capire l’opportunità e misurare l’efficacia di un contributo intellettuale, dopo tutto, resta ancora una prerogativa tutta umana.