babysitter e bambina
Innovation

C’è una compagnia che pensa di usare l’AI per selezionare babysitter

babysitter e bambina
Una giovane babysitter gioca con una bambina (Shutterstock).

Immaginate di avere un privilegio sempre più raro: diventare genitori. E, cosa ancora più rara, potervi permettere il lusso di una babysitter. Solo che non volete assumere una persona qualsiasi: volete essere certi, senza possibilità di errore, che quella persona sia la più adatta al vostro bambino, la più affidabile e coscienziosa; un oggetto senza sorprese. Da una parte una famiglia preoccupata, della classe media, già piena di crucci; dall’altra, letteralmente, una sconosciuta, certo con la sua storia e la sua vita ma del tutto ignota a voi, che vi dovrete mettere in casa per ore ed ore.

Cominciate a leggere, stancamente, senza convinzione, tutte le informazioni disponibili su questa persona. Partite dai social, è ovvio. Cercate descrizioni, registrazioni della sua esistenza, indizi di una qualche fragilità o di punto debole. In effetti, con qualche telefonata potreste avere accesso ai gradi più prossimi di parentela, o persino alla sua fedina penale. Ma che ne direste di affidare tutto a una startup che con qualche click e 25 dollari si offre di fare tutto questo sporco lavoro al posto vostro?

Usare l’intelligenza artificiale per determinare la personalità di una babysitter, scandagliando le sue pagine Facebook, Twitter e Instagram, è il servizio offerto da Predictim, una società che compila per i genitori quello che altre stanno già offrendo ai datori di lavoro delle imprese: un vero e proprio rating di rischio su misura, una valutazione senza appello per determinare se quella persona può potenzialmente fare abuso di sostanze stupefacenti, avere un atteggiamento aggressivo oppure anche soltanto un brutto carattere.

Lo riporta il Washington Post, che intervista alcune famiglie che si sono affidate al servizio pur capendoci poco, tant’è che dopo aver pagato per mettere il naso nelle vite altrui si sono fatte ugualmente assalire dai dubbi. Del resto il co-fondatore e boss della startup – che è stata partorita da SkyDeck, un “incubatore” hi-tech dell’Università di Berkeley, California – sembra non essersi preparato nemmeno per una serie di domande sull’etica dell’operazione e sull’uso che Predictim fa delle informazioni disponibili: i rating vanno visti come un accompagnamento all’assunzione e non come un giudizio insindacabile, spiega al quotidiano Sal Parsa, perché “possono riflettere i reali attributi della tata, oppure no”.

Ma ogni imprecisione è giustificata, quando di mezzo c’è la sicurezza del bambino, dice Parsa. “Provate a googlare qualcosa sulle babysitter violente: vi verranno fuori migliaia di risultati. Ci sono persone là fuori che possono avere patologie mentali oppure essere semplicemente nate malvagie. Il nostro obiettivo è fare qualsiasi cosa per fermarle”.

Basta uno sguardo rapido al sito Predictim per avere l’impressione che l’intera operazione è piuttosto immorale e autoritaria. La definizione di “abuso di droghe”, tanto per cominciare, è vaga e imprecisa, priva di qualsiasi ricerca sociale e completamente sconnessa dalla realtà. L’app poi non offre alcun dettaglio credibile sul suo metodo di assessment del rischio, non fornisce il minimo accesso alle analytics sottostanti, neppure nella demo disponibile per il visitatore di passaggio.

La valutazione di rischio – questo è uno dei dettagli più sconcertanti – sembra essere compiuta sulla base di un campione di 22 post pubblicati sui social: un numero davvero esiguo per stabilire il futuro lavorativo di una persona. Inoltre non viene fornita alcuna informazione sulla finestra temporale delle rilevazioni, sulla tipologia o il numero di follower o amici della persona scansionata, sulle sue passioni o attività extra socialmediali: manca, insomma, qualsiasi contestualizzazioni che vada oltre la presenza online di quell’individuo.

Una pratica manipolatoria e invasiva, dunque, ma già da tempo in espansione nel settore business-only: decine di società stanno vendendo ai datori di lavoro sistemi che analizzano le espressioni facciali dei potenziali assunti, la loro parlantina, la loro storia internettiana. HireVue, ad esempio, offre una tecnologia avanzata per il recruiting a colossi come Geico, Hilton e Unilever, che consentirebbe di predire le capacità e l’obbedienza dei candidati sulla base del tono della loro voce, la scelta dei vocaboli e i movimenti facciali durante le interviste via Skype (pare che un escamotage sia quello di sorridere il più possibile). Un altra società, Fama, garantisce di poter usare l’AI per sorvegliare i dipendenti e segnalarne l’eventuale comportamento “tossico” ai superiori.

Un fenomeno tutt’altro che marginale, che si inserisce in un segmento che in Cina potrebbe trovare forme di applicazione sempre più colossali: riporta Bloomberg come il piano di Pechino di giudicare ciascuno dei suoi 1,3 miliardi di cittadini basandosi sul loro comportamento sociale sta diventando realtà, con un sistema di punteggio per ogni persona basato sui dati in mano al governo. Una società simile a una puntata di Black Mirror, spiega Simone Pieranni, dove la sincerità è premiata e dove il controllo tecnologico si affianca a quello umano, con un milione di persone di etnia uigura detenute all’interno dei “campi di rieducazione” e cinesi di etnia han trasformati in “poliziotti-cittadini”, installandosi nelle case degli uiguri.

Di sicuro chi ha inventato Predictim sembra ignorare – deliberatamente o meno – il mondo perverso degli incentivi economici. Se non tutti saranno capaci di decifrare il codice usato da app del genere per distorcere il proprio rating, c’è da prevedere la nascita di un vero e proprio esercito di ersatz, di sostitutivi, di profili-doppione scanner-friendly, che confonderanno le macchine e non faranno scattare alcun allarme.

Ma è soprattutto dal punto di vista delle regole etiche che questo modello di business appare quantomeno dozzinale. Su cosa si basa la sua accuratezza? In che modo le sue pratiche causeranno danni reali nel reddito e nelle opportunità di chi cerca lavoro? E ancora: chi controllerà i controllori? Da una prospettiva esclusivamente teorica, è interessante questo cambio di paradigma: si passa dalla fiducia intesa come processo – mediato socialmente, fluido, costruito nelle reti sociali – alla nozione di rischio come attributo – quantificabile, categorizzato come assoluto.

Per il momento, assieme a questa specie di nuova Matrix, nascono anche dei potenziali Neo: ecco come un’altra società – comparsa anche in trasmissioni come Shark Tankoffre un servizio di protezione per chi cerca lavoro, con persone pagate per scrutare gli anfratti più oscuri dei motori di ricerca e dei social, in modo da dare l’opportunità ai clienti di pulire la cache immaginaria del proprio curriculum da qualunque contenuto problematico. Insomma, una badante compassionevole che ci ripulisce casa dopo una sbronza e ci getta sotto una doccia fredda prima di un colloquio di lavoro o un appuntamento galante. Meno immorale di Predictim, forse, ma pur sempre un modello di business parassitario, e che anzi rischio di giustificare ancora di più quello che vorrebbe combattere.

Questo tipo di atteggiamento rafforza, inoltre, il rischio di disuguaglianza crescente. Mentre il nuovo lusso dei ricchi sembra essere quello di disconnettere i propri figli da Internet e allontanarli dai computer, la media-borghesia e i poveri sembrano sempre più dipendenti dalla dimensione socialmediale, e dall’investimento e dalla cura che dedicano ad essa. I giovani a basso reddito, soprattutto, potrebbero essere costretti a conformarsi a standard ridicoli e totalmente arbitrari pur di ottenere un lavoro, mentre soltanto i più abbienti potrebbero concedersi la libertà dell’astrazione, e di una vita in cui le azioni non hanno conseguenze, né bisogno di oblio.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .