Censura dei dissidenti, eccezioni per le celebrità, disinformazione: tutte le accuse dei Facebook Papers

(Photo by Drew Angerer/Getty Images)
Share

Questo articolo di Alison Durkee è apparso su Forbes.com

Facebook permette regolarmente a celebrità e politici di violare le sue regole. E il ceo, Mark Zuckerberg, ha ceduto alle richieste del governo vietnamita di mettere a tacere i post antigovernativi sulla piattaforma. A rivelarlo è una serie di documenti interni forniti da un whistleblower dell’azienda alla Securities and exchange Commission (Sec, l’ente governativo statunitense che vigila sulla Borsa). Carte che rappresentano la base per i cosiddetti Facebook Papers, una serie di articoli di denuncia in fase di pubblicazione in molti mezzi di informazione.

I fatti chiave

  • Il ceo, Mark Zuckerberg, ha assicurato ai dipendenti di essere “assolutamente neutrale”. Il Financial Times riferisce però che i dirigenti – Zuckerberg incluso – hanno regolarmente “interferito” per consentire a personaggi famosi e politici di aggirare le regole della piattaforma, malgrado le proteste dei dipendenti. L’amministratore delegato sarebbe intervenuto personalmente per ripristinare un video che era stato rimosso per affermazioni false sull’aborto, in seguito alle lamentele di politici repubblicani (Politico afferma che i lobbisti di Facebook hanno un’influenza analoga).
  • Zuckerberg, scrive il Washington Post citando anche fonti anonime, ha ceduto alle richieste del governo comunista del Vietnam di censurare i post dei dissidenti. Tra luglio e dicembre 2020 sono stati rimossi 2.200 post, contro gli 834 dei sei mesi precedenti.
  • Testate come Associated Press e Cnn scrivono che per un breve periodo Apple ha minacciato di rimuovere Facebook e Instagram dal suo app store perché i prodotti venivano usati per “comprare e vendere” domestiche filippine. Nonostante Apple abbia rinunciato quando Facebook ha promesso di “intervenire duramente” sulla questione, secondo Ap le contromisure hanno avuto “un effetto limitato” sul problema, che a sua volta rientra nella più ampia questione del traffico di esseri umani sulla piattaforma.
  • Politico scrive che Facebook non ha intrapreso alcuna azione di vasta portata contro gli utenti che hanno account multipli, nonostante abbia riscontrato che profili di questo tipo sono “una fonte massiccia” di post politici “tossici” e “sorgenti di attività politiche pericolose”.
  • Secondo Politico, i documenti di Facebook dimostrano il dominio della società sul mercato: il 78% degli adulti statunitensi utilizza il social e “quasi tutti gli adolescenti d’America” usano le piattaforme di proprietà di Zuckerberg. Questi numeri potrebbero aiutare la Federal trade commission (l’agenzia governativa statunitense che tutela i consumatori e previene le pratiche anticoncorrenziali) nella sua causa antitrust contro Facebook. Minano infatti la linea difensiva della compagnia, che sostiene di dover affrontare forte concorrenza da parte di società rivali.
  • Secondo il Washington Post, i documenti interni di Facebook dimostrano che la società ha rimosso meno del 5% dei messaggi di incitamento all’odio sulla piattaforma, nonostante Zuckerberg abbia dichiarato lo scorso anno al Congresso statunitense di eliminarne il 94%. L’amministratore delegato si è schierato contro l’idea di creare un centro di informazione elettorale in lingua spagnola in occasione delle presidenziali americane, perché riteneva che la mossa non sarebbe stata “politicamente neutrale”.
  • I dipendenti di Facebook, scrive The Verge, in primavera hanno sollevato il problema della scarsa capacità della piattaforma di moderare i contenuti anti-vaccini. Una nota afferma che il rilevamento di “commenti che esprimono dubbi sui vaccini è scadente in inglese e pressoché inesistente nelle altre lingue”. L’azienda ha aspettato mesi prima di interessarsi alla questione.
  • Facebook, riferisce ancora The Verge, raggruppa i paesi in varie “fasce” per determinare le risorse da allocare per ciascuna elezione. La società non fornisce alcuna assistenza ai paesi della fascia più bassa (che include tutti gli stati tranne 30), a meno che non vengano segnalati specifici contenuti a tema elettorale da moderare.
  • Facebook ha svolto una ricerca sulle “caratteristiche principali” della piattaforma, come i pulsanti ‘mi piace’ e ‘condividi’, e ha verificato che hanno “permesso alla disinformazione e all’incitamento all’odio di prosperare sul sito”, scrive il New York Times. I dirigenti, però, hanno bloccato ogni modifica a quelle funzioni, in modo da non soffocare la crescita e “mantenere coinvolti gli utenti”. Il tutto, afferma il Washington Post, rientra nel modello di comportamento dell’azienda, che “ha abbandonato o rimandato” le mosse che avrebbero potuto ridurre “la disinformazione e la radicalizzazione”.
  • Nonostante Facebook abbia condotto ricerche approfondite che mostrano come la sua popolarità sia in calo tra i giovani, Bloomberg scrive che la compagnia ha “rappresentato in modo fuorviante” questo fatto agli investitori. Ha evitato infatti di fornire informazioni sul suo calo in certe fasce demografiche e si è focalizzata solo sulla crescita complessiva. Il tutto nonostante, afferma The Verge, la compagnia veda il calo dell’uso della piattaforma da parte degli adolescenti come “una minaccia alla sua stessa esistenza”.
  • Facebook dà spesso la priorità alle “considerazioni politiche” quando si tratta di prendere decisioni, in modo da non apparire di parte. Secondo il Wall Street Journal, concede a editori di destra che registrano ottimi numeri “un trattamento speciale” che permette loro di evitare sanzioni per la disinformazione. Un dipendente di Facebook ha dichiarato che la società fa “eccezioni” per siti d’informazione conservatori come Breitbart e “arriva addirittura ad appoggiarli in modo esplicito”, includendoli per esempio nel suo News Tab.
  • Facebook ha rimosso alcune “salvaguardie” per arginare la diffusione della disinformazione politica dopo le elezioni statunitensi del 2020, prima dell’attacco al Campidoglio del 6 gennaio. Dopo l’inizio delle violenze, ha avuto una reazione “tiepida” che i dipendenti hanno criticato e ritenuto insufficiente, secondo documenti citati da testate quali Bloomberg, Cnn, Associated Press, Washington Post, Journal e New York Times.
  • Il Journal e il Washington Post scrivono che Facebook ha condotto un’approfondita ricerca interna da cui sono risultate alcune raccomandazioni sulle modalità con cui la piattaforma potrebbe fermare la diffusione di contenuti estremisti. Ma “in molte circostanze, i dirigenti hanno rifiutato di attuare queste misure”. E Nbc News riferisce che gli sforzi compiuti da Facebook per bandire QAnon e altri gruppi complottasti sono stati criticati dai ricercatori interni come “frammentari” e non in grado di fermare “l’enorme crescita” del movimento.
  • Il Journal afferma che Facebook adotta un approccio in stile “ammazza la talpa” quando si tratta di bandire i movimenti estremisti. Porta cioè “attacchi chirurgici” contro singole entità che ritiene pericolose, invece di seguire “un approccio più sistematico” che, secondo i dirigenti, soffocherebbe la crescita dell’azienda.
  • Il Washington Post, il Times, Bloomberg, il Journal e Ap scrivono che l’incitamento all’odio e la disinformazione hanno prosperato sulla piattaforma e sono stati spesso lasciati incontrollati in India, il più grande mercato di Facebook. In particolare, a diffondersi sono stati la retorica e gli incitamenti alla violenza contro i musulmani, nonostante l’azienda abbia condotto ricerche interne che dimostrano la portata del problema.
  • Facebook non è stata in grado di controllare molti contenuti in India perché non ha la capacità di moderare efficacemente e di appurare la veridicità dei post nelle 22 lingue ufficiali del Paese. Tra queste ci sono l’hindi e il bengalese, che, come rileva il Washington Post, sono rispettivamente la quarta e la settima lingua più parlata al mondo. E Ap e Wired scrivono che la piattaforma ha problemi simili con l’arabo e, di conseguenza, con la moderazione dei contenuti nel Medio Oriente.
  • Il Journal sottolinea che due gruppi nazionalisti indù che non sono stati banditi da Facebook, nonostante abbiano diffuso contenuti o incitamenti alla violenza contro i musulani, hanno legami col primo ministro indiano, Narendra Modi, e il suo partito politico. Un gruppo non è stato rimosso, secondo un documento interno, per via delle “sensibilità politiche esistenti”.

Il numero

87%. È questa la quota di risorse per contrastare la disinformazione che Facebook, secondo un documento citato dal Times, dedica agli Stati Uniti. L’azienda riserva dunque solo il 13% al resto del mondo. Il Washington Post riporta inoltre che Facebook destina l’84% dei suoi sforzi legati alle lingue agli Stati Uniti. (Facebook ha contestato queste cifre al Times, dicendo che non prendono in considerazione i fact checker di terze parti, molti dei quali sono all’estero). I documenti citati dai due giornali riportano che la piattaforma ha avuto difficoltà a controllare adeguatamente i contenuti, oltre che in India, anche in Myanmar, Sri Lanka, Etiopia, Pakistan e Indonesia.

La citazione

“Sto lottando per far coesistere i miei valori e il mio impiego qui”, ha scritto un dipendente in un messaggio sulla piattaforma interna il 6 gennaio, citato dal Washington Post e da Bloomberg. “Sono arrivato con la speranza di cambiare e migliorare la società, ma tutto ciò che ho visto sono inazione e negazione della responsabilità”.

La voce contraria

Facebook ha ampiamente respinto le accuse delle testate di informazione e ha difeso i suoi sforzi contro la disinformazione e l’estremismo. “Alla radice di questi articoli c’è una premessa falsa”, ha dichiarato il portavoce di Facebook Joe Osborne al Financial Times. “Certo, siamo un’azienda e facciamo profitti, ma pensare che li facciamo a discapito della sicurezza o del benessere delle persone significa non capire dove risiede il nostro interesse commerciale. La verità è che abbiamo investito 13 miliardi di dollari e paghiamo 40mila persone per fare una cosa: rendere sicuri gli utenti di Facebook”.

Che cosa aspettarsi

Altri articoli sullo stesso tema. Sabato il vp of global affairs di Facebook, Nick Clegg, ha detto ai dipendenti: “Dobbiamo prepararci ad altri titoli negativi nei prossimi giorni”, secondo un post interno riportato da Axios. E The Verge, una delle testate che ha avuto accesso ai documenti, ha detto lunedì che altre notizie usciranno “nelle prossime settimane”.

Il contesto

Facebook viene criticata da tempo per la sua presunta incapacità di fermare la disinformazione e l’incitamento all’odio sulla sua piattaforma. Queste accuse si sono moltiplicate nelle ultime settimane dopo che la whistleblower Frances Haugen ha parlato al programma televisivo 60 Minutes e ha testimoniato al Congresso statunitense sulle pratiche scorrette della società. L’ex membro della squadra civic integrity di Facebook ha detto al Congresso che l’azienda ha “messo i suoi profitti astronomici davanti alle persone”. Ha esortato quindi i legislatori ad agire contro Facebook, che ha definito “significativamente peggiore” rispetto ad altre aziende di social network di cui aveva avuto esperienza. Il primo a riportare il contenuto dei documenti interni raccolti e forniti alla Sec da Haugen, passati poi dai suoi avvocati alle testate giornalistiche, è stato il Journal. 

Un fatto correlato

Oltre a scrivere dell’India e della rivolta del 6 gennaio, il Journal, basandosi sui documenti di Haugen, ha pubblicato anche articoli su altri temi: la politica di Facebook che esenta i personaggi famosi dal rispetto delle regole; la consapevolezza dell’azienda degli effetti “tossici” di Instagram, in particolare sulle adolescenti; il cambiamento di algoritmo del 2018 che ha avuto l’effetto di rendere gli utenti della piattaforma “più arrabbiati”; la “debole” risposta della società ai post di cartelli della droga e di trafficanti di esseri umani; il mancato controllo sui contenuti anti-vaccini; i piani per attrarre i preadolescenti sulle piattaforme; il cambiamento della distribuzione dei dipendenti tra i team; i dubbi dei dipendenti sulla possibile efficacia dell’intelligenza artificiale da parte della società; la difficoltà dell’azienda nell’individuazione degli utenti che hanno più di un profilo.