openai-sam-altman
Business

Il governo americano indaga su OpenAI: “Rischi per i dati e la reputazione degli utenti”

Questo articolo è apparso su Forbes.com

La Federal Trade Commission (Ftc) ha aperto un’indagine su OpenAI. Come riporta il Washington Post, a giudizio della Ftc il suo chatbot di intelligenza artificiale, ChatGPT, porrebbe rischi per i consumatori e fornirebbe informazioni false che potrebbero causare “danni reputazionali”

I fatti chiave

  • Secondo una lettera ottenuta dal Wp, l’agenzia governativa sta verificando se OpenAI “abbia svolto pratiche sleali e ingannevoli in materia di privacy o sicurezza dei dati”, o se abbia adottato pratiche che possano creare “rischi di danno ai consumatori, inclusi quelli reputazionali”.
  • La Ftc ha chiesto a OpenAI di fornire dettagli sui dati che la compagnia ha usato per allenare i suoi prodotti, incluso il modo in cui ha affinato i suoi modelli per correggere la loro tendenza alle “allucinazioni” (i casi in cui un’intelligenza artificiale non conosce la risposta a una domanda e se ne inventa una) o alla rivelazioni di informazioni personali.
  • La lettera chiede inoltre a OpenAI – che ha in Microsoft uno dei suoi maggiori investitori – di fornire dettagli sui suoi prodotti e su come li promuove, oltre che sulle politiche o le procedure seguite prima del rilascio di un nuovo prodotto.
  • L’agenzia avrebbe citato un caso del marzo 2020, in cui la compagnia avrebbe rivelato un bug che permetteva ad alcuni utenti di vedere informazioni di pagamenti e dati degli altri utenti che avevano utilizzato la chat.
  • Se la Ftc dovesse determinare che l’azienda ha violato le leggi di protezione dei consumatori, OpenAI potrebbe essere multata dalla Ftc e ricevere un decreto che chiede all’azienda di aggiornare le sue regole di privacy e sicurezza.

Un fatto correlato

ChatGPT ha visto lievitare la sua popolarità negli ultimi mesi, ma è stata messa sotto esame per avere generato talvolta affermazioni false. Il mese scorso Mark Walters, un conduttore radiofonico della Georgia, ha fatto causa a OpenAI per diffamazione, sostenendo che ChatGPT avesse creato una falsa pedina penale che lo accusava di frode e appropriazione indebita.

ChatGPT ha anche riferito a un avvocato californiano che un altro legale – Jonathan Turley, professore della George Washington University – aveva molestato sessualmente una studentessa, citando un articolo inesistente del Washington Post. Brian Hood, sindaco di Hepburn Shire, in Australia, ha dichiarato di preparare una causa contro OpenAI dopo che ChatGPT ha affermato falsamente che era stato in prigione per un’accusa di corruzione.

Il contesto

Negli ultimi mesi la Ftc ha emesso vari avvertimenti sull’uso dell’intelligenza artificiale, sottolineando le preoccupazioni sul fatto che i prodotti di Ia “potrebbero non funzionare secondo quanto pubblicizzato” o potrebbero fornire informazioni inaccurate, di parte e discriminatorie. Alcuni funzionari dell’agenzia avevano già avvertito che all’intelligenza artificiale si applicano le leggi per la tutela dei consumatori in vigore, mentre i legislatori cercano di regolare la tecnologia.

Tramite il sito di ChatGPT, la società ha diffuso un suo messaggio sul fatto che il chatbot potrebbe “occasionalmente generare informazioni scorrette” o “produrre istruzioni dannose o contenuti di parte”. L’azienda ha anche avvisato che il chatbot potrebbe sempre “avere le allucinazioni” e “commette errori di ragionamento”. OpenAI ha annunciato a maggio che avrebbe sviluppato nuovi metodi per allenare i suoi modelli di intelligenza artificiale per correggere possibili “allucinazioni”.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .