Con l’esplosione della pornografia generata dall’intelligenza artificiale, le pornostar in carne e ossa affermano che la nuova tecnologia è stata utilizzata per costringere loro a fare o dire cose senza il loro permesso.
Per mesi la pornostar Demi Sutra ha ricevuto messaggi dai fan che le chiedevano di filmare una scena in cui fingeva di essere minorenne.
Lei ha detto no. Come la maggior parte degli artisti adulti, Sutra ha confini chiari riguardo al tipo di contenuti che è disposta a creare – e l’ageplay (giocare sull’età), in cui gli artisti adulti fingono di essere minorenni, è un genere di porno che trova ripugnante. Ma circa un anno e mezzo fa, un fan le ha inviato un messaggio su Twitter con una sua foto, dove la sua bocca era stata animata per muoversi. Ha sentito parlare una sua versione con la sua stessa voce, che dichiarava di avere solo 16 anni.
“Ho dei video in cui dico cose disgustose che io non direi mai”, ha detto Sutra a Forbes in un’intervista. “Non voglio vedermi fare una cosa del genere. Non voglio essere un esempio negativo sui bambini. Questi sono predatori di bambini. Non voglio farne parte, c**o. E io, proprio ora, ne faccio parte, con la forza”.
Le linee guide nell’industria del porno
Sutra non è la sola. Nelle interviste, altri tre creatori di contenuti per adulti hanno espresso il timore che l’intelligenza artificiale possa devastare i principi affermativi e vocali del consenso su cui fanno affidamento nell’industria del porno tradizionale. Leana Lovings, artista e ambasciatrice del marchio per il sito web Adult Time, ha descritto come queste linee guida influiscono sul modo in cui vengono girate le scene: prima dell’inizio delle riprese, ogni artista riceve una lista di cose da fare e da non fare. “Tutti confermano, ad alta voce, cosa siamo pronti a fare quel giorno e cosa non siamo preparati a fare”, ha detto a Forbes.
Queste regole sono state essenziali per la sopravvivenza dell’industria del porno in uno spazio altamente regolamentato, dove un malinteso può facilmente portare alla rottura di contratti o di leggi. Ma all’improvviso, chiunque può usare un algoritmo per sovrapporre il corpo di una persona reale a una scena immaginaria, o far dire, o fare, a un artista qualcosa a cui non ha acconsentito, spesso senza ripercussioni.
Il livello di attenzione (e paura) dell’industria del porno non esiste ancora nel mondo in evoluzione del porno con intelligenza artificiale, dove sono spuntate app su Internet che promettono agli utenti la possibilità di “spogliare chiunque!” — artisti adulti, celebrità o altro. I deepfake e i cheapfake non consensuali che si appropriano delle sembianze delle persone (soprattutto donne) senza il loro consenso stanno inondando anche i siti mainstream come Reddit ed Etsy.
La minaccia dell’intelligenza artificiale
“L’intelligenza artificiale è ancora agli inizi nello spazio per adulti. Abbiamo persone che non sono lavoratrici del sesso, che cercano di entrare in questo spazio senza dover affrontare le conseguenze dell’essere una lavoratrice del sesso”, ha detto Siren Obscura, regista e produttore indipendente. che lavora con creatori di contenuti per adulti. “Queste persone stanno cercando di trarre profitto dai corpi delle lavoratrici del sesso”.
L’ampia accessibilità dell’intelligenza artificiale in grado di realizzare porno personalizzato potrebbe anche ridurre la capacità delle pornostar di guadagnarsi da vivere. Lovings ha notato che la minaccia è più pronunciata per gli artisti che hanno girato un numero elevato di scene, rivelando i loro corpi in molti contesti e da molte angolazioni. Cosa che renderebbe più facile per l’intelligenza artificiale impersonificarli. “Più scene avremo, migliore sarà l’interpretazione che potranno fare di noi”, ha detto.
L’assenza di leggi di settore
Molti degli artisti che hanno parlato con Forbes hanno fatto paragoni con la minaccia simile rappresentata dall’intelligenza artificiale per gli attori, che è stata una delle questioni centrali nel recente sciopero a Hollywood. Alla fine, il sindacato degli attori ha ottenuto disposizioni contrattuali che limitano le modalità con cui i datori di lavoro possono creare rendering IA dei propri membri. Lovings spera che i legislatori creino nuovi rimedi per gli artisti le cui sembianze vengono utilizzate in modo improprio. “Vorrei che ci fosse più legislazione che ci consentisse di agire su queste cose”, ha detto a Forbes.
Esistono poche leggi che proteggono le persone le cui immagini sono state alterate dall’intelligenza artificiale senza autorizzazione. Negli Stati Uniti, alcuni governi statali hanno classificato la pubblicazione di deepfake in base alle leggi esistenti che vietano la distribuzione di revenge porn (ovvero foto o video espliciti di qualcuno condivisi senza il consenso). Ma le leggi sulla ‘pornografia di vendetta’ sono spesso limitate alle situazioni in cui gli autori divulgano immagini per molestare o terrorizzare la vittima raffigurata. Per le immagini o i video di pornostar che fanno cose senza il loro consenso, è plausibile che il creatore dell’immagine potrebbe averla realizzata per venderla o, semplicemente, per godersela per uso personale.
La legislazione in America
Alcuni legislatori ed esperti sostengono che servano protezioni più solide per le vittime dei deepfake, indipendentemente dal fatto che siano stati creati o meno con l’intento di molestare. Rebecca Delfino, professoressa di diritto alla Loyola Marymount University ed esperta di legislazione sui deepfake, ha osservato che molte legislature, inclusa la Camera dei rappresentanti degli Stati Uniti, stanno prendendo in considerazione nuove sanzioni per le persone che creano o diffondono porno deepfake.
“La pornografia, purché basata sul consenso, merita la protezione del Primo Emendamento”, ha detto a Forbes. “Ma l’assenza di consenso che sappiamo essere probabilmente presente quando qualcuno è oggetto di un deepfake, penso, lo colloca maggiormente nello stesso campo della pornografia infantile, che non dovremmo considerare come qualcosa soggetto a protezione ai sensi del Primo Emendamento”.
Delfino ha avvertito che penalizzare i creatori di contenuti non consensuali potrebbe non essere sufficiente, perché potrebbero essere difficili da identificare, per non parlare di trascinarli davanti a un tribunale. Ha osservato che i fornitori di servizi Internet svolgono un ruolo importante nel rendere disponibile al pubblico il porno deepfake (e gli strumenti utilizzati per crearlo) e che, se lo volesse, il Congresso potrebbe approvare una legge che li renderebbe soggetti a sanzioni per la sua distribuzione.
Non proprio “semplici” attori
Le pornostar hanno detto a Forbes di aver visto anche persone usare le loro immagini in modi inquietanti, ma meno tecnologicamente avanzati. Stella Sedona ha affermato che il suo obiettivo è creare “uno spazio inclusivo e sicuro in cui le persone possano esplorare la propria sessualità”, quindi è rimasta inorridita nello scoprire fan art che abbinavano immagini del suo corpo a un linguaggio razzista.
E mentre i contenuti generati dagli utenti con le sembianze di personaggi pubblici tradizionali sono all’ordine del giorno, ha detto Sedona, essere questo tipo di artista non è proprio come essere un personaggio pubblico normale. Quando una star di Hollywood interpreta un supercattivo in un film, nessuno vede quella persona come un supercattivo quando cammina per strada il giorno dopo. Ma quando una persona viene rappresentata nel porno, ha detto, “rappresenta chi sei come persona”.
Tuttavia, in alcune situazioni, le pornostar si trovano ad affrontare esattamente gli stessi tipi di appropriazione indebita di altri personaggi pubblici. Sutra ha affermato che lei e altri artisti sono stati incessantemente impersonificati da truffatori che vendono prodotti, presunti contenuti esclusivi e persino incontri di persona.
Questo tipo di truffa online spesso prende di mira anche le celebrità tradizionali (basta chiedere alle vittime di un numero qualsiasi di truffe crittografiche di Elon Musk), ma i creator di contenuti per adulti hanno meno protezioni contro l’imitazione rispetto ad altri personaggi pubblici. Poiché non possono essere verificati su piattaforme di social media come YouTube e Instagram, è più difficile per i fan sapere quali account appartengono veramente a loro.
Procedure di verifica maggiori
Per affrontare questo problema, tutti gli artisti sperano che sia i siti porno che i siti di social media convenzionali sviluppino procedure di verifica più forti per aiutare gli utenti a distinguere tra account autentici e impostori. Kristen Kaye, dirigente del marketing e talent manager del settore, è andata oltre, suggerendo che i siti porno dovrebbero richiedere che chiunque carichi contenuti IA detenga la licenza per le sembianze ritratte al loro interno.
Sia Kaye che Obscura hanno notato che alcuni artisti di contenuti per adulti hanno iniziato a sperimentare da soli nuove funzionalità di intelligenza artificiale, come chatbot addestrati sul proprio linguaggio che possono interagire con i fan 24 ore su 24, 7 giorni su 7. Hanno convenuto che nel caso sui siano gli stessi artisti ad acconsentire, i chatbot potrebbero essere una buona cosa.
Una cosa su cui tutti gli artisti sono d’accordo, però, è che l’intelligenza artificiale non verrà a prendere il loro lavoro tanto presto. È proliferato anche il porno completamente falso generato dall’intelligenza artificiale che non raffigura una persona reale, ma non è buono come quello reale – per ora – e gli artisti si chiedono se potrebbe mai esserlo.
Lovings si definisce un’umanista e dice di ritenere che le autentiche emozioni umane non saranno facili da ricreare per un computer. Sedona è d’accordo: “Stiamo creando un prodotto artigianale. Se vuoi la cosa reale, dovrai andare nelle pagine dei creator, dove proviene davvero dalla persona che la sta creando. E molte persone, alla fine è questo ciò che cercano”.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .