Anche l’intelligenza artificiale si presta alla pornografia

Un giorno potreste aprire PornHub e trovarci un video hardcore di vostra sorella, vostra figlia o, perché no, della vostra stessa ragazza e no, a girarlo non siete stati voi. A girarlo, per la precisione, non è stato nessuno: quel video vostra sorella, figlia o fidanzata non sa nemmeno che esiste, perché non lo ha mai girato. Però esiste. È la nuova frontiera della pornografia, garantita dal progresso tecnologico sapientemente applicato ad uno dei settori più sfruttati e frequentati del web.

Abbastanza falso da essere reale

Si chiama Deepfake technology e permette di creare una riproduzione artificiale – quindi falsa – di una persona all’interno di una foto o un video preesistenti. Si può vedere così la persona in questione fare e dire cose mai fatte o dette. La si può vedere mostrarsi come non si è mai mostrata, e probabilmente non si mostrerebbe mai.

Com’è possibile? La tecnologia si basa sul Deep learning: tecnica di “apprendimento profondo” o “approfondito” in cui reti neurali artificiali sono esposte a vaste quantità di dati, per imparare a svolgere compiti. Parliamo di intelligenza artificiale e di risvolti molteplici e di grande rilevanza (comprensione e trascrizione del parlato, guida autonoma, riconoscimento delle immagini e dei suoi componenti, identificazione delle frodi, diagnosi medica, …). Nel caso della Deepfake, però, il Deep learning è sfruttato per creare qualcosa di fake, falso, e per scopi moralmente molto più bassi. In pratica, ora che l’intelligenza artificiale sa riconoscere volto e voce delle persone, le si insegna a scambiarli con quelli di altre persone, presenti in altro materiale. Una prima applicazione è stata in ambito fake news: sono comparsi in rete video di Barak Obama o Donald Trump, ad esempio, colti in affermazioni forti e compromettenti. Che fossero anche artefatte ci è voluto un po’ a capirlo; un po’ troppo, però, viste le conseguenze della diffusione di informazioni false in rete.

Parallelamente si è sviluppato un filone molto più appetibile: quello dell’uso nella pornografia. Il sogno di vedere senza veli qualsiasi donna si desideri – nient’affatto nuovo e anzi da alcuni tanto agognato – sembra sul punto di diventare realtà.

L’emblematico logo dell’app Deep Nude
Deep Nude

È lo specifico scopo di Deep Nude, un’app progettata per simulare il corpo nudo di una donna a partire da una qualsiasi sua foto. Che sia più o meno vestita è indifferente, cambia solo la qualità della simulazione che ne risulterà. L’importante è che sia una donna, perché l’app non funziona sugli uomini. Motherboard – la sezione del magazine Vice dedicata alla tecnologia e alla scienza – l’ha testata anche su immagini di corpi maschili, ma il risultato è che anche su di loro viene apposta una vagina.

Lanciata e poi rimossa nel giro di pochi giorni, lascia dietro di sé una scia di altre app – preesistenti e ancora disponibili – che fanno più o meno la stessa cosa: sovrapporre il viso della persona desiderata a quello di altre persone presenti in filmini a luci rosse. Ed ecco confezionato un video pornografico personalizzato, in cui si può far fare alla donna desiderata un po’ quello che ci pare. Chiaramente è un’illusione, un prodotto artefatto, e chiamarla donna sembra anche esagerato: in fin dei conti sono due pezzi – un viso e un corpo – presi da due persone diverse e messi assieme. Nulla hanno a che fare l’uno con l’altro, non sono parte di un unico essere umano né vanno a formarlo, visto il trattamento riservato.

Il materiale è anche pronto per la diffusione online, ovviamente svincolata dal consenso della donna utilizzata. Anzi, a differenza del revenge porn, la donna in questione non è a conoscenza non solo della circolazione del materiale, ma neppure della sua stessa esistenza. Si è partiti da star famose – una su tutte, Scarlett Johannson, che ne ha parlato a dicembre 2018 al Washington Post – e si sta andando sempre più verso le persone comuni, sfruttando il capitale infinito di immagini in rete.

Rischi e senso di impotenza

Vittima, insomma, potrebbe essere chiunque: chiunque esista su internet e vi abbia postato una propria foto, anche parziale, priva di malizia e lontana da ogni tentativo di ammiccare o sedurre l’osservatore. L’unica protezione possibile ed efficace sarebbe quella di sparire dal web, con tutte i media al seguito.

Oltre al disgusto e alla violazione della propria persona, trovarsi in una situazione del genere può implicare anche la perdita della propria reputazione, con gli annessi rischi per il proprio lavoro, vita sociale e privata, nonché salute psico-emotiva. La qualità di questo materiale, infatti, è già abbastanza alta da poterlo ritenere realistico, e può solo migliorare. Come far capire e credere ad amici, conoscenti e cari che quella persona non siamo davvero noi, che non ci siamo mai cimentati con la pornografia? Se non possiamo più credere ai nostri occhi, a cosa dovremmo credere?

Una ragazza texana di nome Kate, vittima di questo fenomeno e di altri attacchi misogini, lo ha raccontato alla versione statunitense di Huffington Post:

Fin quando è Photoshop, si tratta di un’immagine statica ed è abbastanza chiaro, solitamente, che non è reale. Ma quando è proprio la tua faccia a muoversi e reagire [nel video], ti assale il panico, perché non hai controllo su come la gente usa la tua immagine.

Intanto, da Stati Uniti e Regno Unito qualcosa si muove in termini di legislazione. E siti come Twitter, Reddit e Google stanno vietando la diffusione di contenuti deepfake. Persino PornHub non fa eccezione: la non-consensualità della loro diffusione va contro le condizioni di utilizzo della piattaforma. Tuttavia, non si fa difficoltà ad intercettarne ancora, anche cercando proprio “deepfakes“.

Ad ogni modo, si tratta di misure ex-post, che non impediscono il fenomeno, né lo arginano. Misure preventive, all’orizzonte, ancora non se ne vedono.



CREDITS
Copertina
Immagine 1
Immagine 2

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.