Finire in un video porno senza saperlo: ecco l'algoritmo che manipola le immagini

di Paolo Travisi
Scarlett Johannson, Emma Watson, Natalie Portman sono finite in un video porno senza saperlo. Stavolta non si tratta di filmati rubati da computer e cloud delle star da pirati informatici, ma di finti video talmente ben fatti, da sembrare veri. Un artificio digitale reso possibile dalle nuove tecnologie a costo zero. La vicenda risale ad un paio di mesi fa, quando un utente del sito di social news reddit.com, che si fa chiamare “deepfakes”, ha iniziato a postare video hard con protagoniste celebrità del cinema e della musica. La curiosità e la morbosità degli utenti hanno fatto il resto. In poco tempo deepfakes è diventata una community con migliaia di account, dove scambiare consigli e video per dimostrare tutta la propria bravura nel creare filmati porno sempre più realistici. Ma veniamo al processo di falsificazione.
 
 

È sufficiente cercare in rete fotografie dei volti dei vip che si vogliono taroccare. Deepfakes ha poi usato l’algoritmo di machine learning, Tensorflow (una piattaforma open source creata da Google) per creare i video porno fasulli, sostituendo il viso dell’attrice hard con quella dell’ignara star. L’algoritmo di intelligenza artificiale, creato per scopi ben diversi da questo ed in grado di evolvere continuamente nell’apprendimento, è stato usato da deepfakes con scopi tutt’altro che scientifici. Basta fare un giro sulla pagina Reddit di deepfakes per capire la popolarità di questo ultimo fenomeno del web. Sono decine i video fake. Ci sono le popstar Taylor Swift e Kate Perry, Margot Robbie, l’attrice bionda che recitava insieme a Di Caprio in The Wolf of Wall Street, Jessica Alba, Megan Fox, Ariana Grande, Sophie Turner de "Il trono di spade". E la lista diventa più lunga ogni giorno. Ad una prima occhiata questi video sono credibili, sembrano autentici, salvo poi verificarne i limiti grafici. Ma siamo solo agli inizi e l’industria del porno online sta già facendo i suoi conti.

Se infatti è vero che nel caso delle celebrities, il fenomeno non potrà diffondersi su larga scala per ovvi problemi legali, se fossero i visi di persone comuni a finire nei fake video? La risposta proviene di nuovo da un utente di Reddit, che ha creato l’applicazione Fake App, che consente di realizzare questi video posticci anche a persone senza esperienza informatica. Lo scenario è inquietante. Ex-mogli, colleghe, ex-fidanzate, professoresse, qualsiasi donna e uomo potrebbero diventare vittime del cosiddetto “revenge porn”: video privati diffusi in rete per una sorta di patologica vendetta morale. O ancor peggio alimentare la pedopornografia. E tutto questo non sarebbe più un gioco da nerd.
Venerdì 2 Febbraio 2018 - Ultimo aggiornamento: 05-02-2018 17:53

© RIPRODUZIONE RISERVATA

COMMENTA LA NOTIZIA
0 di 0 commenti presenti
  • 114
QUICKMAP