Il deepfake e i falsi nudi di donne: gli abusi tecnologici del nostro tempo
Nel Regno Unito sta attirando sdegno (ma anche milioni di visualizzazioni) un sito che permette di “spogliare le foto”
Attraverso la tecnologia deepfake, il web permette di “spogliare le donne” nelle fotografie, restituendone delle (false) versioni hard, del tutto verosimili a fotografie reali. Verosimili al punto da poter essere facilmente scambiate per foto osé private, o generatrici all’ultimo scandalo nel mondo del gossip, in caso di attrici famose.
Il primo video di tecnologia deepfake
Il primo video di tecnologia deepfake in assoluto fu “Video Rewrite”, pubblicato nel 1997, in cui un video esistente di una persona che parlava veniva modificato, in modo che la persona apparisse come se stesse pronunciando parole diverse da quelle reali. A questo era stato associata una traccia audio diversa dalla originale. Era il primo sistema che riuscì completamente ad automatizzare questo tipo di animazione facciale, usando le tecniche del machine learning per creare connessioni tra i suoni prodotti dal soggetto del video e la forma del suo viso.
DeepSukebe, il sito che “spoglia” le donne
Nel Regno Unito sta attirando sdegno (ma anche milioni di visualizzazioni) un sito che permette a tutti di “spogliare le foto” di donne, e di farlo in modo anonimo e non legalmente perseguibile. Si tratta del sito DeepSukebe che, sulla sua pagina Twitter, ora sospesa, si è definito un «nudificatore sfruttato dall’intelligenza artificiale». Il sito, attraverso un “programma di incentivi”, premia chi condivide i link dei contenuti che crea. L’intento sarebbe quello di “far avverare tutti i sogni degli uomini”.
Come funziona
DeepSukebe utilizza l’apprendimento automatico (una rete antagonista generativa) per trasformare foto di donne, famose e comuni, in nudi estremamente realistici. Fenomeni di Revenge porn e falsi video pornografici delle celebrità sono i contenuti che vanno per la maggiore. Il mese scorso, gli Stati Uniti hanno rappresentato la principale fonte di traffico del sito, seguiti da Tailandia, Taiwan, Germania e Cina. Inoltre, la pagina ha raccolto 38 milioni di visite da tutto il mondo, di cui 5 milioni solo nel mese di giugno. Numeri preoccupanti, che fanno riflettere su quanto il fenomeno sia in espansione incontrollata.
Un pericolo che ci riguarda da vicino
In una fase iniziale, la strumentazione permetteva di modificare solo foto di donne e attrici famose: era necessario un gran numero di foto della stessa per ricostruirne una versione veritiera senza veli. Adesso, grazie all’apprendimento automatico, chiunque può caricare un’immagine qualunque, e ottenerla in versione “senza filtri”. Questo vuol dire che qualsiasi immagine, anche una nostra fotografia o quella di un nostro caro, potrebbe essere “spogliata” e circolare liberamente nel web.
Gli intenti di chi “spoglia”
Gli esperti affermano che la maggior parte di coloro che usano tali strumenti, lo fa per prendere di mira persone che conosce, sottolineando così la pericolosità che un fenomeno di massa del genere può rappresentare. Ma una tecnologia come questa non è potenzialmente dannosa solo per il singolo. Può anzi ledere anche intere comunità. Basti pensare al numero elevato di bufale, truffe e fake news che tale strumentazione può generare e mettere in circolazione; potrebbe essere usata in politica, in medicina e in molti altri campi, tanto da costringerci a dover mettere in discussione la veridicità di ogni contenuto con cui entreremmo in contatto.
Una realtà in crescita
Che il fenomeno del deepfake sia in esponenziale (e preoccupante) crescita lo conferma anche una ricerca. Il numero di video deepfake, secondo la società Deepfake Sensity Al, è raddoppiato dal 2018. Molti sono delle foto di celebrità, ma la stragrande maggioranza, secondo quanto riportano i ricercatori, una percentuale compresa tra il 90 e il 95 %, riguarda falsi nudi di donne “comuni”. Un problema che si presta a essere, oltre che un crimine, una vera e propria violenza nei confronti delle donne, come ha affermato Adam Dodge, fondatore di EndTAB (organizzazione no profit che educa le persone sugli abusi abilitati dalla tecnologia).
Attualmente, nel Regno Unito non ci sono leggi specifiche contro il deepfake, né esiste un diritto di proprietà intellettuale deepfake che possa essere invocato in caso di controversia legale, anche se c’è la volontà di renderlo un crimine specifico.
Non è difficile comprendere come l’innovazione delle strumentazioni tecnologiche, e il deepfake nello specifico, possano essere pericolosamente messi al servizio di vere e proprie campagne vendicative, o di persone che hanno tutt’altro che buone intenzioni. È il caso del revenge porn, per esempio, e di azioni che possono potenzialmente rovinare vita, reputazione o carriera di qualcuno, che si tratti di personaggi famosi o di persone comuni. Un sito come DeepSukebe, infatti, “è uno strumento perfetto se qualcuno vuole esercitare potere e controllo su una vittima”, afferma Dodge.