La pornografia sintetica dei deepfake

21 Luglio 2023

Per anni la questione dei deepfake ha riguardato soprattutto temi allarmanti quali la sostituzione dei posti di lavoro della classe creativa, la proliferazione visuale delle fakenews o il cosiddetto face-swapping che innesta il volto di famose celebrità o di persone comuni in scene tratte da contenuti pornografici. Dopo un lungo periodo di panico morale nei confronti delle immagini mediate dall’intelligenza artificiale, ancora una volta Black Mirror spinge il discorso verso territori immaginativi ben più illuminanti. Il primo episodio della nuova stagione, difatti, lavora sull’interdipendenza tra il mondo fisico e quello digitale, tra la realtà quotidiana e la fiction. Nella breve introduzione, ci viene offerto uno spaccato della vita di Joan, costretta suo malgrado a licenziare freddamente una sua ex amica e a tradire anche solo ipoteticamente il compagno con il suo ex. Giunta sera, sul divano di fronte allo schermo insieme al suo partner, la protagonista ritrova i passaggi chiave della giornata appena trascorsa in una serie televisiva prodotta dalla sconcertante piattaforma Streamberry (alias della stessa Netflix). La serie Joan is awful racconta la vita di questa povera vittima che “flaggando” senza leggere il contratto di consenso informato sulla cessione dei propri dati (come in un memorabile episodio di South Park), ha acconsentito a un trattamento molto speciale: tutto il suo vissuto può essere rielaborato tramite computer quantistici e AI per dar vita a una serie superdeepfake in cui la vita di ognuno è rivissuta da molteplici personaggi, disposti su diversi livelli ontologici, in una sorta di loop continuo tra l’interprete e l’interpretato. Il loop ovviamente va in cortocircuito quando l’oggetto (Joan) incontra il soggetto della rappresentazione (Salma Hayek). La serie ci mostra le possibili conseguenze di un’integrazione spregiudicata tra i contenuti delle piattaforme, l’AI, i deepfake, il mondo delle celebrity, e la presunta centralità dell’utente, giustificata dalla necessità di estrarre ed elaborare i dati prodotti dalla realtà “vera”. Come è eminentemente mostrato nel racconto, i deepfake popolano questo nuovo ecosistema comunicativo “ibrido” (Barile 2022), caratterizzato da:

  1. Una dimensione phygital che fonde in vari modi il reale e il virtuale;
  2. Un regime customer-centrico che personalizza le esperienze per ogni singolo utente;
  3. Una funzione di “media empatici” che consente di interpretare la dimensione emotiva del dato;
  4. Una creatività sintetica capace di reinventare mondi possibili a partire da serie storiche di dati.
     

Da quando il quotidiano è diventato la categoria centrale nella rappresentazione dei media, dallo storytelling classico allo storyliving degli attuali videogame nel metaverso, l’intelligenza artificiale si è mostrata particolarmente vorace nella sua capacità di fagocitare i contenuti esperienziali delle persone comuni, che vengono trasformati in dati capaci di addestrare le applicazioni di AI. Cosicché la vera pornografia è sempre più quella del quotidiano.

Il recente libro di Graham Meikle, Deepfakes (trad. it. Perlego, 2022), lavora su una prospettiva che è a metà strada tra l'archeologia dei media e l’analisi dell’immaginario. Queste “tecnologie radicali” (Greenfield 2017) difatti, sono paragonabili a tecnologie più datate, come l’elettricità, che solo in seguito alla loro diffusione massiva, hanno modificato la società. Per questo ha senso studiarle ora, agli esordi della loro affermazione su scala globale. L’autore parte dalla cultura del remix come principio capace di spiegare i deepfake, allineandoli alla storia di altre pratiche creative: dal prank del Culture Jamming alla memetica. Ma i deepfake vanno ben al di là di ciò che un tempo fu definita cultura convergente.

L’illimitato dataset di immagini, video e testi che abbiamo condiviso tramite i social… è il crudo materiale tramite cui vengono addestrati i sistemi di AI a riconoscere, classificare e ricreare immagini. Con un addensamento adeguato, queste reti sono in grado di generare immagini totalmente nuove: copie senza l’originale (ivi, p. 6).

m

Agli appassionati di Jean Baudrillard (sorprendentemente non citato da Meikle) risuoneranno le definizioni di simulacro proposte in Simulacra and Simmulations (1981). Se all’epoca in pochi capirono il significato di immagini autoreferenziali generate da una matrice numerica senza alcun riferimento esterno, oggi tale idea diventa facilmente riscontrabile nell’evoluzione dei deepfake. Meikle richiama il lancio del primo iPhone e del suo sistema di riconoscimento facciale, come esempio di diffusione su larga scala dei media sintetici (Meikle 2022, p. 22). Con tale termine possiamo indicare “le immagini, o gli audio o i video che sono generati dai processi dell’Intelligenza Artificiale” (ivi, p. 24). L’autore si cimenta con una lunga disquisizione sul porno sintetico, appunto prodotto dai sistemi di AI, che può avere varie declinazioni, come il porno non consensuale sugli eroi della serie The Avengers (ivi, p. 44) posti in un contesto pornografico che riscuote un incredibile successo in termini di ricerche e di visualizzazioni su Pornhub. Oppure, nella sua variante quotidiana, la pratica del revenge porn opera la medesima sostituzione, ma questa volta con persone vicine, conosciute e/o frequentate. In entrambi i casi spicca la vocazione misogina di alcune app, come FakeApp and DeepNude, usate per la creazione e per la distribuzione di contenuti sessuali non consensuali (Gosse&Burkell 2020). 

Anche se può sembrare un caso “estremo” in realtà il porno sintetico adotta la medesima logica del business ufficiale, basata sullo sfruttamento dell’immagine della celebrità attraverso molteplici canali. Ovvero l’appropriazione della sua immagine, il suo editing in contesti non convenzionali e la sua promozione nello spazio pubblico (Meikle 2022, p. 45). Un numero considerevole di piattaforme e applicazioni opera in questo settore: da Mrdeepfake che è la community più frequentata con il maggior numero di versioni porno e di nudi relativi a star famose come Emma Watson (circa 478 contenuti), fino a CelebJihad che aggrega contenuti porno o nudi autentici, associandoli a un commentario “aggressivo e illecito” (ivi p. 68).

La performance sessuale è classicamente contraddistinta da almeno due aspetti preponderanti: l’attivazione immediata del desiderio e l’efficienza tecnica della sua messa in scena (Breton 1995). Una vocazione scientista che utilizza la tecnica e il video come supporto per rendere evidente ciò che in realtà non è tale, azzerando in tal modo il fascino ammaliante dell’illusione. 

La pornografia… aggiunge una dimensione allo spazio del sesso, lo rende più reale del reale – in questo consiste la sua assenza di seduzione (…). Lo si vede troppo da vicino, vi si scorge quel che non si era mai visto (…) per effetto dello zoom anatomico, la dimensione del reale è abolita, la distanza dello sguardo lascia il posto a una rappresentazione istantanea e esasperata: quella del sesso allo stato puro, fine dello spazio prospettico, che è anche quello dell’immaginario e del fantasma, fine della scena, fine dell’illusione (Baudrillard 1979, pp. 37-38).

Se la vecchia pornografia era soprattutto trasparenza, riproducibilità tecnico-performativa e vocazione analitica, il gioco delle maschere introdotto dai deepfake reintroduce un alone di indeterminazione, di rumore di fondo e di mistero, nel mondo della creatività hi-tech dominata dall’intelligenza artificiale. 

Potremmo annoverare molteplici sfumature di deepfake che coinvolgono anche il mondo del meme. La politica è uno dei campi in cui proliferano i deepfake sugli eventi più significativi del momento. Le immagini di Trump catturato dalla polizia americana, o del Papa trasformato in un trapper, sono significative del modo in cui l’AI riesce a leggere alcuni elementi dell’emozionalità umana per trasformali in un determinato lay-out dell’immagine. In modo molto più fake che deep, l’AI conferisce un tocco di sensualità glam ai protagonisti della politica americana, trasformandoli in performer a metà strada tra Elton John e le drag queen, nel memorabile “Make America Glam Again”. I deepfake sottolineano e amplificano la già acquisita “orizzontalità” del sistema comunicativo-spettacolare e facilitano la democratizzazione delle immagini, quelle delle celebrities come anche delle persone comuni. Entrambe del resto sono suscettibili di essere simulate o reincasellate in una storia che è altro da sé. Spicca sempre più la differenza tra i meme realizzati con photoshop, come giustapposizione posticcia di due immagini, e la sintesi operata dalla AI (Vaccari&Chadwick 2020). Come nel caso della grande rinuncia di Evgenij Viktorovič Prigožin, immortalata metaforicamente con l’innesto del suo volto su quello di Forrest Gump, quando dopo chilometri di maratona senza senso, invita tutti a tornare a casa. Ben diversa dal cyberattacco prank su Putin che annuncia l’invasione da parte delle truppe ucraine dei territori di Kursk, Belgorod e Bryansk, dichiarando la legge marziale ed esortando i residenti a fuggire, in stile Guerra dei mondi letta da Orson Wells. Lo stesso Prigožin pochi mesi prima dell’invasione, inveiva contro i deepfake audio accusando i neural networks di operare miracolosi mix di frasi vere con altre false che lui non avrebbe mai pronunciato (Bershidsky 2023). Se fino agli anni novanta il medesimo effetto di spaesamento era ottenuto tramite il morphing che consentiva di sovrapporre in modo fluido molteplici identità, come nel caso del video musicale Black or White di Micheal Jackson, l’attuale spaesamento prodotto dai deepfake è ancor già radicale, testimoniando una sorta di sensibilità aliena e/o primitiva (si pensi ai video, alle canzoni, alle pubblicità realizzate con l’AI). Il simultaneo sentimento di familiarità e di estraneità suggerito da queste immagini ricorda quel disorientamento che gli studiosi di robotica chiamano “Uncanny Valley” (zona perturbante), applicabile anche agli influencer virtuali (Berryman et al. 2021, Barile 2022) così come ai deepfake. 

Esistono varianti più leggere e istituzionalizzate, come ad esempio gli effetti di ringiovanimento di Harrison Ford che, in una sorta di deepfake consensuale, è riportato dai suoi ottant’anni ai fasti della giovinezza, tramite un de-aging mediato dalla AI. Quest’immagine ci obbliga a ripensare il noto aforisma di Baudrillard secondo cui “La cosa triste, a proposito dell'intelligenza artificiale, è che le manca l'artificio e quindi l’intelligenza”. Se l’idea di eternizzare la giovinezza o di ripristinarla forzosamente attraverso dispositivi tecnici, come l’Homo Deus di Harari (2018), è a suo modo pornografica, l’idea di ammantare narrativamente tale intervento tramite il sortilegio del teschio di cristallo, è un modo per ripristinare la dimensione erotica dell’artificio. Cosicché il potere magico-seduttivo dell’illusione, dopo essere stato annichilito dalla tecnica, viene a suo modo riportato in auge, proprio dalla performance dell’intelligenza artificiale.

Riferimenti

Barile, N. (2022), Communication in the new hybrid ontologies: from platform to the metaverse, Milan: Bocconi University Press. 
Baudrillard, J. (1981), Simulacra and Simulations. New York:
Semiotext(e). 
Baudrillard, J. (1979). De la seduction, Paris: Galilée; trad. it. (1985). Della Seduzione. Milano: ES.
Bershidsky, L. (2023), “Bloomberg The Deepfake Revolution May Bring a Media Revival, The Washington Post”, March 29.
Berryman, R., Abidin, C., Leaver, T., A Topography of Virtual Influencers, Paper presented at AoIR 2021: The 22nd Annual Conference of the Association of Internet Researchers.
Breton, P. (1995), L’utopia della comunicazione. Il mito del villaggio planetario, Torino, UTET.
Gosse C. & Burkell, J.(2020), Politics and porn: how news media characterizes problems presented by deepfakes, Critical Studies in Media Communication.
Harari Y. N., (2017), Homo Deus. Breve storia del futuro, Milano, Bompiani.
Meikle, G. (2022), Deepfakes. Cambridge, UK Polity. Trad. it. Deepfakes, Perlego, 2022
Vaccari C., Chadwick A., (2020), “Deepfakes and Disinformation: Exploring the Impact of Synthetic, Political Video on Deception, Uncertainty, and Trust in News”, Social Media and Society January-March 1–13.

Se continuiamo a tenere vivo questo spazio è grazie a te. Anche un solo euro per noi significa molto. Torna presto a leggerci e SOSTIENI DOPPIOZERO