Deepfake

Da Wikipedia, l'enciclopedia libera.
Jump to navigation Jump to search

Il deepfake (parola coniata nel 2017) è una tecnica per la sintesi dell'immagine umana basata sull'intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa.[1] È stata anche usata per creare falsi video pornografici ritraenti celebrità e per il revenge porn[2], ma può anche essere usato per creare fake news, bufale e truffe.[3][4][5]

Storia[modifica | modifica wikitesto]

Lo sviluppo della tecnica ha avuto luogo principalmente in due ambiti: ricerca nelle istituzioni accademiche e sviluppo amatoriale nelle comunità online.

Ricerca accademica[modifica | modifica wikitesto]

La ricerca accademica relativa ai deepfake si trova prevalentemente nel campo della visione artificiale, un ramo dell'informatica spesso basato sull'intelligenza artificiale, che si concentra sull'elaborazione al computer di immagini e video digitali. Un primo progetto di riferimento fu il "Video Rewrite", pubblicato nel 1997, che ha modificato un video esistente di una persona che parla, raffigurando quella persona in modo che sembrasse che stesse pronunciando le parole appartenenti ad una traccia audio differente da quella originale.[6] Era il primo sistema che riuscì completamente ad automatizzare questo tipo di animazione facciale, usando le tecniche del machine learning per creare connessioni tra i suoni prodotti dal soggetto del video e la forma della sua faccia.

I progetti accademici contemporanei si sono concentrati sulla creazione di video più realistici e sulla realizzazione di tecniche più semplici, veloci e accessibili. Il progetto “Synthesizing Obama”, pubblicato nel 2017, modifica video dell'ex presidente americano Barack Obama, raffigurandolo mentre pronuncia parole che appartengono ad una traccia audio separata.[7] Il programma "Face2Face", pubblicato nel 2016, modifica video raffiguranti la faccia di una persona, raffigurandola mentre imita le espressioni facciali di un'altra persona in tempo reale.[8]

Sviluppo amatoriale[modifica | modifica wikitesto]

Il termine "deepfakes" è nato alla fine del 2017 da un utente di Reddit chiamato "deepfakes."[9] Lui, come altri utenti nella sezione r/deepfakes di Reddit, condividevano i deepfakes che creavano; in molti dei video venivano scambiati i volti delle celebrità con quelli di attrici in video pornografici, mentre i contenuti non pornografici includevano molti video ritraenti il volto dell'attore Nicolas Cage inserita in diversi film.[10] Nel dicembre 2017, Samantha Cole pubblicò un articolo su r/deepfakes su Vice, il quale ha attirato la prima attenzione ai deepfake che venivano condivisi nelle comunità online.[11] Sei settimane dopo, Cole scrisse in un articolo dell'incremento della falsa pornografia assistita dall'intelligenza artificiale.[9] Nel febbraio del 2018, r/deepfake fu bannata da Reddit a causa della condivisione di pornografia involontaria, ed altri siti web bannarono a loro volta l'uso dei deepfake per pornografia involontaria, incluso Twitter ed il sito Pornhub.[12]

Altre comunità online rimasero comunque, incluse comunità di Reddit che non condividevano pornografia, come ad esempio r/SFWdeepfakes (abbreviazione di "safe for work deepfakes"), in cui i membri condividevano deepfakes raffiguranti celebrità, politici, ed altri in scenari non-pornografici.[13] Altre comunità online continuano a condividere pornografia su piattaforme che non hanno bannato l'utilizzo dei deepfake pornografici.[12]

Pornografia[modifica | modifica wikitesto]

I deepfake pornografici emersero su internet nel 2018, in particolare su Reddit,[14] ed è stata bannata dai siti come Reddit, Twitter, e Pornhub.[15][16][17] Nell'autunno del 2017, un utente anonimo di Reddit con lo pseudonimo "deepfakes" postò diversi video porno su Internet. Il primo che attirò l'attenzione di molti fu il deepfake di Daisy Ridley. È anche uno dei video deepfake più conosciuto. Un altro fu il deepfake sulla simulazione in cui si vede Gal Gadot che ha un rapporto sessuale con il suo fratellastro, mentre altri raffiguravano celebrità come Emma Watson, Ariana Grande, Katy Perry, Taylor Swift o Scarlett Johansson. Le scene non erano reali, ma erano create grazie all'intelligenza artificiale. Furono cancellati poco tempo dopo.

Con il passare del tempo, la comunità di Reddit risolse molti bug nei video falsi, rendendoli sempre più difficili da distinguere dai contenuti reali. Fotografie non-pornografiche ed i video delle celebrità, i quali erano disponibili online, venivano usati come dati di allenamento per i vari software. Il fenomeno dei deepfake fu riportato per la prima volta nel dicembre 2017 nella sezione tecnica e scientifica del magazine Vice, portandolo alla diffusione su altri media.[18][19]

Scarlett Johansson, un soggetto frequente dei porno deepfake, parlò pubblicamente del problema al Washington Post nel dicembre del 2018. Ha espresso preoccupazione per il fenomeno, descrivendo Internet come un "vasto tunnel spaziale di tenebre che si mangia da solo". Comunque, lei disse anche che non avrebbe provato a rimuovere nessuno dei deepfakes, perché credeva che non avrebbero colpito la sua immagine e le differenti leggi in tutti i paesi e la cultura di Internet rendono ogni tentativo di rimozione dei deepfakes "una causa persa"; lei crede che ogni celebrità come lei è protetta dalla propria fama, i deepfake rappresentano una grave minaccia per le donne di minor rilievo, le quali possono vedere la propria reputazione danneggiata a causa della pornografia involontaria nei deepfake o dal revenge porn.[20]

Nel Regno Unito, i produttori dei materiali deepfake possono essere perseguiti per molestie, ma vi è la volontà di rendere il deepfake un crimine specifico.[21]

Politica[modifica | modifica wikitesto]

Il Deepfakes è stato usato per rappresentare in modo falso politici famosi su portali video o chatroom. Ad esempio, il volto del presidente argentino Mauricio Macri fu sostituito dal volto di Adolf Hitler, ed il volto di Angela Merkel venne sostituito da quello di Donald Trump.[22][23] Nell'aprile del 2018, Jordan Peele e Jonah Peretti crearono un deepfake usando Barack Obama come pubblicità sul pericolo dei deepfake.[24] Nel gennaio del 2019, l'emittente Fox ha mandato in onda un deepfake di Trump in cui lo si derideva per il suo aspetto ed il suo colore della pelle.[25]

Deepfake software[modifica | modifica wikitesto]

Nel gennaio 2018 fu lanciata un'applicazione chiamata FakeApp. L'app permette agli utenti di creare facilmente e di condividere video con volti scambiabili. L'app utilizza una rete neurale artificiale e la potenza del processore grafico e dai tre ai quattro gigabyte di memoria per generare il video fake. Per informazioni dettagliate, il programma necessita di parecchio materiale visivo raffigurante la persona "vittima", in modo da apprendere quali aspetti dell'immagine dovessero essere cambiati, usando un algoritmo di deeplearning basato su sequenze di video ed immagini.

Il software utilizza la struttura AI TensorFlow di Google, la quale, oltre al resto, era già stata usata per il programma DeepDream. Le celebrità sono i maggiori soggetti di video falsi, ma appaiono anche altre persone.[26][27][28] Nell'agosto 2018, i ricercatori dell'Università della California, Berkeley pubblicarono un articolo introducendo una fake-dancing app, la quale creava abilità di danza false utilizzando l'AI.[29][30]

Vi sono anche alternative open-source al programma originale FakeApp, come DeepFaceLab,[31] FaceSwap[32] e myFakeApp.[33][34]

Critica[modifica | modifica wikitesto]

Abusi[modifica | modifica wikitesto]

Aargauer Zeitung dice che la manipolazione di immagini e video tramite l'uso dell'intelligenza artificiale può diventare un pericoloso fenomeno di massa. Comunque, la falsificazione di immagini e video è anche più vecchio dell'avvento dei software di video editing ed i programmi di modifica immagini; in questo caso l'aspetto nuovo è il realismo.[22]

È anche possibile usare i deepfake per bufale mirate e revenge porn.[35][36]

Effetti sulla credibilità ed autenticità[modifica | modifica wikitesto]

Un effetto dei deepfake è che non è più possibile distinguere se il contenuto è mirato (ad esempio satira) o genuino. Il ricercatore di AI Alex Champandard ha detto che tutti dovrebbero sapere quanto velocemente le cose possono essere falsificate al giorno d'oggi con questa tecnologia, e che il problema non è tecnico, piuttosto è da risolvere con la fiducia nell'informazione e nel giornalismo. Il problema principale è che l'umanità potrebbe cadere in un'epoca in cui non è più possibile determinare se il contenuto di un media corrisponde alla verità.[22]

Reazione di Internet[modifica | modifica wikitesto]

Alcuni siti, come Twitter e Gfycat, hanno annunciato che avrebbero eliminato i contenuti deepfake e avrebbero bloccato i loro autori. In precedenza, la piattaforma Discord bloccò un canale chat con video pornografici di alcune celebrità. Il sito porno Pornhub pianificò il blocco di questi contenuti; in ogni caso, è stato riportato che il sito non ha imposto questo ban.[37][38] Su Reddit, la situazione inizialmente fu poco chiara, fino a quando la sezione dedicata ai deepfake fu sospesa il 7 febbraio 2018, a causa della violazione delle policy di "pornografia involontaria".[19][39][40][41] Nel settembre 2018, Google aggiunse "immagini pornografiche sintetiche ed involontarie" alla propria ban list, permettendo a chiunque di richiedere il blocco dei risultati che mostravano i loro nudi falsi.[42]

Cultura popolare[modifica | modifica wikitesto]

Picaper di Jack Wodhams[modifica | modifica wikitesto]

Il numero di metà dicembre 1986 della rivista Analog, pubblicò Picaper di Jack Wodhams. La trama ruota intorno ai video digitalmente migliorati o generati digitalmente, creati da hacker esperti al servizio di avvocati senza scrupoli e personalità politiche. Il protagonista principale, un operaio addetto alla risoluzione dei problemi per il dipartimento di monitoraggio dei sistemi, trova inconsuetamente un video di alta qualità, ma falso.[43]

Jack Wodhams definisce tali video artificiali come "picaper" o "mimepic", animazioni di immagini basate su "informazioni dell'immagine presentata, copiata attraverso selezioni di un numero infinito di variabili che un programma potrebbe fornire".

Ad esempio, qualcuno ottiene una registrazione di te che cammini e parli, e le tue espressioni facciali. Questi calchi possono essere scomposti nei loro compositi di matrice individuale, possono essere analizzati, riorganizzati e possono quindi essere estrapolati attraverso noti modelli comportamentali umani standard, in modo che un'immagine di te possa essere riprogettata facendo e dicendo cose che non hai fatto fatto o detto veramente.[43]

Per Wodhams, la pornografia non è il maggior pericolo di questa tecnologia.

C'è solo una possibilità che questa possa essere una questione di interesse nazionale. Qualcosa di più grande della pornografia o delle alterazioni senza licenza di opere protette da copyright.[43]

Nella storia, il falso video interattivo viene immesso in una videoconferenza.

In quei giorni un'effettiva riunione di squadra attorno a un tavolo era diventata molto spesso una rarità. Era molto più semplice e più conveniente riunirsi tramite videoconferenza su un circuito esclusivo. Le assemblee potevano essere private e sicure come qualsiasi altra riunione. Nessun sistema era assolutamente impenetrabile, comunque. Un avversario avrebbe potuto facilmente intrufolare un uomo dalla doppia identità in una conferenza molto importante. Se accettata, una persona già nota potrebbe raccogliere una grande quantità di informazioni senza sforzo e in modo impercettibile. Non solo ottenere informazioni, ma inserire informazioni. Un gruppo di sosia convincenti potrebbe nutrire opinioni alquanto contrarie a quelle dei loro gemelli originari. Per seminare una confusione drastica e ottenere un drammatico colpo di stato.[43]

La conclusione su cui riflettere è che "la vecchia idea che le immagini non mentono dovrà subire una drastica revisione".

Traduttore in italiano[modifica | modifica wikitesto]

Massimo Gramellini sul Corriere del 19 settembre 2019 ha usato "profondo falso". Per altre proposte v. la discussione su Cruscate

Note[modifica | modifica wikitesto]

  1. ^ (EN) Oscar Schwartz, You thought fake news was bad? Deep fakes are where truth goes to die, in The Guardian, 12 November 2018. URL consultato il 14 November 2018.
  2. ^ (EN) What Are Deepfakes & Why the Future of Porn is Terrifying, in Highsnobiety, 20 febbraio 2018. URL consultato il 20 febbraio 2018.
  3. ^ Experts fear face swapping tech could start an international showdown, su The Outline. URL consultato il 28 febbraio 2018.
  4. ^ (EN) Kevin Roose, Here Come the Fake Videos, Too, in The New York Times, 4 marzo 2018. URL consultato il 24 marzo 2018.
  5. ^ Luca Sambucci, Truffatori avrebbero usato deepfake per rubare 220.000 Euro da un’azienda UK, in Cybersecurity.it, 4 settembre 2019. URL consultato il 4 settembre 2019.
  6. ^ Christoph Bregler, Michele Covell e Malcolm Slaney, Video Rewrite: Driving Visual Speech with Audio, in Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques, vol. 24, 1997, pp. 353–360.
  7. ^ Supasorn Suwajanakorn, Steven M. Seitz e Ira Kemelmacher-Shlizerman, Synthesizing Obama: Learning Lip Sync from Audio, in ACM Trans. Graph., vol. 36.4, July 2017, pp. 95:1–95:13.
  8. ^ Justus Thies, Michael Zollhöfer e Marc Stamminger, Face2Face: Real-Time Face Capture and Reenactment of RGB Videos, in 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), IEEE, June 2016, pp. 2387–2395, DOI:10.1109/CVPR.2016.262.
  9. ^ a b Samantha Cole, We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now, su Vice, 24 January 2018. URL consultato il 4 May 2019.
  10. ^ Sam Haysom, People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018, su Mashable, 31 January 2018. URL consultato il 4 April 2019.
  11. ^ Samantha Cole, AI-Assisted Fake Porn Is Here and We’re All Fucked, su Vice, 11 December 2017. URL consultato il 19 December 2018.
  12. ^ a b Jay Hathaway, Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban, su The Daily Dot, 8 February 2018. URL consultato il 22 December 2018.
  13. ^ r/SFWdeepfakes, su Reddit. URL consultato il 12 December 2018.
  14. ^ (EN) Janko Roettgers, Porn Producers Offer to Help Hollywood Take Down Deepfake Videos, in Variety, 21 febbraio 2018. URL consultato il 28 febbraio 2018.
  15. ^ (EN) It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet. URL consultato il 20 febbraio 2018.
  16. ^ Arjun Kharpal, Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor, in CNBC, 8 febbraio 2018. URL consultato il 20 febbraio 2018.
  17. ^ (EN) PornHub, Twitter Ban 'Deepfake' AI-Modified Porn, in PCMAG. URL consultato il 20 febbraio 2018.
  18. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked - VICE.
  19. ^ a b Pornografie: Reddit nimmt umstrittenes Deepfakes-Subreddit offline - SPIEGEL ONLINE.
  20. ^ Scarlett Johansson on fake AI-generated sex videos: ‘Nothing can stop someone from cutting and pasting my image’, The Washington Post, 31 dicembre 2018. URL consultato il 19 giugno 2019.
  21. ^ Call for upskirting bill to include 'deepfake' pornography ban The Guardian
  22. ^ a b c Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos, az Aargauer Zeitung, 3 febbraio 2018.
  23. ^ Patrick Gensing, Deepfakes: Auf dem Weg in eine alternative Realität?, su faktenfinder.tagesschau.de.
  24. ^ Aja Romano, Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news, su Vox, April 18, 2018. URL consultato il September 10, 2018.
  25. ^ Kyle Swenson, A Seattle TV station aired doctored footage of Trump’s Oval Office speech. The employee has been fired., su The Washington Post, January 11, 2019. URL consultato il January 11, 2019.
  26. ^ Fake-App: Neue Software macht jeden zum Porno-Star – auch ungewollt | Berliner-Kurier.de.
  27. ^ Künstliche Intelligenz: Auf Fake News folgt Fake Porn | ZEIT ONLINE, ISSN 0044-2070 (WC · ACNP).
  28. ^ Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien | heise online.
  29. ^ (EN) Peter Farquhar, An AI program will soon be here to help your deepfake dancing – just don't call it deepfake, in Business Insider Australia, 27 agosto 2018. URL consultato il 27 agosto 2018.
  30. ^ Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted, in The Verge. URL consultato il 27 agosto 2018.
  31. ^ DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab, su github.com, 19 June 2019.
  32. ^ Build software better, together, su GitHub.
  33. ^ Bitbucket, su bitbucket.org.
  34. ^ Tormod Fiske, Imagining Deceptive Deepfakes (PDF), su www.duo.uio.no. URL consultato il 19 giugno 2019.
  35. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle | ZEIT ONLINE, ISSN 0044-2070 (WC · ACNP).
  36. ^ https://www.wbs-law.de/personlichkeitsrecht/deepfake-fakeapp-kann-personen-in-pornos-austauschen-welche-rechte-haben-geschaedigte-76428/.
  37. ^ (EN) Pornhub hasn't been actively enforcing its deepfake ban, in Engadget. URL consultato il 21 aprile 2018.
  38. ^ (EN) Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them, in BuzzFeed. URL consultato il 21 aprile 2018.
  39. ^ https://futurezone.at/digital-life/deepfakes-reddit-loescht-forum-fuer-kuenstlich-generierte-fake-pornos.
  40. ^ heise online, Deepfakes: Auch Reddit verbannt Fake-Porn, su heise.de.
  41. ^ Reddit verbannt Deepfake-Pornos, su derstandard.de.
  42. ^ Washington Post, Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target’, su washingtonpost.com.
  43. ^ a b c d "Wodhams J. Picaper. Analog (Mid-December 1986)".

Collegamenti esterni[modifica | modifica wikitesto]