Se nel World Wide Web esiste una verità assoluta, questa ha a che vedere con la frequente difficoltà nel distinguere ciò che è vero da ciò che è falso. E i deepfake vanno ad aggiungersi a quel fenomeno fatto di immagini manipolate, notizie false e informazioni inventate che va spesso in scena su Internet.

Derivato dalla fusione delle espressioni “deep learning” (ambito di ricerca dell’intelligenza artificiale e, più precisamente, del machine learning) e “fake” (falso), il termine deepfake fa riferimento a video e audio creati per mezzo di software di intelligenza artificiale a partire da voci, volti e corpi veri delle persone.

Non si tratta soltanto di semplici falsi digitali, né di un gioco, bensì – quando non esiste il consenso da parte di chi ne è coinvolto e quando il video non è espressamente contrassegnato come deepfake – di una forma particolarmente grave di furto di identità, con tutte le implicazioni giuridiche che ne derivano.

Cos’è un deepfake

Creare un video falso servendosi della tecnologia del deep learning, branca dell’apprendimento automatico – o machine learning – a partire da contenuti reali modificati: è questo, in sostanza, il deepfake.

Come funziona? Non si tratta di un semplice scambio di faccia: l’intelligenza artificiale “apprende” da diverse angolazioni l’aspetto di un volto vero, per poi trasporlo su un bersaglio, come fosse una maschera, ottenendo un corpo con una faccia di un’altra persona e facendolo muovere autonomamente, creando nuove espressioni facciali in tempo reale e in sincronia con un altro audio.

Tale tecnica nasce come ausilio agli effetti speciali cinematografici. Ricordiamo che Hollywood ha fatto del trasporre volti reali e immaginari su altri attori un vero e proprio filone, riuscendo a riportare in vita chi non c’è più, come è accaduto con la pellicola di Star Wars Story del 2016.

Inizialmente particolarmente costose e, dunque, poco diffuse, tali tecniche, negli ultimi anni, hanno iniziato a diffondersi grazie allo sviluppo di app e di software che rendono possibile realizzare deepfake utilizzando un semplice smartphone. FakeApp, ad esempio, permette a chiunque di cimentarvisi. È così il fenomeno ha preso piede.

E, in tutto questo, un ruolo decisivo lo ha avuto Reddit, sito all’interno del quale, in una categoria creata da un suo utente ed espressamente denominata “deepfakes”, nel 2017 sono stati pubblicati video pornografici costruiti ad arte, aventi come protagonisti personaggi celebri, le cui immagini dei visi erano state rubate.

Pur interrompendo, in seguito, l’attività di quell’utente e proibendo – come altri siti – la diffusione di porno fake, il dilagare dei deepfake, da quel momento, è stato inarrestabile, così come i rischi che ne derivano quando non esiste il consenso esplicito da parte delle persone il cui viso è protagonista del video contraffatto e quando questo non è contrassegnato in modo chiaro come “deepfake”.

Chi compare in un deepfake a sua insaputa, infatti, subisce una perdita di controllo sulla propria immagine, nonché una privazione del controllo su proprie idee e posizioni, che possono essere travisate in base a discorsi e comportamenti falsi che vengono espressi nel video.

Inoltre, c’è il rischio che la vittima venga rappresentata in luoghi, contesti, situazioni o con persone compromettenti. Il che – quando non sussiste l’accordo col diretto interessato, lo sottolineiamo – rappresenta una minaccia per la sua riservatezza e dignità.

Un altro utilizzo malevolo dei deepfake sta nella realizzazione di veri e propri atti di cyberbullismo ai danni di chi è coinvolto, finalizzati a denigrarlo o, in alcuni casi, a ricattarlo, chiedendo denaro o altro in cambio della mancata diffusione del video.

Nel mirino di chi realizza deepfake vi è anche la politica, con la diffusione di contenuti video falsi, in cui a essere alterata non è soltanto l’immagine del soggetto in questione, ma anche la sua voce. Gli obiettivi, in questo caso, vanno dal pilotare l’opinione pubblica al confonderla, fino ad aumentare la sfiducia nelle Istituzioni e nelle fonti di informazione.

Ormai molto noto il caso di deepfake che ha coinvolto l’ex Presidente degli Stati Uniti d’America Donald Trump.

E, ancora, il deepfake può essere usato anche nell’ambito di attività telematiche illecite – che si avvalgono di attacchi informatici quali lo spoofing, il phishing e il ransomware – per ingannare persone o dispositivi e ottenere da questi la trasmissione di dati.

Visi e voci artefatti rappresentano anche strumenti atti a ingannare i sistemi di sicurezza basati su dati biometrici vocali e facciali, con l’invio – ad esempio – di video e audio-messaggi deepfake che invitano ad aprire messaggi o a cliccare su link che, a loro volta, espongono pc, smartphone o altri dispositivi a intrusioni illecite e al furto di informazioni sensibili.

Come si crea un deepfake

Ricordiamo che una rete neurale artificiale è un modello computazionale composto da neuroni artificiali, ispirato alla rete neurale biologica. Ebbene, ogni deepfake possiede un codice, all’interno del quale si trova un autoencoder, ossia un tipo particolare di rete neurale artificiale utilizzata per apprendere codifiche di dati non etichettati.

Tale rete viene allenata a comprimere dati che verranno successivamente decompressi. Durante la fase di compressione, l’autoencoder cerca di ottenere un risultato il più vicino possibile all’immagine originale, imparando a distinguere, durante la fase di compressione, tra i dati importanti e quelli secondari.

Che cosa significa nel concreto? Che, se all’algoritmo di deep learning vengono fornite immagini di gatti, la rete neurale apprende a focalizzarsi soltanto sul gatto, ignorando lo sfondo. E, a partire da questi dati, l’autoencoder è in grado di creare un gatto.

Lo scambio di volti umani funziona nella stessa maniera: la rete neurale assimila l’aspetto di una persona, che è poi in grado di rigenerare autonomamente.

Ma per scambiare i volti umani in modo corretto, occorre poterne riconoscere due: quello che emerge dal materiale originale e quello che si intende utilizzare per lo scambio.

Per questo motivo, vengono impostate un’entrata (encoder) e due uscite (i decoder), dove l’encoder analizza il materiale in ingresso e i due decoder generano, ognuno, un output diverso: il volto A e il volto B.

L’effetto finale è dato dal non inserire il volto A nel video, ma il volto B, che non gli appartiene. E sta qui la differenza rispetto ai normali fake, in cui, in realtà, ci si limita a sostituire il volto originale con uno ritagliato da un’altra immagine. Mentre, nel caso dei deepfake, si crea del materiale nuovo, non limitandosi a copiare un’immagine. E questo per far sì che anche la mimica del soggetto possa ricalcare il volto originale.

Deepfake - applicazioni
Esistono diversi modi per creare ed utilizzare i cosiddetti deepfake, i “falsi” sviluppati grazie al deep learning

Quando parliamo di manipolazioni di immagini che ritraggono volti umani, distinguiamo, in particolare, quattro categorie, ovvero la sintesi dell’intero volto, il cambio di identità, la manipolazione di un attributo e, infine, il cambio di espressione.

Nel primo caso, la manipolazione dà origine a volti umani perfettamente identici a quelli di persone reali, ma del tutto creati dal computer per mezzo di una rete generativa avversaria – in inglese Generative Adversarial Network (GAN) – una insieme di metodi in cui due reti neurali vengono addestrate in maniera competitiva.

Il cambio di identità, invece, si ha quando, in un video, si sostituisce il volto di una persona con quello di un’altra, rendendo impossibile riconoscere che si tratta, appunto, di un fake, come accaduto con i video pornografici non reali aventi come protagonisti alcune celebrità, ai quali si è accennato in precedenza.

La manipolazione di un attributo consente di cambiare alcuni aspetti e caratteristiche del volto umano (colore della pelle, colore dei capelli, genere ed età), come succede utilizzando FaceApp. Mentre, il cambio di espressione consente, ad esempio, di aggiungere un sorriso sul volto di chi, in una fotografia, appare serio o triste. Da ciò, è intuibile il pericolo derivante da questo tipo di manipolazione, mediante la quale diventa possibile creare da zero i movimenti labiali relativi a un discorso e trasporli sul volto di un’altra persona, modificandone la voce.

Per cosa vengono utilizzati

Dei rischi correlati al deepfake quando una persona – a sua insaputa, senza che vi sia consenso – diventa protagonista di un video, si è già detto.

Ora, invece, ci soffermiamo sugli utilizzi etici di questa pratica. A iniziare dal marketing, dove, in particolare, nel caso di campagne pubblicitarie e di comunicazione indirizzate ai più mercati esteri, la barriera linguistica può costituire un aspetto problematico nella realizzazione di video.

Ecco allora che, intervenendo – manipolandole – sulle espressioni dei visi dei protagonisti, si possono adattare i movimenti del labiale ad altre lingue, ottenendo così un buon risultato, valido ed efficace a penetrare nuovi mercati internazionali.

Un altro esempio, sempre riferito al settore marketing, riguarda l’adattamento di inserzioni e di campagne pubblicitarie online a seconda dei diversi target di riferimento. Il caso emblematico è quello del video promozionale che ha come protagonista un uomo occidentale. Video che – ripensato per il mercato asiatico – le tecniche di deepfake sono in grado di trasformare, attribuendo al soggetto i tratti del volto orientale.

Ma il deepfake può rivelarsi particolarmente utile anche in un altro ambito, andando a incrociare quella stessa privacy che, quando non esiste la complicità degli interessati, viene lesa. Ci riferiamo a quei video in cui, grazie alle tecniche di deepfake, vengono mascherate le identità di personaggi – ad esempio gli attivisti – le cui scelte, posizioni e dichiarazioni non sono ammesse all’interno di determinati scenari socio-politici.

È il caso del documentario Welcome to Chechnya sulla persecuzione degli individui LGBTQ (acronimo italiano di: Lesbica, Gay, Bisessuale e Transgender) nella repubblica russa, prima pellicola dove il deepfake viene utilizzato per proteggere le identità di attivisti che combattono la persecuzione.

Un altro esempio di utilizzo “buono e utile” del deepfake è, infine, legato alla didattica e al gioco con finalità educative, facendo rivivere – all’interno di video che li ritraggono ai giorni nostri – personaggi storici, celebrità della storia dell’arte, della letteratura o della musica.

Alcuni esempi di deepfake famosi

Come accennato, i deepfake nascono su Reddit, per mano di un utente che, a dicembre del 2017, pubblica filmati porno in cui le protagoniste femminili hanno il volto di alcune star di Hollywood (ignare della cosa), tra cui l’attrice Gal Gadot – divenuta famosa grazie a Wonder WomanJessica Alba, Taylor Swift, Daisy Ridley e molte altre.

Chiusa la vicenda di Reddit, è Barack Obama, nel 2018, a diventare protagonista di quello che è considerato, ad oggi, il più celebre video dedicato ai deepfake, in cui l’ex presidente degli Stati Uniti, indistinguibile da quello vero, con la sua voce e il labiale perfettamente sincronizzato, fa affermazioni gravi e non senza turpiloquio, arrivando a dare del “completo stronzo” a Donald Trump.

Con quasi 7 milioni di visualizzazioni, il video in questione fu creato a scopo educativo, per fare comprendere la portata dei deepfake e mettere in guardia a proposito dei suoi rischi.

Tempo dopo, la prima vera vittima – in quanto inconsapevole dell’accaduto – è Nancy Pelosi, speaker della Camera dei Rappresentanti degli Stati Uniti, la quale, in un video manipolato del maggio 2019, appare come se stesse parlando a un convegno completamente ubriaca. Video tanto perfetto e credibile da convincere molti, tra cui l’ex sindaco di New York Rudy Giuliani.

In risposta al rifiuto di Facebook di rimuovere il video di Pelosi, è la volta di Mark Zuckerberg, vittima di un video in cui si vanta di “avere il controllo sulle nostre vite”.

Dai deepfake made in USA a quelli nostrani, con un celebre video contraffatto in cui Matteo Renzi afferma che “Conte c’ha la faccia da cretino e Zingaretti ha il carisma di Bombolo” e fa le pernacchie al presidente Mattarella.

Oggi, il fenomeno è talmente acquisito e noto al grande pubblico che su TikTok c’è addirittura un account interamente dedicato ai deepfake di Tom Cruise, con tutta una serie di contenuti video che mostrano l’attore mentre gioca a golf, mentre fa un trucco di magia o in situazioni banali, come lavarsi. Ma – in questo caso – la descrizione dell’account avverte chiaramente che si tratta di fake e, più precisamente, di “parodie”.

Un altro famoso esempio di deepfake che vede protagonista, questa volta, un celebre artista del passato, è quello a cura di un’agenzia pubblicitaria che ha resuscitato Salvador Dalì nel ruolo di inedito ospite del Museo Dalí in Florida. Il video fake in onore del maestro catalano è stato realizzato estraendo più di seimila fotogrammi da sue vecchie interviste, poi elaborati per mezzo di sofisticate tecniche di machine learning.

Come riconoscere un deepfake

Esistono alcuni elementi sui quali focalizzarsi con attenzione per individuare le manipolazioni da deepfake. Primo fra tutti, il fatto che l’immagine può apparire un po’ sgranata o sfocata (“pixellata” è il termine tecnico), con l’illuminazione del volto che muta rispetto a quella dell’ambiente circostante.

Un altro dettaglio è dato dagli occhi dei protagonisti dei video – che potrebbero muoversi in modo poco naturale – e dalla bocca, che potrebbe apparire come deformata o troppo grande mentre il soggetto parla.

Riguardo, nello specifico, al movimento degli occhi, sono l’iride e gli spostamenti delle pupille a dovere essere osservati con attenzione. In molti deepfake, infatti, il movimento dei muscoli attorno alle palpebre non corrisponde a quello del bulbo oculare.

Per tale motivo, gli esperti esortano a guardare su uno schermo grande, e non servendosi di un semplice smartphone, i video che ci sembrano contraffatti.

C’è da aggiungere che le grandi imprese del digitale stanno, da tempo, studiando metodologie volte a riconoscere i deepfake, tra cui algoritmi di intelligenza artificiale sviluppati ad hoc e puntuali sistemi per le segnalazioni da parte degli utenti.

In ogni caso, è fondamentale ricordare che, qualora si abbia il dubbio che un video o un audio siano deepfake realizzati all’insaputa dell’interessato, occorre evitare di condividerli e decidere di segnalarli come “falsi” alla piattaforma che li ospita.

Qualora, poi, si ritenesse che il deepfake in questione compia un reato o una violazione della privacy, ci si può direttamente rivolgere alle Autorità di Polizia (ad esempio, alla Polizia postale) o al Garante per la protezione dei dati personali.

Cosa fare per difendersi

Il principale strumento di difesa dai deepfake è rappresentato dall’attenzione e dalla responsabilità di ognuno, come sottolineato dal Garante Privacy, il quale raccomanda, in primis, di evitare di diffondere in rete, in modo incontrollato, immagini personali o dei propri cari.

E, relativamente ai deepfake ai danni di aziende e organizzazioni, il Garante rimarca l’importanza – oltre alla consapevolezza e alla formazione – di concrete misure organizzative e procedurali che guidino, aiutino il personale a non essere ingannato.

Eloquente, in tal senso, è l’episodio che, a marzo del 2019, ha visto il CEO di un’azienda inglese inviare un’importante somma di denaro su un conto bancario ungherese a seguito di una telefonata “apparentemente” proveniente dal CEO della casa madre, la cui voce era stata perfettamente clonata.

Esempio, questo, di come, alla sensibilizzazione del personale a tutti i livelli, sia oggi necessario aggiungere un preciso piano di sicurezza che identifichi, in azienda, quei dati e quelle operazioni a rischio e che preveda – a tutti i livelli aziendali, compresi i più alti – una doppia autorizzazione oppure procedure univoche e predeterminate per impartire le diverse disposizioni.

Ricordiamo che il GDPR – General Data Protection Regulation – divenuto operativo a partire dal 25 maggio 2018 – ha reso necessario estendere tale pratica a tutti i dati personali trattati, includendo, dunque, buona parte dell’attività aziendale. E, tenuto conto della velocità con cui si stanno evolvendo e diffondendo, i rischi legati all’esistenza di tecnologie basate sull’intelligenza artificiale non possono più essere né ignorati, né trascurati.

Quelle organizzazioni che hanno da tempo definito la compliance alla normativa sul trattamento dei dati personali dovranno solo ampliare il registro dei trattamenti – includendo i dati non personali – identificare le fasi in cui potrebbe essere sferrato un attacco basato su tecnologia deepfake e porre in essere misure di controllo in linea col rischio di un’eventuale violazione.