Nonostante un numero crescente di applicazioni positive, i pericoli dei deepfake continuano a suscitare preoccupazioni diffuse man mano che diventano conosciuti e compresi.
Al girono d’oggi siamo bombardati da contenuti che descrivono in dettaglio l’incredibile velocità con cui viene sviluppata questa tecnologia di deep learning. I deepfake, infatti, stanno diventando sempre più sofisticati e facilmente accessibili e proprio per questo, è necessaria una conoscenza di quelli che potrebbero essere i rischi nel momento in cui questa tecnologia cade nelle mani sbagliate.
Che ci piaccia o no, e non importa quanto possano essere preoccupanti le implicazioni negative dell’uso dei deepfake, non andranno da nessuna parte. Sono qui per restare. Ma a parte la stampa negativa che hanno ricevuto i deepfake, sembrano esserci molte ragioni per essere entusiasti di questa tecnologia e anche delle sue numerose applicazioni positive. Per esempio, la tecnologia deepfake consentirà tipi di contenuti completamente nuovi e democratizzerà l’accesso a strumenti di creazione che, fino ad ora, sono stati troppo costosi o troppo complicati da utilizzare. Nel complesso, la capacità di utilizzare l’intelligenza artificiale per creare simulazioni realistiche potrebbe anche essere una cosa positiva per l’umanità.
Sommario
Cosa sono i deepfake?
Non è facile concordare una definizione completa di deepfake, ma proviamoci. Il termine deepfake combina le parole deep (da deep learning) e fake. Sappiamo che i deepfake sono abilitati dalla tecnologia di apprendimento profondo, una tecnica di apprendimento automatico, conosciuta anche come rette antagonista generativa. La tecnologia Deepfake utilizza il comportamento di qualcuno, come la voce, le immagini o le tipiche espressioni facciali o i movimenti del corpo, per creare contenuti completamente nuovi che sono praticamente indistinguibili dai contenuti autentici.
Questa tecnologia può essere utilizzata anche per far sembrare che persone reali dicano o facciano cose che non hanno mai detto o fatto, o per sostituire qualcuno in un video esistente, o addirittura per creare contenuti video con personaggi famosi, celebrità o politici.
La manipolazione dell’esistente, o la fabbricazione di nuove immagini digitali non è una novità – infatti, i contenuti pornografici generati dall’intelligenza artificiale sono emersi per la prima volta alla fine del 2017. In questi anni, però, la creazione di questi tipi di effetti richiedeva agli esperti negli studi high-tech almeno un anno per poterli realizzare ma, negli ultimi anni, il rapido sviluppo della tecnologia deepfake ha reso questo processo molto più veloce, facile e soprattutto sempre più veritiero.
Come vengono creati i deepfake?
Per creare un video deepfake realistico di una persona esistente, tradizionalmente è necessario addestrare una rete neurale con molte riprese video della persona che si vuole rappresentare. Le riprese devono includere un’ampia gamma di espressioni facciali, utilizzando diverse tipologie di illuminazione e soprattutto diverse angolazioni, cosicché l’intelligenza artificiale possa ottenere una “comprensione” approfondita dell’essenza della persona in domanda.
Sebbene questo processo sia molto più veloce di quanto non fosse solo un paio di anni fa, ottenere risultati davvero credibili è ancora piuttosto complicato e dispendioso in termini di tempo.
La tecnologia più recente e più avanzata al giorno d’oggi è la tecnologia di intelligenza artificiale di Samsung. Essa è stata creata in un laboratorio di intelligenza artificiale russo e consente di creare video deepfake utilizzando solo una manciata di immagini, o addirittura anche solo una.
Esempi famosi di Deepfake
Su Instagram, l’anno scorso, è apparso un video totalmente falso di Mark Zuckerberg. Esso è stato realizzato da due artisti che hanno collaborato con la società pubblicitaria Canny. In questo video impregnato dal Deepfake, Zuckerberg fa un discorso piuttosto sinistro sul potere di Facebook.
In sovrimpressione al video, c’è una scritta che replica lo stile di un telegiornale americano che recita “Stiamo migliorando la trasparenza sulle inserzioni pubblicitarie”, come se il tutto fosse effettivamente parte di un servizio da notiziario.
Un altro video falso mostra l’ex presidente Barack Obama che definisce il presidente Donald Trump un “totale e completo imbecille”. A metà del video, diventa chiaro che Obama in realtà non ha mai detto queste parole: in realtà erano dello scrittore e regista di “Get Out” Jordan Peele.
https://www.youtube.com/watch?v=cQ54GDm1eL0
Ma di gran lunga uno dei deepfake più realistici in circolazione al momento sono quelli apparsi su TikTok, in cui si può vedere Tom Cruise condividere video di se stesso mentre gioca a golf e scherza. Il suo profilo TikTok, infatti è chiamato: DeepTomCruise.
La visione ottimistica dei Deepfake
Mentre gli usi meno che kosher dei deepfake sono spaventosi da immaginare, ci sono anche molti vantaggi in questa tecnologia e nuovi, buoni usi per i deepfake si trovano regolarmente.
Pensa, ad esempio, all’editing di riprese video senza la necessità di ripetere le riprese o ricreare artisti che non sono più con noi per eseguire la loro magia, dal vivo. I ricercatori del laboratorio di intelligenza artificiale di Samsung a Mosca, ad esempio, sono recentemente riusciti a trasformare la Gioconda di Da Vinci in video. Hanno usato il deep learning per consentire a questa famosa signora di muovere la testa, la bocca e gli occhi.
La tecnologia deepfake è stata utilizzata anche al Museo Dalí in Florida per mostrare un deepfake a grandezza naturale dell’artista surrealista offrendo una varietà di citazioni che Salvador Dalí aveva scritto o pronunciato durante la sua carriera artistica.
La tecnologia Deepfake ci consentirà di sperimentare cose che non sono mai esistite o di immaginare una miriade di possibilità future. A parte diverse e potenziali applicazioni nelle arti e nell’intrattenimento, pensa a tutta la magia che questa tecnologia potrebbe fare nell’istruzione e nell’assistenza sanitaria.
Qui di seguito un esempio di quello che potrebbe essere un vantaggio di questa tecnologia.
Il manipolatore vocale produce il parlato dal testo
Il software VoCo di Adobe, che è ancora in fase di ricerca e prototipazione, ti consente di produrre il parlato dal testo e modificarlo proprio come faresti con le immagini in Photoshop.
Quindi, supponiamo che ti piacerebbe che il tuo filmato fosse narrato, ad esempio, da David Attenborough o Morgan Freeman; VoCo lo renderà possibile senza pagare il massimo per i migliori narratori che svolgono il lavoro. Il modo in cui funziona il software è che prende una registrazione audio e la modifica includendo parole e frasi che il narratore originale non ha mai detto.
In una demo dal vivo a San Diego, un operatore Adobe ha preso una registrazione digitalizzata di un uomo che diceva “Ho baciato i miei cani e mia moglie” e l’ha cambiata in “Ho baciato Jordan tre volte”. Tutto ciò che è servito per ottenere questo risultato è stato iniziare con una registrazione vocale di 20 minuti, modificare la versione trascritta del testo e quindi premere un pulsante, creando la clip vocale modificata.
Per quanto impressionante possa essere, sviluppi come questo potrebbero alimentare ulteriormente le problematiche di fake news e minare la fiducia del pubblico nel giornalismo. Adobe, tuttavia, ha affermato che sta prendendo provvedimenti per affrontare queste potenziali sfide.
I pericoli dei deepfake
Per quanto eccitante e promettente sia la tecnologia deepfake, ci sono anche minacce molto reali.
Uno dei più significativi è la pornografia non consensuale, che rappresenta un terrificante 96% dei deepfake attualmente trovati online, secondo un rapporto di DeepTrace. Ci sono state anche diverse segnalazioni di utilizzo di audio deepfakeper frode ed estorsioni d’identità.
L’uso di deepfake ha il potenziale per essere un enorme rischio per la sicurezza e la destabilizzazione politica, poiché la tecnologia può essere utilizzata per diffondere notizie false e portare a un aumento di scandali falsi, criminalità informatica, revenge porn, molestie e abusi. Ci sono anche buone probabilità che le riprese video e audio diventino presto inammissibili come prove nei casi giudiziari poiché i deepfake stanno diventando sempre più indistinguibili dai contenuti autentici.
Secondo la Brookings Institution, i pericoli sociali e politici posti dai deepfake includono “la distorsione del discorso democratico, la manipolazione delle elezioni; perdita di fiducia nelle istituzioni, l’indebolimento del giornalismo, l’esacerbare le divisioni sociali, il minare la sicurezza pubblica e infliggere danni difficili da riparare alla reputazione di personalità di spicco, inclusi funzionari eletti e candidati alla carica”.
Anche i deepfake possono causare seri problemi finanziari. Alcuni esempi includono un’azienda energetica britannica che è stata ingannata con un trasferimento fraudolento di 243 milioni di dollari e un deepfake audio utilizzato per truffare un CEO americano per 10 milioni di dollari. E abbiamo altri esempio che ha creato molto scandalo.
I bot Deepfake su Telegram
L’anno scorso, più di 100.000 immagini deepfake raffiguranti nudi falsi sono state generate da un ecosistema di bot, richiesto dagli utenti di Telegram. Il punto focale di questo ecosistema è un bot basato sull’intelligenza artificiale che consente agli utenti di “togliere” i vestiti dalle immagini delle donne, in modo che appaiano nude.
Secondo un rapporto della società di intelligence sulle minacce visive Sensity, “la maggior parte delle immagini originali sembrava essere stata presa da pagine di social media o direttamente da comunicazioni private, con le persone probabilmente ignare di essere state prese di mira. Sebbene la maggior parte di questi obiettivi fossero privati, abbiamo inoltre identificato un numero significativo di influencer dei social media, streamer di giochi e celebrità di alto profilo nel settore dell’intrattenimento. Un numero limitato di immagini sembrava inoltre presentare bersagli minorenni, suggerendo che alcuni utenti utilizzassero il bot principalmente per generare e condividere contenuti pedofili”.
I deepfake sono stati condivisi su varie piattaforme di social media a scopo di vergogna pubblica, vendetta o estorsione. La maggior parte dei bot deepfake utilizza la tecnologia DeepNude, ma app simili hanno iniziato a spuntare su Internet. Tutto quello che devi fare è caricare una foto e un’immagine manipolata viene restituita in pochi minuti.
Sfortunatamente, poiché Telegram utilizza messaggi crittografati, è facile per gli utenti creare account anonimi praticamente impossibili da tracciare. E mentre l’obiettivo della tecnologia di crittografia è proteggere la privacy e aiutare le persone a eludere la sorveglianza, è facile vedere come queste funzionalità possano essere sfruttate in modo improprio.
Cosa possiamo fare per distinguere il falso dal reale?
Allo stato attuale, il numero di video deepfake che circolano online è aumentato a un tasso annuo sorprendentemente stimato del 900%. Poiché i progressi tecnologici hanno reso sempre più semplice la produzione di contenuti deepfake, vengono sollevate domande sui modi per prevenire l’uso dannoso di questa tecnologia. Un modo, proprio come nel caso della criminalità informatica e del phishing, è sensibilizzare l’opinione pubblica ed educare le persone sui pericoli dei deepfake.
Molte aziende, infatti, hanno lanciato tecnologie che possono essere utilizzate per individuare contenuti falsi, prevenirne la diffusione o autenticare contenuti reali utilizzando blockchain o filigrane. Gli svantaggi sono, tuttavia, che questi rilevatori o autenticatori possono anche essere immediatamente “giocati” da quegli stessi attori malintenzionati per creare deepfake ancora più convincenti.
Politiche di Deepfake sui social media
Le reti di social media svolgono il ruolo più importante nel garantire che i deepfake non vengano utilizzati per scopi dannosi. Fondamentalmente, le loro politiche attualmente trattano i deepfake come qualsiasi altro contenuto fuorviante o che potrebbe causare danni alle persone.
Ad esempio, la politica di Instagram e Facebook prevede la rimozione di ‘media manipolati’ – con l’eccezione delle parodie. La politica di YouTube sulle “prassi ingannevoli” vieta i contenuti falsificati che sono fuorvianti o possono comportare seri rischi e TikTok rimuove i “falsi digitali” – comprese le informazioni sanitarie imprecise – che sono fuorvianti e causano danni. Reddit rimuove i media che impersonano individui o entità in modo fuorviante o ingannevole, ma ha anche creato un’esenzione per satira e parodia.
Con il volume e la sofisticatezza dei deepfake alle stelle, non è chiaro, tuttavia, come i social network saranno in grado di tenere il passo con l’applicazione di queste politiche. Una cosa che potrebbero fare è etichettare automaticamente i deepfake, indipendentemente dal fatto che i deepfake causino danni o meno, in modo che possano almeno creare più consapevolezza.
Individuazione di immagini deepfake super realistiche
I ricercatori dell’Università di Buffalo hanno escogitato un nuovo ingegnoso strumento per individuare i deepfake super realistici.
Nel loro giornale, i ricercatori spiegano come hanno creato un metodo per distinguere le immagini autentiche da quelle generate dalla tecnologia deepfake, e fondamentalmente lo fanno osservando da vicino gli occhi della persona nell’immagine. Ciò che i ricercatori hanno scoperto è che i riflessi in entrambi gli occhi della persona in una fotografia autentica sono generalmente identici a causa dello stesso ambiente luminoso. Questo, tuttavia, per lo più non è il caso quando si tratta di immagini modificate.
La loro tecnologia, testata su immagini generate da deepfake, è riuscita a individuare i deepfake nel 94% dei casi. La tecnologia è più precisa, tuttavia, se utilizzata su foto scattate con l’impostazione ritratto, che è generalmente l’opzione preferita quando si scattano foto di ritratti ravvicinati.
Il futuro del falso e altre considerazioni
Il vaso di Pandora si è aperto e sembra che la concorrenza tra la creazione, il rilevamento e la prevenzione dei deepfake diventerà sempre più agguerrita in futuro, con la tecnologia deepfake. Essa non solo diventerà più facile da accedere, ma i contenuti deepfake saranno più facili da creare e progressivamente più difficili da distinguere dal reale.
I deepfake continueranno a evolversi e diffondersi ulteriormente e problemi come la mancanza di dettagli nella sintesi verranno superati e con strutture di rete neurale più leggere e progressi nell’hardware, il tempo di formazione e generazione sarà notevolmente ridotto.
Abbiamo già visto nuovi algoritmi in grado di fornire livelli di realismo sempre più elevati ed essere eseguiti quasi in tempo reale. Secondo gli esperti, le GAN (generative adversarial networks) saranno i principali motori dello sviluppo dei deepfake in futuro.
E mentre l’uso di deepfake per il bene sta aumentando rapidamente in settori come l’intrattenimento, le notizie e l’istruzione, questi sviluppi, al contrario, introdurranno anche minacce ancora più gravi per il pubblico, tra cui l’aumento dell’attività criminale, la diffusione della disinformazione, la frode sintetica dell’identità , interferenze elettorali e tensioni politiche. Un altro aspetto da considerare è che i deepfake scherzano con l’agenzia e l’identità. Puoi far fare a qualcuno qualcosa che non ha mai fatto, usando la foto di qualcuno, per la quale il proprietario probabilmente non ha mai dato il suo permesso. E una volta che un video è online, perdi ogni controllo su come viene utilizzato o interpretato.
Andando avanti, al fine di ridurre al minimo l’inganno e frenare l’indebolimento della fiducia, esperti tecnici, giornalisti e responsabili politici svolgeranno un ruolo fondamentale nel parlare e nell’educare il pubblico sulle capacità e sui pericoli dei media sintetici. E se noi, il pubblico, possiamo educarci a fidarci solo dei contenuti provenienti da fonti affidabili, potremmo scoprire che i buoni usi dei deepfake potrebbero effettivamente superare quelli cattivi. Con una maggiore consapevolezza del pubblico, potremmo imparare a limitare l’impatto negativo dei deepfake, trovare modi per coesistere con loro e persino trarne vantaggio in futuro.
Bibliografia e sitografia
https://www.forbes.com/sites/simonchandler/2020/03/09/why-deepfakes-are-a-net-positive-for-humanity/?sh=70ebb8c22f84
https://www.dday.it/redazione/43320/deepfake-piu-facili-con-la-tecnologia-megaportraits-di-samsung
https://www.scientificamerican.com/article/detecting-deepfakes1/
https://it.wikipedia.org/wiki/Deepfake
https://www.vice.com/it/article/ywyxex/video-deepfake-mark-zuckerberg-instagram-filtri
https://ars.electronica.art/center/de/obama-deep-fake/
https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9512278
https://www.businessinsider.com/what-is-deepfake?r=US&IR=T
https://www.creativebloq.com/features/deepfake-examples
Deep fake. Il finto Tom Cruise è un’idea dell’artista Christopher Ume
Biografia
Sono Angelica Bazzano, appassionata e dipendente dall’arte e dei social media 🙃. Ho studiato Beni Culturali presso l’Università degli Studi di Verona e successivamente ho proseguito gli studi allo IUSVE, iscrivendomi al corso di laurea magistrale in Web Marketing & Digital Communication. Il mio percorso scolastico e non, è confuso proprio come me e dopo aver studiato beni culturali e web marketing, attualmente lavoro come Visual Designer.