Il presidente ucraino Volodymyr Zelenskyy si appella alla nazione: la t-shirt a maniche corte è quella di sempre. La voce, però, sembra diversa dal solito: “Bisogna deporre le armi e arrendersi al nemico russo”, esclama alla fine del video. Sul social X, invece, non si parla d’altro: la cantante Taylor Swift, icona a livello mondiale, ha deciso di regalare ai suoi fan degli scatti dove è completamente nuda. I mi piace arrivano a milioni. Ma è ora di frenare l’entusiasmo. Tutto questo non è vero: siamo di fronte all’ennesimo caso di notizie fuorvianti allo scopo di generare disorientamento nell’opinione pubblica.
Un fenomeno che prende il nome di deepfake. Ma di cosa si tratta? È il rovescio della medaglia della tecnologia, il suo lato oscuro. L’Intelligenza artificiale viene utilizzata per creare eventi, video e audio completamente falsi, spesso utilizzando i volti e le voci dei personaggi famosi. Il primo caso risale al 2017: un utente del sito internet Reddit ha iniziato a far circolare delle clip a sfondo sessuale. E fin qua, nulla di nuovo. Soltanto che le protagoniste erano celebrità del calibro di Scarlett Johansson e Gal Gadot. Tutto questo è stato possibile sovrapponendo le loro facce ai corpi di attori porno. Come rivelano gli esperti di informatica, per ottenere simili risultati sono necessari diversi passaggi e anche una notevole competenza. Tuttavia, negli ultimi anni il fenomeno sta assumendo dimensioni preoccupanti; aziende specializzate si offrono di creare contenuti deepfake su misura per i propri utenti, come testimonia anche il successo dell’app cinese Zao. L’annuncio è invitante: il programma ti trasformerà nel tuo attore preferito. Come? Basta scattarsi dei selfie e poi penserà a tutto il software. Il volto sarà incollato sul corpo del vip prescelto. E col tempo i risultati si dimostrano più realistici e credibili; il confine tra verità e menzogna si fa labile.
Come dimostra quanto accaduto in questi giorni a molti imprenditori di casa nostra. Una insolita chiamata li ha colti di sorpresa. Dovevano versare al più presto una cifra attorno al milione di euro su un conto corrente con sede a Hong Kong. Il motivo era tra i più nobili: salvare dei giornalisti italiani rapiti in Medio Oriente. E a chiedere l’ingente somma con urgenza era il ministro della Difesa Crosetto. Ma ovviamente, anche in questo caso si è trattato di un falso. La sua voce è stata clonata e riprodotto grazie all’Ia. “Questi qua son bravi” ha esclamato incredulo Massimo Moratti. L’ex patron dell’Inter in due giorni ha staccato due assegni da 450mila euro, ora quasi impossibili da recuperare. Ma non sono solo i personaggi politici a essere interessati dal deepfake. In un’inchiesta sul tema, il quotidiano britannico Guardian ha messo in luce come il 96% di questi video sia a sfondo pornografico e il 99% di questi riguardava volti di celebrità femminili. Tanto che Danielle Citron, professoressa di diritto all’Università di Boston, non ha dubbi a riguardo: “Questo tipo di tecnologia viene usata come arma contro le donne”. Dopo i falsi contenuti hard di Taylor Swift, sono insorti anche diversi esponenti della politica statunitense. Il deputato democratico Josep Morelle non ha usato mezzi termini: “Si verranno a creare danni emotivi, finanziari e reputazionali irrevocabili, e sfortunatamente le donne ne risentono in modo sproporzionato”. I motivi rimangono gli stessi: vendetta a sfondo sessuale, ricatti per estorcere quantità cospicue di denaro. Esistono soluzioni? Si chiede a gran voce una regolamentazione di queste fattispecie anche ricorrendo all’uso del diritto.
Nel 2023 negli States era stato presentato il “Preventing Deepfakes of Intimate Images Act”, una proposta di legge che poi è rimasta lettera morta. Anche perché l’evoluzione di tali fenomeni è talmente rapida da rendere difficile una codificazione sistematica. Paradossalmente, sarà la tecnologia a fornire dei rimedi validi per scovare i contenuti falsi e molte aziende già vi stanno ricorrendo. Ciononostante, sarà più facile individuare chi usa in modo improprio l’immagine o la voce di personaggi famosi. Per la gente comune la storia sarà diversa: sempre il Guardian pone l’accento su come il deepfake possa incidere all’interno dei tribunali, dove questi escamotage potranno essere utilizzati come prove dirimenti per il processo. Si pensi ad esempio alle battaglie tra i genitori per l’affidamento dei figli. Per il futuro una cosa è certa: tali eventi non faranno che moltiplicarsi. Ed è ormai sotto gli occhi di tutti che la competizione tra le grandi potenze intaccherà in modo significativo il dominio dell’informazione. Rientra nel più ampio concetto di guerra ibrida: non solo carrarmati ma anche utilizzo di fake news, operazioni di pressione psicologica, sfruttamento di zone grigie in cui attori statali e non si verranno a scontrare. L’attenzione dovrà quindi essere massima. Altrimenti, come ha ben scritto Federico Novella su Panorama, finiremo come Decio Cavallo nel film Totòtruffa 62: raggirati e spennati. Preparate mezzo milione di caparra.