Home » Attualità » Politica » Se l’intelligenza artificiale va al voto

Se l’intelligenza artificiale va al voto

Se l’intelligenza artificiale va al voto

Con le tecnologie più avanzate cresce la possibilità di manipolazioni alle urne. Tra «deepfake» e attacchi social, ecco i pericoli per le prossime europee. «Ma l’Unione e l’Italia si possono proteggere così» dice Matteo Lucchetti, a capo di Cyber 4.0, la nostra struttura pubblica di sicurezza informatica.


Non mancano gli esempi: c’è la presidente moldava messa in ridicolo da un’intervista video modificata ad arte o la candidata al parlamento dell’Irlanda del Nord protagonista, a sua insaputa, di un filmato porno. E poi la registrazione, circolata su X (l’ex Twitter), in cui il capo del partito Laburista britannico insulta il suo staff. Tutti contenuti falsi, generati da un computer. Tutti diventati virali. Sono alcuni casi che raccontano l’era delle «Ai election», le elezioni al tempo dell’intelligenza artificiale: la definizione arriva dal quotidiano americano online Politico, i rischi che tale scenario porta con sé sono un trionfo della manipolazione e un protagonismo soverchiante della disinformazione. Proprio nell’anno in cui due miliardi di cittadini sono chiamati al voto in circa 50 consultazioni su scala globale, comprese le europee di giugno. C’entra molto la democrazia, nel senso di un’accessibilità vasta e trasversale di nuove tecnologie: «In passato, per ottenere contenuti ingannevoli ma credibili, servivano risorse e competenze. Grazie alle ultime innovazioni, possono bastare una foto e una breve registrazione di una persona per avere un video in cui gli si fa dire qualunque cosa» avverte Matteo Lucchetti, direttore operativo del Cyber 4.0, il centro di competenza nazionale ad alta specializzazione sulla cybersecurity, promosso e co-finanziato dal ministero delle Imprese e del Made in Italy per rafforzare le competenze di aziende e pubblica amministrazione in materia di sicurezza informatica.

Lucchetti, lei ha lavorato per il Consiglio d’Europa, prima ancora è stato all’Agenzia Ue sui diritti fondamentali. Come italiani dobbiamo preoccuparci di possibili condizionamenti del voto con l’intelligenza artificiale?

Di sicuro, non siamo un pubblico indifferente, né poco coinvolto: una ricerca a cura di 100 studiosi di circa 50 università del Vecchio continente ha concluso che, in occasione delle consultazioni europee del 2019, il nostro Paese è stato quello che su Facebook ha prodotto in assoluto più post a carattere politico. Abbiamo superato Portogallo e Grecia.

E dunque?

Non resistiamo al richiamo dei social network, che sono il veicolo di diffusione privilegiato dei contenuti ingannevoli. Sfruttano l’immediatezza e l’impulsività degli utenti. La narrazione politica non è più un’esclusiva dei politici, passa da tutti noi. Siamo «prosumer»: produttori e, allo stesso tempo, consumatori. I falsi si nutrono della dimensione emotiva della comunicazione. Anche quando vengono smentiti, è tardi. Possono aver già fatto il giro del mondo.

Le fake news, però, sono ormai una notizia vecchia.

Con l’Ai siamo su un altro livello. Ciò che permette di fabbricare è così verosimile da obbligarci a dubitare dei nostri occhi e delle nostre orecchie. Penso agli elettori statunitensi del New Hampshire, che lo scorso gennaio hanno ricevuto una telefonata da Joe Biden: non era il presidente, ma un suo clone audio che li invitava a non partecipare alle Primarie. Era lecito cascarci. Era un «deepfake»: la nuova profondità del falso, una sua complessa evoluzione.

Per il ministro francese Jean-Noël Barrot i deepfake sono una minaccia alla legittimità delle elezioni europee. Esagera?

L’«Ai Act», il regolamento dell’Ue che fissa regole e confini circa l’utilizzo dell’intelligenza artificiale, ha messo i dovuti argini. Introduce sanzioni penali per eventuali utilizzi impropri dello strumento.

Però?

Le europee cadono in un momento delicato, di transizione. Le tecnologie che permettono di fare e abusare tantissimo sono lì fuori, il regolamento che potrebbe limitarne i pericoli non è ancora operativo.

In compenso i principali schieramenti hanno firmato un codice di condotta in cui s’impegnano a non adoperare deepfake. Li definiscono «metodi manipolativi».

Si comporteranno virtuosamente, senza dubbio, ma i loro sostenitori o gli agitatori meno. La questione è di portata internazionale, ci sono gruppi radicati in Paesi fuori dall’Unione che mirano a sovvertire l’ordine attuale.

Per quali ragioni?

Le più varie. Magari non vedono con favore l’appoggio dell’Europa all’Ucraina e sperano di poter usare l’intelligenza artificiale per cambiare o smussare l’oltranzismo di certe posizioni.

In Italia a che punto siamo?

A fine aprile è stato approvato un disegno di legge sull’intelligenza artificiale. Siamo il primo Paese nell’Ue a dotarci di una legislazione nazionale, anticipando anche l’entrata in vigore dell’Ai Act. Proprio in risposta ai rischi di sofisticazione delle informazioni è stato introdotto, tra gli altri, il reato di «illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale». Sarà necessario un po’ di tempo prima che entri a regime.

Intanto le grandi piattaforme, quelle su cui circola il traffico delle fake news, hanno promesso contromisure. Meta, per citarne una, ha annunciato una task force contro la disinformazione e gli abusi dell’Ai in vista delle consultazioni di giugno.

Sono meccanismi che aiutano ad arginare il fenomeno, non lo bloccano.
I social network sono ambienti competitivi: se uno si dimostra particolarmente severo, il traffico s’indirizza verso altri canali.

È quindi scettico sul punto.

C’è da considerare un altro tema: l’arbitrarietà nella selezione dei contenuti da escludere. Si può sconfinare nella censura. Non dimentichiamo che, con l’avvicinarsi delle elezioni, in tanti Stati africani viene chiuso internet per sopprimere il dissenso.

In Europa non accadrà.

Sì, ma bisogna sempre stare allerta nel gestire qualunque misura restrittiva. Come pure è fondamentale garantire un bilanciamento tra una comunicazione non influenzata dal falso e il riconoscimento di due diritti fondamentali: la libertà d’espressione dell’individuo e il libero accesso alle informazioni.

Arrendersi alle derive dell’intelligenza artificiale non sembra un’opzione. Dov’è la via d’uscita?

Il potere dei deepfake è tanto maggiore quanto più rapida è la reazione che inducono. Prima di amplificare un video, un audio o un’immagine, prima di condividerli sui social, fermiamoci, esitiamo. Cerchiamo conferme.
La forza pervasiva di un’innovazione dipende dallo spazio che le concediamo. La responsabilità è solo nostra.

Come si coltiva una coscienza tecnologica?

Con la formazione. Come National Cybersecurity Competence Center ne facciamo molta, di continuo, a tutti i livelli. Dalle scuole medie a quelle superiori, con programmi per studenti universitari e per le aziende.

Può farci un brevissimo riassunto?

È necessario essere consapevoli che tutto quello che vediamo, in particolare ciò che ci colpisce, potrebbe essere stato prodotto integralmente da strumenti di intelligenza artificiale. Se non diffidenti, dobbiamo imparare a essere prudenti.

© Riproduzione Riservata