Fact checking e censura: come cambia internet dal prossimo febbraio
Con l'entrata in vigore del DSA, il Digital Services Act voluto dall'Unione Europea, scatta un meccanismo di controllo sulle piattaforme online dei contenuti pubblicati non solo dai proprietari del sito ma anche dagli utenti
«Quando si comincia a censurare, la censura prima o poi ti si ritorce contro». A parlare non è un profeta e tanto meno il personaggio più politically correct sulla faccia del pianeta, ma Elon Musk. Sì, Mister X (o meglio, Mister Ex-Twitter) non si risparmia dal palco di Atreju quando viene interrogato sul futuro della comunicazione digitale e ha affondato: «L’Ue si è dotata di una mole eccessiva di regolamentazioni».
Un colpo secco al perbenismo digitale, della misurazione delle parole online, per non offendere esagerare o - ormai - semplicemente esprimersi.
Tutto ha avuto inizio il venerdì 25 agosto con l'entrata in vigore delle nuove regole riguardanti la responsabilità delle piattaforme per i contenuti online, ovvero il Digital Services Act (DSA). Questo rappresenta una vera e propria svolta, considerando che la normativa precedente del 2000 era basata su riflessioni risalenti alla metà degli anni '90 e da tempo risultava inadeguata per il panorama delle piattaforme web. Il Digital Services Act rappresenta però anche un'importante stretta dell'Unione Europea per contrastare gli abusi sui contenuti online e "garantire" la "tutela" degli utenti della rete. Thierry Breton, commissario europeo per il mercato interno e figura chiave della riforma, sottolinea che la protezione dell'infanzia sarà una priorità nell'applicazione, insieme alla lotta contro la disinformazione e precisa che la moderazione dei contenuti non implica censura e sottolinea che in Europa non verrà istituito alcun "Ministero della Verità". Ma se davvero così fosse, a cosa servirebbero le leggi - molteplici e tutte differenti e tailor-made - che i paesi europei e non stanno adottando nell'ambito dei controlli dei contenuti online?
Vi facciamo un paio di esempi. Come riportato da La Verità oggi, in Irlanda arriverà una legge contro l'incitamento all'odio. In Scozia qualcosa di simile, la legge si chiamerà però addirittura "legge sui crimini d'odio". E poi ci sono gli UK - sebbene tecnicamente non facciano più parte della grande Europa - e in cui Rishi Sunak sta lavorando a una legge sulla sicurezza online. E gli esempi sono molteplici. Con tutti un punto in comune: suddette leggi somigliano più a leggi-bavaglio che a veri atti di libertà e protezione.
Al cambiamento definitivo manca poco. Sebbene infatti il primo passo sia iniziato lo scorso agosto, è dal 17 febbraio prossimo che il DSA entrerà in vigore a pieno ritmo. Cosa significa?
Poiché l'approccio tentato dagli Stati europei nel 2019, che prevedeva sanzioni per le piattaforme per ogni post illegale non rimosso entro poche ore, aveva il controeffetto di incentivare la censura, il DSA stabilisce che le grandi piattaforme devono redigere annualmente un report che valuti i rischi per i diritti fondamentali, la libertà d'espressione, il dibattito pubblico e i minori derivanti da abusi o uso illecito dei loro servizi. Una volta identificati questi rischi, devono presentare soluzioni per ridurne l'impatto, coinvolgendo la moderazione dei post, l'utilizzo degli algoritmi per raccomandare determinati contenuti, la modifica dei termini e delle condizioni, la modifica del design e del sistema di raccolta pubblicitaria, e altro ancora. Per verificare l'impegno di queste aziende, potrebbero essere soggette a audit esterni, condotti non solo dalle Autorità, ma anche da ricercatori. Nel caso di minacce imminenti alla salute o alla sicurezza delle persone, in cui queste piattaforme potrebbero contribuire alla diffusione attraverso massicce campagne di disinformazione, in collaborazione con la Commissione, devono attivare protocolli di crisi, adottando misure d'emergenza per ridurre gli effetti nocivi.
Entre preposto per il controllo in Italia sarà nient'altri che l'AGCOM. Questi organismi di coordinamento avranno a disposizione un meccanismo di indagine congiunta a livello europeo, che si rivelerà utile, ad esempio, quando uno Stato membro necessiterà di assistenza per correggere asimmetrie informative o richiederà competenze tecniche per investigare su un complesso sistema pubblicitario di una VLOP. Inoltre, questo strumento sarà impiegato in situazioni in cui i rischi e le violazioni riguarderanno specificamente un altro Stato membro. Ogni Stato membro avrà a disposizione un canale diretto per segnalare problemi emergenti sul proprio territorio e potrà richiedere l'assistenza del coordinatore competente nello Stato membro in cui la piattaforma online è stabilita o ha un rappresentante legale. Per le violazioni commesse dalle VLOP, la Commissione può comunque garantire una supervisione e imporre sanzioni dirette.
C'è poi il ruolo - dubbio - dei fact checker. Attivi soprattutto sui social sembra ormai comprovato che non svolgano il lavoro per cui, un non molto chiaro qualcuno, li ha chiamati a effettuare. Prova ne è proprio il social di Musk, X, dove le community notes intensificate per diminuire la disinfomazione su Hamas e Israele, non stiamo propriamente sortendo gli effetti sperati e sia stato ammesso siano vulnerabili a manipolazioni di gruppi. E sembra chiaro che il sistema non funzioni nemmeno su Facebook, dove fonti di newa, come è successo più volte a La Verità, ma anche semplici cittadini, sono stati vittime della censura dettata da Open.
Bavaglio o no, il prossimo febbraio cambierà nuovamente il modo in cui fruiremo di internet e dei suoi contenuti. E forse, esprimersi - liberamente - diventerà un lusso solo per pochi, selezionatissimi, eletti.