Come funziona la censura su Facebook
La società di Menlo Park pubblica le nuove linee guida sui contenuti che possono rimossi. Ecco cosa si può pubblicare (e cosa no)
A un anno di distanza dalla grande inchiesta del Guardian sulle policy nascoste, Facebook ha pubblicato le sue nuove linee guida sulla censura. Il documento, consultabile online, consta di una trentina di pagine nelle quali si dettaglia ciò che è permesso pubblicare all’interno della piattaforma (e ciò che invece no).
L’annuncio della sezione, che segue di qualche giorno quello sulle nuove regole per il trattamento dei dati personali, rientra al’interno di un piano di azioni più ampio finalizzate a recuperare la fiducia degli utenti dopo i giorni tempestosi dell’affare Cambridge Analytica. L’obiettivo, in questo caso specifico, è trovare un punto d’incontro fra tre elementi spesso in confltto fra loro: sicurezza degli utenti, diritto alla libertà di espressione e la necessità - richiesta a gran voce soprattutto dagli inserzionisti - di integrità sul piano etico.
Cinque tipologie di contenuto a rischio
"I nostri standard valgono in tutto il mondo per tutti i tipi di contenuti", scrive il social network nella nota introduttiva del documento, sottolineando i valori che hanno ispirato la redazione del whitepaper: sicurezza, voce (intesa come capacità di abbracciare vari punti di vista), equità.
In linea di massima si può dire che i contenuti a rischio censura possano essere catalogati in 5 grandi tipologie correlate a:
- Violenza e comportamenti criminali
- Contenuti deplorevoli
- Sicurezza
- Integrità e autenticità
- Rispetto della proprietà intellettuale
Le categorie circoscrivono la linea di confine fra i contenuti permessi e quelli “proibiti”. Tuttavia, precisa Facebook, ci sono casi più sporadici - come ad esempio quelli che riguardano la rimozione degli account dei defunti o dei minori - nei quali gli utenti possono fare specifiche richieste allo staff del servizio.
Violenza e comportamenti criminali
La censura di Facebook scatta ogni qual volta si ravvisa una minaccia credibile, intendendo con questo termine post, messaggi, foto e video che includono atti di violenza reale (non sono considerati tali messaggi scherzosi che esprimono antipatia o disapprovazione minacciando o invitando all'uso della violenza).
Facebook definisce una volta per tutte le persone e le organizzazioni considerate pericolose facendo riferimento a cinque categorie di attività ben precise:
- Terrorismo
- Odio organizzato
- Omicidio di massa o seriale
- Traffico di esseri umani
- Violenza organizzata o attività criminale
Profili correlati a iniziative di questo tipo di attività verranno rimossi, così come contenuti che esprimono supporto o elogio di gruppi, leader o individui coinvolti in queste attività. L’unica deroga concessa in questo ambito riguarda la facoltà di sostenere la legalità di attività criminali o di condividere le loro opinioni nonché di parlarne in termini retorici o satirici.
Facebook definisce anche una serie di beni soggetti a limitazioni legali: proibiamo i tentativi di singoli, produttori e rivenditori di acquistare, vendere o commerciare prodotti non medicinali, farmaci e marijuana, si legge nel documento. Proibiamo inoltre l'acquisto, la vendita, il regalo, lo scambio e il trasferimento di armi da fuoco, tra cui parti di armi da fuoco o munizioni.
Singolare il fatto che le limitazioni riguardino solo la parte commerciale: Facebook precisa infatti che è consentito discutere sulla vendita di armi da fuoco, esprimere il proprio sostegno per il cambiamento delle leggi su questi temi e addirittura promuoverne la vendita nel rispetto delle normative e delle leggi vigenti.
Sicurezza
Rientrano in questa categoria i contenuti relativi a:
- Suicidio e autolesionismo
- Nudità e sfruttamento sessuale di bambini
- Sfruttamento sessuale di adulti
- Bullismo
- Molestie
- Violazione della privacy e diritti di privacy sulle immagini
L’orientamento di Facebook su questi temi appare chiaro: non vengono tollerati e quindi vengono rimossi i contenuti che incoraggiano il suicidio o l'autolesionismo (tra cui situazioni in tempo reale che potrebbero essere ripetute da altre persone), contenuti che sfruttano sessualmente o mettono in pericolo bambini (comprese le foto di bambini nudi), contenuti che esprimono, trasmettono, alludono a o promuovono la violenza sessuale, le aggressioni a sfondo sessuale o lo sfruttamento sessuale (ivi compresi i servizi commerciali che prevedono prostituzione, attività di escort, massaggi con prestazioni sessuali e attività sessuali filmate), contenuti finalizzati a denigrare o disonorare deliberatamente singole persone (bullismo), insulti, messaggi di incitazione alla morte, malattie gravi o disabilità o crudeltà fisica rivolti a un individuo o gruppo di individui nella conversazione (molestia) e la pubblicazione di informazioni personali o riservate di terzi senza previo consento.
Le eccezioni sono poche e limitate: Facebook ammette il dibattito su alcune di queste tematiche (ad esempio il suicidio, l’autolesionismo e il bullismo) purché le opinioni non promuovano o incoraggino comportamenti in tal senso.
Il monitoraggio di questi contenuti, precisa la società, avviene sia in forma automatizzata (Facebook come noto dispone di alcune tecnologie di riconoscimento delle immagini), sia attraverso la cooperazione con enti e organizzazioni esterne, tra cui il nostro Telefono Azzurro.
Contenuti deplorevoli
Vengono definiti deplorevoli tutti quei contenuti “forti”, perché ad esempio incitano all’odio e alla violenza. Nello specifico Facebook definisce quattro tipologie di contenuti deplorevoli (e dunque censurabili):
- Contenuti che incitano all'odio
- Contenuti visivi violenti
- Immagini di nudo (adulti) e atti sessuali
- Contenuti che esprimono crudeltà e insensibilità
"Definiamo i discorsi di incitazione all'odio come un attacco diretto alle persone sulla base di caratteristiche protette, vale a dire razza, etnia, nazionalità di origine, religione, orientamento sessuale, sesso, genere o identità di genere, disabilità o malattia", precisa Facebook, promettendo misure di protezione per lo status di immigrato.
Sono ammessi contenuti che pur nella loro crudezza possano favorire la sensibilizzazione su determinati temi (ad esempio la violazione dei diritti umani o gli atti di terrorismo), o a scopo educativo o medico. Nei casi di immagini e video particolarmente violenti, ha comunque precisato lo staff del social network, verrà visualizzata un'etichetta che sconsiglia la visione del contenuto a un pubblico di età inferiore ai 18 anni.
Integrità e autenticità
Fra i contenuti più difficili da discriminare ci sono quelli relativi alla cosiddetta Integrità e autenticità. Rientrano in questa categoria le fake news, lo spam, i tentativi di manomissione (come ad esempio quelli che riguardano la creazioni di account falsi).
Per migliorare il monitoraggio su queste tipologie di contenuti, Facebook ha recentemente annunciato la collaborazione con organizzazioni esterne, ad esempio fact-checker terzi indipendenti.
Un discorso a sé riguarda gli account commemorativi, ovvero i profili di persone decedute. Le policy di Facebook su questo fronte sono note da tempo: in caso di morte, il profilo di una persona iscritta al social network viene reso commemorativo (sull’account apparirà la scritta "In memoria di") e potrà essere modificato solo da un erede, ovvero da un contatto designato dalla persona scomparsa quando era ancora in vita.
Rispetto della proprietà intellettuale
Come sancito dalle condizioni di servizio, l'utente è il proprietario di tutti i contenuti e le informazioni pubblicate su Facebook e può controllare il modo in cui vengono condivisi mediante le impostazioni sulla privacy e le impostazioni delle applicazioni. Ma cosa succede quando vengono pubblicati immagini, video, testi, musica prodotti da terzi? Prima di condividere contenuti su Facebook, suggerisce il team di Menlo Park, assicurati di disporre dei diritti necessari. Il che significa rispettare i diritti d'autore, i marchi e altri diritti legali.
Il modo migliore per assicurarti che un contenuto che pubblichi su Facebook non violi le leggi sul diritto d'autore è pubblicare solo contenuti creati da te, suggerisce Facebook. In caso contrario andrebbe richiesta l’autorizzazione al proprietario dei diritti.
In alcune circostanze - ad esempio critica, commenti, reportage, insegnamento, cultura e ricerca - è possibile usare le opere d'ingegno di altre persone senza la loro autorizzazione. In questi casi si parla di fair use (utilizzo corretto), una dottrina che prende in considerazione tutti quei contenuti che ad esempio trasformano o cambiano l'opera originale in qualcosa di diverso per messaggio, contesto, espressione.
Richieste relative ai contenuti
Facebook può censurare anche specifici contenuti che non appartengono alle categorie predette ma che rispondono a una precisa richiesta degli utenti su determinate aree sensibili. In particolare vengono prese in considerazione le richieste che riguardano la rimozione degli account, e più precisamente:
- Rimozione degli account personali
- Rimozione dell'account di un utente deceduto da parte di un membro prossimo della famiglia o di un esecutore verificato
- Rimozione dell'account di un utente invalido da parte di un rappresentante autorizzato.
Per quanto riguarda i minori, Facebook prevede un livello di protezione aggiuntiva che può essere richiesta qualora vi siano immagini sull'abuso sui minori (percosse, strangolamento o soffocamento) o attacchi a minori accidentalmente famosi da parte di tutori legali.