Cerca
Cerca
Edicola digitale
+

Terrorismo, violenza e porno: ecco le linee guida di Facebook

Silvia Sfregola
  • a
  • a
  • a

Regole segrete e linee guida che Facebook ha creato per decidere cosa i 2 miliardi di utenti possono pubblicare o cosa è bene cancellare. Un'operazione tanto complicata quanto misteriosa che il Guardian ha svelato per la prima volta alimentando il dibattito globale sull'etica e sul ruolo stesso del gigante dei social network. Sono più di 100 i manuali di formazione interna, fogli di calcolo, diagrammi di flusso destinati all'addestramento del gruppo di moderatori e visionati dal quotidiano britannico: i temi spaziano dalla violenza al razzismo, dal terrorismo alla pornografia fino all'autolesionismo. Esistono persino linee guida per moderare la pratica di truccare le gare e le partite oppure che analizzano il cannibalismo. I cosiddetti "Facebook files" offrono così la prima visioni dei codici e delle regole formulate dal social di Mark Zuckerberg circa un anno fa, quando si scatenarono le polemiche per la decisione di Facebook di eliminare una delle foto più famose degli ultimi decenni: quella della bambina vietnamita che fuggiva nuda su una strada sterrata per salvarsi dal napalm degli americani. Motivo: era nuda, ed era una bambina. Ma era anche la più importante immagine di guerra del secolo scorso. Facebook "è diventato troppo grande, troppo in fretta", ha ammesso una fonte. In effetti tra i due miliardi di iscritti attuali vi sono anche rappresentanti di correnti politiche, ideologiche e religiose, utenti che incitano all'odio e alla violenza e che pubblicano immagini macabre o con riferimenti sessuali... "Facebook fa fatica a mantenere il controllo sui suoi contenuti", ha spiegato la fonte. È difficile per esempio reagire in casi come il cosiddetto "revenge porn", le persone lasciate dal proprio partner che si vendicano postando immagini intime e personali per danneggiare l'ex: in molte situazioni occorre decidere se l'immagine, o il commento, è appropriata in meno di 10 secondi, vista la mole di lavoro per i moderatori. E la loro scelta, come nel caso della "Napalm girl", scatena spesso furiose proteste. Molti moderatori si dicono preoccupati per quanto riguarda l'incoerenza e la natura peculiare di alcune delle politiche adottate dalla società di Palo Alto. Quelle per i contenuti sessuali, per esempio, sono considerate le più complesse e confuse. Ma esistono anche circa 6,5 milioni i profili falsi (ovvero non legati a una persona reale) scoperti ogni settimana. E le linee guide, in alcuni casi, sono molto controverse. Secondo l'indagine del Guardian, la frase "Qualcuno spari a Donald Trump" è da cancellare, subito: il presidente degli Stati Uniti è una personalità pubblica e pertanto deve essere tutelato. Ma allo stesso tempo, si può scrivere "muori" oppure "rompi il collo a quella, e assicurati di premere più che puoi sulla gola" perché non rappresentano una minaccia credibile. I video di morti violente sono contrassegnati come inquietanti ma non sempre possono essere eliminati perché potenzialmente potrebbero essere utili a un'indagine o a una ricerca scientifica. Paradossalmente, immagini di violenza sui bambini possono essere bloccate solo se a sfondo sessuale, o accompagnate da un contesto di sadismo. I video sugli aborti sono permessi, a meno che non mostrino nudità. Facebook ammette inoltre il livestreaming anche se mostra tentativi di autolesionismo perché "non vuole censurare o punire le persone in sofferenza". Infine, chiunque abbia più di centomila follower rientra nella categoria di personaggio pubblico e perde ogni diritto alla privacy sul suo account.

Dai blog