Autore: Redazione
16/05/2018

Facebook pubblica i dati di applicazione relativi ai propri Standard della Comunità

La piattaforma presenta per la prima volta numeri e informazioni che riguardano le violazioni e le conseguenti misure di restrizione fatte registrare tra l’ottobre del 2017 e il marzo 2018

Facebook pubblica i dati di applicazione relativi ai propri Standard della Comunità

Come decide Facebook quali contenuti sono permessi e quali quelli che violano i suoi standard? Da anni ci sono degli Standard della Comunità che spiegano cosa possa trovare spazio sulla piattaforma e cosa no e, tre settimane fa per la prima volta, l’azienda ha pubblicato le linee guida interne che utilizza per applicare quegli standard. Ora, all’interno del report comunica in aggiunta i numeri legati all’applicazione di questi Standard. Le sei aree considerate Un report che include informazioni e dati relativi all’applicazione degli standard tra ottobre 2017 e marzo 2018 e copre sei aree: violenza esplicita, nudo (adulti), atti sessuali, propaganda terroristica, incitamento all’odio, spam e account falsi. I numeri illustrano: quanti contenuti che violano gli standard sono stati visti dalle persone; quanti contenuti sono stati rimossi; quanti contenuti sono stati rilevati in modo proattivo utilizzando la nostra tecnologia, prima che le persone che utilizzano Facebook li segnalassero. Il problema degli account falsi La maggior parte delle azioni intraprese da Facebook per rimuovere contenuti contrari, riguarda gli account falsi e la grande quantità di spam che generano. Sono stati rimossi 837 milioni di contenuti di spam nel primo trimestre del 2018 - quasi il 100% dei quali sono stati trovati e contrassegnati prima che qualcuno li segnalasse; la chiave per combattere lo spam è rimuovere gli account falsi che lo diffondono. Nel primo trimestre 2018 sono stati disattivati circa 583 milioni di account falsi - la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione. Questo si aggiunge ai milioni di tentativi di creazione di account falsi che ogni giorno vengono sventati su Facebook. Complessivamente, durante questo periodo di tempo, si è stimato che fossero ancora falsi circa il 3-4% degli account attivi di Facebook. Altre tipologie di contenuti che violano gli standard Facebook ha rimosso 21 milioni di contenuti di nudo di adulti o pornografici nel primo trimestre del 2018, il 96% dei quali rilevati dalla tecnologia prima di essere segnalati. Su ogni 10.000 contenuti visualizzati su Facebook, si stima che 7-9 visualizzazioni abbiano riguardato contenuti che violavano gli Standard su nudo e pornografia. Per argomenti delicati come la violenza esplicita e l’incitamento all’odio, la tecnologia Facebook ancora non riesce a funzionare in maniera del tutto efficace ed è necessario l’intervento dei team di revisione. Sono stati rimossi o etichettati come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018, l’86% dei quali identificati dalla tecnologia proprietaria prima che venissero segnalati. Sono stati inoltre rimossi due milioni e mezzo di contenuti che incitavano all’odio, il 38% dei quali sono stati rilevati direttamente dalla citata tecnologia.