Facebook, nuove misure contro il terrorrismo sul web ma un bug svela l'identità dei moderatori

di Rachele Grandinetti
Diventa più serrata la lotta al terrorismo, anche on line. Mark Zuckerberg, infatti, non rimane a guardare mentre le piattaforme web vengono utilizzate sempre più spesso (troppo spesso) per veicolare messaggi di propaganda: ha creato un impero e non intende fare in modo che diventi il cavallo di Troia dei terroristi. Per questo motivo ha inaugurato “Hard Questions”, un blog dove intavolare un dialogo direttamente con gli utenti sui temi più delicati, dalla privacy ai post molesti. Non solo: perché a Menlo Park, quartier generale di Facebook, hanno scelto di dare nuove braccia e menti alla squadra che si occupa di contrastare i contenuti pericolosi (in tutto il mondo Facebook ha una rete di oltre 3mila operatori che agiscono h24 per supervisionare i post segnalati e agire di conseguenza). Attualmente sarebbero 150 quelli impegnati sul fronte anti-terrorismo e si tratta di accademici, ex militanti nelle forze dell’ordine, analisti.

Ma l’azione non è portata avanti soltanto da queste persone: il colosso dei social, infatti, ha sferrato l’attacco ricorrendo all’intelligenza artificiale, «per quanto recente sta già dando risultati», si legge nel post pubblicato sul blog proprio ieri. Il sistema lavora attraverso il riconoscimento delle immagini e del linguaggio ed è capace, ad esempio, di punire gli utenti recidivi o intercettare relazioni con altri giganti del web (come Youtube). Ma il team di Zuckerberg ha commesso un grave errore e il the Guardian se n’è accorto raccontando come verso la fine del 2016, a causa di un bug nel sistema, Facebook abbia rivelato proprio l’identità dei suoi “moderatori” esponendoli a potenziali terroristi. A quanto pare, da allora uno di loro vive segregato.
Venerd├Č 16 Giugno 2017 - Ultimo aggiornamento: 17-06-2017 10:57

© RIPRODUZIONE RISERVATA

COMMENTA LA NOTIZIA
0 di 0 commenti presenti
QUICKMAP