Tutti i prezzi sono validi al momento della pubblicazione. Se fai click o acquisti qualcosa, potremmo ricevere un compenso.

La lotta di Facebook contro i contenuti inappropriati: risultati e piani futuri

24 Aprile 2018 15

Nelle ultime ore Facebook ha parlato ampiamente di come viene gestita la rimozione del contenuto inappropriato sulla propria piattaforma: ieri ha illustrato gli effetti della lotta ai contenuti legati al terrorismo nel primo trimestre del 2018, mentre oggi ha pubblicato le linee guida generali, che comprendono argomenti come violenza, pubblicità invasiva, molestie, terrorismo, incitamento all'odio e furto di proprietà intellettuale.

I progressi nella lotta al terrorismo

La rimozione di post e media legati al terrorismo è particolarmente importante, anche perché è uno dei punti su cui i legislatori europei insistono di più. Facebook ha detto che l'intelligenza artificiale è uno strumento fondamentale, ma non sufficiente da solo: per questo il suo team interno dedicato al terrorismo è stato ampliato, da 150 a 200 persone.

Facebook si è concentrato in particolare sui contenuti diffusi da Al Qaeda e ISIS, considerati i due gruppi più pericolosi, e ha detto di averne rimossi 1,9 milioni nel solo primo trimestre del 2018 - circa il doppio rispetto allo stesso periodo dell'anno scorso. Da notare che il 99 per cento di questo contenuto è stato rimosso dall'AI e dal team prima dell'arrivo di una segnalazione da parte degli utenti.

I contenuti più recenti, inoltre, vengono identificati in meno di un minuto dal caricamento grazie all'intelligenza artificiale - il tempismo è un parametro molto importante per limitare i danni che questi contenuti causano sulla piattaforma. Facebook dice che sta anche lavorando a strumenti in grado di rilevare post più vecchi: nel Q1 ne ha cancellati circa 600.000.

Facebook riconosce che il progresso compiuto non è ancora sufficiente, e sottolinea che la sfida è molto complessa.

I gruppi terroristici tentano costantemente di aggirare i nostri strumenti, e così dobbiamo sempre migliorare. Ricercatori esterni e il nostro team interno trovano costantemente contenuti che sfuggono alla nostra tecnologia. Ma impariamo da ogni errore, testiamo nuovi metodi di rilevamento e cerchiamo di espandere la lista di gruppi terroristici da sorvegliare.

Interessante, infine, riportare la definizione di "terrorismo" applicata da Facebook:

Qualsiasi organizzazione non governativa che esegue atti di violenza premeditati contro persone o cose per intimorire una popolazione civile, un governo o un'organizzazione internazionale al fine di perorare la propria causa politica, religiosa o ideologica.

Importante l'esclusione dei governi: l'argomentazione di Facebook si basa sull'opinione generale accademica e legale che, in alcune circostanze, l'uso di violenza da parte dello stato è legittimo.

Linee guida pubbliche per maggior trasparenza

Le linee guida per i revisori sono racchiuse in un documento di 25 pagine, e trattano tutti i casi in cui un contenuto deve o non deve essere rimosso. Facebook non le ha mai rese pubbliche per evitare di facilitarne l'aggiramento, ma è facile immaginare come oggi sia più importante curare la propria immagine di società chiara e trasparente. Dal canto suo, Facebook cita due motivi:

Primo, le linee guida aiuteranno la gente a capire come gestiamo le situazioni più sfaccettate. Secondo, sarà più semplice per tutti, inclusi esperti in molteplici campi, fornirci feedback per migliorare le linee guida - e le decisioni che prendiamo - nel tempo.

Tra l'altro, qualche tempo fa un'inchiesta del Guardian era riuscita a impossessarsi in modo ufficioso del manuale, o almeno di una sua parte.

Le linee guida saranno tradotte in tutte e 40 le lingue in cui operano i moderatori della piattaforma: sono già disponibili, interamente in italiano, a QUESTO indirizzo.

Facebook spiega che ha 11 uffici nel mondo che si occupano di stilare e mantenere aggiornate le linee guida. I dipendenti sono esperti di vari settori - da pubblici ministeri a studiosi delle organizzazioni che diffondono l'odio, passando per psicologi specializzati nell'assistenza alle vittime di violenze sessuali e avvocati per i diritti umani. Le linee guida sono applicate da uno staff di 7.500 persone, una crescita del 40 per cento rispetto all'anno precedente; l'intero dipartimento lavora 24 ore su 24, 7 giorni a settimana.

Ogni membro dello staff deve decidere come applicare le regole, il che lascia margine per qualche inevitabile errore di interpretazione. Facebook sta lavorando per permettere a chiunque di sporgere reclamo per un contenuto rimosso: entro l'anno verrà attivato per nudità e attività sessuali, incitamento all'odio, e violenza esplicita. Funzionerà così:

  • Chi ha pubblicato dei contenuti inappropriati riceverà una notifica con possibilità di sporgere un reclamo
  • Entro 24 ore (normalmente) il contenuto viene nuovamente esaminato: in questo caso la seconda analisi viene sempre effettuata da un essere umano.
  • Nel caso in cui il reclamo porti a un'inversione della decisione si riceverà una notifica e il contenuto sarà ripristinato.


15

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
L0RE15

ormai la logica che certe persone adottano è la seguente: se le foto del minore le pubblicano i genitori, allora va bene (c'è tutela...dove poi me lo devono ancor a spiegare), se le foto le pubblicano altri, allora è reato...ma non hanno ancora capito che una volta che si pubblica qualcosa senza alcun filtro, la privacy, sul web, va a farsi benedire...e delle foto non hai più alcun controllo...

L0RE15

mica scema l'AI, istruita a dovere pure lei ;)

L0RE15

anzi, continuano ad aumentare

Stefano Ferri

Faccialibro è inappropriata in una mente sana

Mark

Le fake news sono pericolosissime, ma vedo che continuano a circolare indisturbate

Jimbo Kern

La definizione di "terrorista" di FB e di tutti i suoi amici dello stesso schieramento è "persona di etnia caucasica e di religione non musulmana che attenta alla vita altrui per motivi politici".
Gli altri sono solo "lupi solitari", "squilibrati mentali", "persone con problemi"...

Top Cat

Avrà detto...

- Trmp m f schf.....No, Signore, non ne so nulla!

Top Cat

Vincere la lotta è facile.

No a Faccia Buco!

Dr. Freudstein

Facebook manda avanti inesorabilmente la censura politica a favore della dittatura del pensiero unico.
Durante l'audizione al Senato il senatore Cruz lo ha messo spalle al muro, riportando numerosi casi di censura contro contenuti vicini al partito repubblicano. Zuckerberg ha balbettato qualcosa per poi dire che non ne sa nulla.

Tiwi

"Qualsiasi organizzazione non governativa che esegue atti di violenza premeditati contro persone o cose per intimorire una popolazione civile, un governo o un'organizzazione internazionale al fine di perorare la propria causa politica, religiosa o ideologica."

come mai l'AI non ha bannato facebook stesso?

ghost

Guarda che facebook ha provato a cancellarsi perché risultava sotto la voce terrorismo semplicemente non ha potuto farlo perché gli veniva scritto "facebook è in uso da un altro processo" xD

qandrav

Interessante, infine, riportare la definizione di "terrorismo" applicata da Facebook:

Qualsiasi organizzazione non governativa che esegue atti di violenza premeditati contro persone

Direi abbastanza comica la cosa, calcolando che facebook ha rovinato il mondo e dato voce e sopratutto importanza a spazzatura come sciachimisti/antivax/bufalari e company.

Facebook ha detto che l'intelligenza artificiale è uno strumento fondamentale, ma non sufficiente da solo: per questo il suo team interno dedicato al terrorismo è stato ampliato, da 150 a 200 persone.

Wow addirittura 50 persone, non rischiano di fallire? E questa è la seconda cosa comica, FB ha 23.165 dipendenti (dato 2017), lo sforzo cui sono arrivati è stato assumere ben 50 persone? So bene che fb non è una polizia, ma fa sorridere vedere come il 99% dei siti e blog lecchi fb per ogni minima cosa che si inventano.

Prima erano le segnalazioni "sto bene" dopo disastri naturali, poi è arrivata la moda delle bufale e adesso antiterrorismo, insomma ogni volta FB fa credere di impegnarsi in qualcosa che possa giovare alle persone ed ogni volta la massa di pec0r0ni rimane con la bocca aperta a rimirare le imprese di FB. Siamo nel 2018, sveglia, il 100% di quel che fa faceb è fatto SOLO per profitto

ciro mito

Su fb c'è più revenge porn che su wattsup

IlFuAnd91

Eliminare gli account di tutti quelli che non sono capaci di stare su internet.
E fu così che Facebook dovette chiudere...

momentarybliss

La visualizzazione pubblica di foto di figli minorenni caricate da madri sprovvedute rientra già nel concetto di contenuto inappropriato

Recensione e Riprova Google Pixel Buds Pro, rinate con l'aggiornamento

24H con Oppo Find N2 Flip, la sfida a Samsung è servita | VIDEO

Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO

Copertura 5G, a che punto siamo davvero? La nostra esperienza in città