07 Giugno 2018
Nelle ultime ore Facebook ha parlato ampiamente di come viene gestita la rimozione del contenuto inappropriato sulla propria piattaforma: ieri ha illustrato gli effetti della lotta ai contenuti legati al terrorismo nel primo trimestre del 2018, mentre oggi ha pubblicato le linee guida generali, che comprendono argomenti come violenza, pubblicità invasiva, molestie, terrorismo, incitamento all'odio e furto di proprietà intellettuale.
La rimozione di post e media legati al terrorismo è particolarmente importante, anche perché è uno dei punti su cui i legislatori europei insistono di più. Facebook ha detto che l'intelligenza artificiale è uno strumento fondamentale, ma non sufficiente da solo: per questo il suo team interno dedicato al terrorismo è stato ampliato, da 150 a 200 persone.
Facebook si è concentrato in particolare sui contenuti diffusi da Al Qaeda e ISIS, considerati i due gruppi più pericolosi, e ha detto di averne rimossi 1,9 milioni nel solo primo trimestre del 2018 - circa il doppio rispetto allo stesso periodo dell'anno scorso. Da notare che il 99 per cento di questo contenuto è stato rimosso dall'AI e dal team prima dell'arrivo di una segnalazione da parte degli utenti.
I contenuti più recenti, inoltre, vengono identificati in meno di un minuto dal caricamento grazie all'intelligenza artificiale - il tempismo è un parametro molto importante per limitare i danni che questi contenuti causano sulla piattaforma. Facebook dice che sta anche lavorando a strumenti in grado di rilevare post più vecchi: nel Q1 ne ha cancellati circa 600.000.
Facebook riconosce che il progresso compiuto non è ancora sufficiente, e sottolinea che la sfida è molto complessa.
I gruppi terroristici tentano costantemente di aggirare i nostri strumenti, e così dobbiamo sempre migliorare. Ricercatori esterni e il nostro team interno trovano costantemente contenuti che sfuggono alla nostra tecnologia. Ma impariamo da ogni errore, testiamo nuovi metodi di rilevamento e cerchiamo di espandere la lista di gruppi terroristici da sorvegliare.
Interessante, infine, riportare la definizione di "terrorismo" applicata da Facebook:
Qualsiasi organizzazione non governativa che esegue atti di violenza premeditati contro persone o cose per intimorire una popolazione civile, un governo o un'organizzazione internazionale al fine di perorare la propria causa politica, religiosa o ideologica.
Importante l'esclusione dei governi: l'argomentazione di Facebook si basa sull'opinione generale accademica e legale che, in alcune circostanze, l'uso di violenza da parte dello stato è legittimo.
Le linee guida per i revisori sono racchiuse in un documento di 25 pagine, e trattano tutti i casi in cui un contenuto deve o non deve essere rimosso. Facebook non le ha mai rese pubbliche per evitare di facilitarne l'aggiramento, ma è facile immaginare come oggi sia più importante curare la propria immagine di società chiara e trasparente. Dal canto suo, Facebook cita due motivi:
Primo, le linee guida aiuteranno la gente a capire come gestiamo le situazioni più sfaccettate. Secondo, sarà più semplice per tutti, inclusi esperti in molteplici campi, fornirci feedback per migliorare le linee guida - e le decisioni che prendiamo - nel tempo.
Tra l'altro, qualche tempo fa un'inchiesta del Guardian era riuscita a impossessarsi in modo ufficioso del manuale, o almeno di una sua parte.
Le linee guida saranno tradotte in tutte e 40 le lingue in cui operano i moderatori della piattaforma: sono già disponibili, interamente in italiano, a QUESTO indirizzo.
Facebook spiega che ha 11 uffici nel mondo che si occupano di stilare e mantenere aggiornate le linee guida. I dipendenti sono esperti di vari settori - da pubblici ministeri a studiosi delle organizzazioni che diffondono l'odio, passando per psicologi specializzati nell'assistenza alle vittime di violenze sessuali e avvocati per i diritti umani. Le linee guida sono applicate da uno staff di 7.500 persone, una crescita del 40 per cento rispetto all'anno precedente; l'intero dipartimento lavora 24 ore su 24, 7 giorni a settimana.
Ogni membro dello staff deve decidere come applicare le regole, il che lascia margine per qualche inevitabile errore di interpretazione. Facebook sta lavorando per permettere a chiunque di sporgere reclamo per un contenuto rimosso: entro l'anno verrà attivato per nudità e attività sessuali, incitamento all'odio, e violenza esplicita. Funzionerà così:
- Chi ha pubblicato dei contenuti inappropriati riceverà una notifica con possibilità di sporgere un reclamo
- Entro 24 ore (normalmente) il contenuto viene nuovamente esaminato: in questo caso la seconda analisi viene sempre effettuata da un essere umano.
- Nel caso in cui il reclamo porti a un'inversione della decisione si riceverà una notifica e il contenuto sarà ripristinato.
Commenti
ormai la logica che certe persone adottano è la seguente: se le foto del minore le pubblicano i genitori, allora va bene (c'è tutela...dove poi me lo devono ancor a spiegare), se le foto le pubblicano altri, allora è reato...ma non hanno ancora capito che una volta che si pubblica qualcosa senza alcun filtro, la privacy, sul web, va a farsi benedire...e delle foto non hai più alcun controllo...
mica scema l'AI, istruita a dovere pure lei ;)
anzi, continuano ad aumentare
Faccialibro è inappropriata in una mente sana
Le fake news sono pericolosissime, ma vedo che continuano a circolare indisturbate
La definizione di "terrorista" di FB e di tutti i suoi amici dello stesso schieramento è "persona di etnia caucasica e di religione non musulmana che attenta alla vita altrui per motivi politici".
Gli altri sono solo "lupi solitari", "squilibrati mentali", "persone con problemi"...
Avrà detto...
- Trmp m f schf.....No, Signore, non ne so nulla!
Vincere la lotta è facile.
No a Faccia Buco!
Facebook manda avanti inesorabilmente la censura politica a favore della dittatura del pensiero unico.
Durante l'audizione al Senato il senatore Cruz lo ha messo spalle al muro, riportando numerosi casi di censura contro contenuti vicini al partito repubblicano. Zuckerberg ha balbettato qualcosa per poi dire che non ne sa nulla.
"Qualsiasi organizzazione non governativa che esegue atti di violenza premeditati contro persone o cose per intimorire una popolazione civile, un governo o un'organizzazione internazionale al fine di perorare la propria causa politica, religiosa o ideologica."
come mai l'AI non ha bannato facebook stesso?
Guarda che facebook ha provato a cancellarsi perché risultava sotto la voce terrorismo semplicemente non ha potuto farlo perché gli veniva scritto "facebook è in uso da un altro processo" xD
Interessante, infine, riportare la definizione di "terrorismo" applicata da Facebook:
Qualsiasi organizzazione non governativa che esegue atti di violenza premeditati contro persone
Direi abbastanza comica la cosa, calcolando che facebook ha rovinato il mondo e dato voce e sopratutto importanza a spazzatura come sciachimisti/antivax/bufalari e company.
Facebook ha detto che l'intelligenza artificiale è uno strumento fondamentale, ma non sufficiente da solo: per questo il suo team interno dedicato al terrorismo è stato ampliato, da 150 a 200 persone.
Wow addirittura 50 persone, non rischiano di fallire? E questa è la seconda cosa comica, FB ha 23.165 dipendenti (dato 2017), lo sforzo cui sono arrivati è stato assumere ben 50 persone? So bene che fb non è una polizia, ma fa sorridere vedere come il 99% dei siti e blog lecchi fb per ogni minima cosa che si inventano.
Prima erano le segnalazioni "sto bene" dopo disastri naturali, poi è arrivata la moda delle bufale e adesso antiterrorismo, insomma ogni volta FB fa credere di impegnarsi in qualcosa che possa giovare alle persone ed ogni volta la massa di pec0r0ni rimane con la bocca aperta a rimirare le imprese di FB. Siamo nel 2018, sveglia, il 100% di quel che fa faceb è fatto SOLO per profitto
Su fb c'è più revenge porn che su wattsup
Eliminare gli account di tutti quelli che non sono capaci di stare su internet.
E fu così che Facebook dovette chiudere...
La visualizzazione pubblica di foto di figli minorenni caricate da madri sprovvedute rientra già nel concetto di contenuto inappropriato