Vai al contenuto

Guerra alle fake news: ecco il bollino rosso di Facebook

Facebook contro le fake news: entra nel vivo la campagna del colosso dei social contro la diffusione di notizie false e fuorvianti. Lanciata a fine 2016, è di qualche giorno fa il primo round: sul terreno di scontro – la timeline – è comparso il primo bollino rosso a un post condiviso, una notizia su presunte intrusioni nello smartphone del presidente degli Usa Donald Trump. Ad accompagnarlo, un punto esclamativo rosso in un triangolo bianco, su sfondo rosso, con la didascalia: “Contestato da Snopes.com e Politifacts“.
fake_news


Il link all’articolo rimandava al sito The Seattle Tribune, un giornale satirico che gioca moltissimo sulla verosimiglianza con un normale sito di informazione. Secondo le società che lo hanno esaminato farebbe capo a un portale, chiamato Associate Media Coverage, specializzato nella diffusione di notizie false.

Le armi spuntate di Facebook

Facebook lo aveva annunciato alla fine dello scorso anno e ora il bollino rosso è comparso, (solo negli Usa). Limitato, sperimentale e imperfetto, il servizio dovrebbe essere migliorato ed esteso nelle prossime settimane, ma già mostra le prime, intrinseche faglie.
Le due società sopra citate – Snopes.com e Politifacts – insieme ad altri soggetti, stanno collaborando con Facebook al fact-checking dei contenuti segnalati, secondo un codice etico redatto dalla prestigiosa scuola di giornalismo Poynter Institute. Obbiettivo: individuare le bufale e isolarle. Il metodo è rigoroso e le intenzioni nobili, ma la battaglia appare giocata con armi spuntate: il bollino infatti rimandava a una notizia falsa, ma anche esplicitamente proposta come satira, e tacciata come “fake” solo dopo centinaia di migliaia di clic.
Il procedimento è quello della segnalazione degli utenti e il bollino rosso arriva (se e quando arriva) solo al termine di una serie di passaggi:

  • qualche utente deve riconoscere in un certo contenuto come fake news e segnalarlo;
  • le segnalazioni devono superare una certa soglia in termini numerici, perché Facebook lo prenda in carico;
  • A quel punto il contenuto viene sottoposto all’analisi di almeno due organizzazioni terze, che svolgono il lavoro fact checking, cioè verifica basata su procedure codificate, sul contenuto segnalato
  • Se al termine di questo lavoro – che richiede tempo – entrambe le società stabiliscono che il contenuto è una bufala, Facebook lo segnala tramite il bollino in fondo alla finestra per la condivisione e sulla timeline.

Un contenuto può quindi circolare diversi giorni prima che venga riconosciuto e “bollato”; non esiste ovviamente un codice universale per riconoscere il vero dal falso (o la satira dalla bufala), tanto meno un algoritmo.
Ma è solo il primo dei vari strumenti che Facebook vuole implementare durante il 2017 contro una battaglia che si gioca su più fronti.
Tra gli obbiettivi annunciati da Mark Zuckenberg a dicembre, e di prossimo arrivo, c’è quello di bloccare la pubblicità per i canali che diffondono fake news. Il più ambizioso invece è quello che guarda appunto agli algoritmi. Zuckenberg vorrebbe “migliori sistemi tecnici per individuare ciò che la gente segnerà come falso prima che lo facciano loro stessi”. Quanto è fattibile e auspicabile un metodo simile?
Zuckenberg da sempre corre sul filo sottile della distinzione tra media company e piattaforma: noi, dice sostanzialmente, non pubblichiamo contenuti ma ne consentiamo la diffusione. Se quindi Facebook ha un certo interesse a tenere “pulito” il proprio ambiente, allontanando le informazioni che lo inquinano, dall’altro non vuole vestire in toto i panni del censore: difficile rinunciare a certi volumi di traffico. Così i contenuti restano sì bollati, ma condivisibili.