Come i governi manipolano Facebook: il primo report del social network sulla disinformazione

Dopo mesi di polemiche su fake news, propaganda, attacchi informatici condotti da Stati e relative diffusioni di dati, Facebook esce allo scoperto e prende posizione sul tema. Il social network ha infatti pubblicato il suo primo rapporto sulle “operazioni di informazione”, guerre informative tra Stati condotte in modo sotterraneo anche attraverso la piattaforma.

Le information operations e Facebook
Cosa siano le “information operations” lo spiega lo stesso report. Si tratterebbe di “azioni intraprese da attori organizzati (governi o soggetti non-statali) per distorcere il sentimento politico interno [a una nazione, ndr] o esterno [in una nazione straniera, ndr], soprattutto per raggiungere un obiettivo strategico e/o geopolitico”. Tali operazioni “includono una combinazione di metodi, quali notizie false, disinformazione, reti di profili finti diretti a manipolare l’opinione pubblica”.
Metodi definiti dal report come “amplificatori falsi”, ma ci torniamo.

Si capisce quindi che siamo ben oltre il territorio già insidioso delle cosiddette fake news, bensì addentro le paludi della propaganda fatta per procura, della manipolazione della pubblica opinione e delle operazioni di intelligence. Una bella gatta da pelare, che però Facebook ha deciso di affrontare perché decisa, come spiega all’inizio del report, ad assicurare un “ambiente sicuro per un coinvolgimento civico autentico”. Il concetto di autenticità è ricorrente nel report (28 volte, tra autentico e inautentico) perché il problema per Facebook non è prendere posizione su specifici contenuti ma sui metodi usati per diffonderli. Nel mirino è dunque l’uso di reti di profili finti e notizie finte o manipolate per condizionare quello che per la piattaforma dovrebbe essere il dibattito naturale, scaturito naturalmente dai suoi utenti, ammesso e non concesso che tale concetto esista, su Facebook e in qualunque altro contesto mediatico.

Una questione di sicurezza
Ad ogni modo, per Facebook si tratta di una questione in primo luogo di “sicurezza”. “Non mi sorprende” nota a La Stampa Thomas Rid, professore di Security Studies al King’s College, “le operazioni di intelligence ricadono in questo campo, anche nell’accademia”. E infatti il report associa le “information operations” a una serie di altri fenomeni trattati dall’unità dedicata alla security: “abbiamo dovuto espandere la nostra attenzione da comportamenti abusivi tradizionali, come l’hacking di profili, malware, spam e truffe finanziarie, per includere forme più sottili e insidiose di abuso, tra cui tentativi di manipolare il discorso civico e di ingannare le persone”.

La piattaforma di Zuckerberg riconosce dunque per la prima volta di poter essere usata da soggetti politici organizzati per condizionare un risultato, un contesto. E questo perché ogni utente è “potenzialmente un amplificatore”, rilanciando con forza una causa in cui crede. Col risultato che - e qua il report pesta un vespaio - azioni coordinate che usino profili e notizie false possono poi diffondersi attraverso canali e utenti autentici (e inconsapevoli).

Distinguere tra diversi tipi di disinformazione
Che fare dunque? Per prima cosa Facebook prova a fare ordine nella definizione di fake news, avvicinandosi al dibattito già avviato da alcuni giornalisti internazionali. Per cui bisogna smettere di usare questa espressione per indicare qualsiasi cosa: bufale costruite ad arte, errori fattuali, parodie, sarcasmo, ecc. “È positivo che abbiano iniziato a riconoscere la complessità di tutto ciò”, commenta a La Stampa Claire Wardle, direttrice della ricerca a First Draft News, che mesi fa aveva elaborato uno schema per distinguere i diversi tipi di disinformazione.
Il report distingue dunque tra:
• Notizie False: articoli che contengono intenzionalmente fatti falsi con lo scopo di ingannare, agitare, attrarre visualizzazioni
• Amplificatori Falsi: attività coordinate di profili inautentici con l‘obiettivo di manipolare la discussione pubblica (o attaccare una parte)
• Disinformazione: Contenuti inaccurati o manipolati diffusi intenzionalmente

Tre azioni delle information operation
Tutti metodi che possono essere usati e mischiati ad altri nelle information operations. Sulle notizie false, Facebook spiega di starsi già muovendo con iniziative precedenti. Ma aggiunge anche di aver assistito a tre attività di information operations sulla propria piattaforma. Sono le seguenti:
- Raccolta di dati mirata su specifici soggetti, con lo scopo di sottrarre ed esporre informazioni non pubbliche
- Creazione di contenuti, falsi o reali, anche attraverso media e altre parti, e attraverso profili online finti
- Falsa amplificazione, ovvero l’attività coordinata di account inautentici per manipolare la discussione politica


Il caso degli Usa e dei Democratici
Sembrano i tre passaggi che hanno scandito la campagna presidenziale americana e l’attacco ai Democratici (hacking, diffusione di informazioni, loro amplificazione o distorsione a fini propagandistici). E infatti il report la cita come esempio, spiegando come siano stati creati profili falsi su Facebook per diffondere sia i documenti hackerati dei Democratici sia narrative che ne rafforzavano il messaggio. E che però a un certo punto la diffusione è stata anche naturale, propagandosi per normali utenti. L’amplificazione falsa c’è stata dunque, riconosce il report. E tuttavia ha avuto - e questo è importante da sottolineare - un impatto marginale. Come dire: questa volta non c’è stato un condizionamento effettivo, solo un tentativo; ma il problema esisterebbe, specie in prospettiva. Da notare che i dati al riguardo sulla vicenda, dice lo studio, non contraddicono l’attribuzione dell’attacco ai Democratici fatta dall’intelligence americana. Non si nomina la Russia ma di quella si parla.

Le contromisure
In conclusione, per dirla con le parole di Rid, Facebook “riconosce di poter essere sfruttata da attori governativi e non statali, e cerca di concettualizzare pubblicamente il problema per affrontarlo”. Ma forse anche per dimostrare quello che può e non può fare. Il social network afferma di stare prendendo una serie di contromisure per i vari fenomeni elencati. Che si tratti di avvisare gli utenti che sembrano essere presi di mira da attacchi mirati. O smantellare reti di account falsi. E qui cita i 30mila account chiusi in Francia. La piattaforma starebbe usando varie tecniche, incluso il machine learning, per individuare i fake a partire non dai contenuti postati ma dal comportamento (quando postano sempre lo stesso contenuto, o se ci sono picchi anomali nel volume di attività).

No scorciatoie
E tuttavia è evidente - e alla fine il rapporto lo dice esplicitamente - che non esistono scorciatoie legali o tecniche per questo genere di problemi. Che hanno a che fare con questioni come l’educazione e l’alfabetizzazione mediatica. O con la crisi del giornalismo (Facebook non la chiama così, perché sa di avere con i media una «relazione complicata» e non priva di tensioni). E forse è questo il messaggio reale del report.

Commenti

Post popolari in questo blog

Sergio della Pergola :Perchè non condivido quanto scrive Giulio Meotti sulla demografia in Israele

Aeyal Gross : Israel's discrimination of Bedouin gets high court stamp of approval

Yes, Zionism is Settler Colonialism

Shin Bet officers suspected of ordering unwarranted search of Palestinian woman's private parts ***