9 Aprile 2018

Analisi degli algoritmi che favoriscono la diffusione delle teorie cospirative sui social

Questi algoritmi che favoriscono la propagazione delle teorie cospirative: il caso YouTube

Mentre i governi e la Commissione Europea si sforzano di rendere le maggiori piattaforme digitali più responsabili rispetto alla circolazione di “notizie false” e di “teorie del complotto”, una serie di ricerche ci permette di capire meglio i meccanismi della loro diffusione: il ruolo centrale degli algoritmi e, sullo sfondo, il modello di business di queste piattaforme basato sulle pubblicità.

“Apriamo Facebook, navighiamo in rete, commentiamo, molliamo qualche like, ci facciamo catturare da un video in auto-play, proseguiamo su YouTube, clicchiamo sui consigli della colonna di destra … Crediamo di agire liberamente, ma una gran parte di questo percorso è solo ciò che i tecnici di queste piattaforme hanno tracciato per noi, il cui obiettivo è quello di tenerci attivi e vincolati, per raccogliere quanti più dati possibili e proporci il maggior numero possibile di annunci” (Uzbek e Rica).

Il caso YouTube è, da questo punto di vista, emblematico.

A differenza di Facebook o Twitter, dove gli utenti vedono il contenuto degli account che scelgono di seguire, YouTube è proattivo nel consigliare video che gli utenti potrebbero non aver visto in altro modo.

Questa piattaforma ha 1,5 miliardi di utenti nel mondo, che cumulativamente visualizzano oltre un miliardo di ore al giorno in tutto il mondo, è 10 volte di più rispetto al 2012. Dietro questa crescita si nasconde un algoritmo che attraversa e classifica miliardi di video per identificare e consigliare 20 video visualizzati sulla destra. Questi consigli sono causa di oltre il 70% del tempo di visualizzazione. Prescrivente; in questo modo questo algoritmo modella ciò che le persone guardano.

Ogni volta, Google annuncia la rimozione di video “offensivi” così come la demonetizzazione del network all’origine di questi video. Nel dicembre 2017, YouTube ha annunciato la creazione di un team di 10.000 persone incaricate di moderare la piattaforma: un compito titanico quando sai che ogni minuto vengono pubblicate 400 ore di video. Per aiutare i moderatori nel loro compito, un algoritmo basato su l'”apprendimento automatico” effettua una prima selezione, eseguendo la scansione dei tag forniti dall’utente, delle parole del titolo o anche delle immagini per comprendere il contenuto. Susan Wojcicki, amministratore delegato di YouTube, ha dichiarato a dicembre che “il 98% dei video estremisti e violenti” eliminati, viene rilevato grazie agli algoritmi e che “il 70% di questi viene rilevato entro otto ore dal download e quasi la metà in due ore”.

Nonostante questo esercito di moderatori e l’intelligenza artificiale mobilitata per individuare i video degli estremisti, permangono gravi problemi.

Nessun sistema è perfetto”

Lo scorso gennaio, la star di YouTube Logan Paul (16 milioni di follower su Twitter e 12 milioni di abbonati al suo canale YouTube) ha scatenato una nuova polemica postando un video che mostra il cadavere di una persona che si era suicidata impiccandosi in Giappone.

Nel marzo 2018, un Business Insider ha rivelato che la piattaforma YouTube Kids, rivolta nello specifico ai bambini (Google garantisce che non ci sono “contenuti offensivi”), ha ospitato molti video che promuovono teorie cospirative. Digitando “sbarco sulla luna” o “scie chimiche”, i bambini potevano trovare video che sostengono che l’uomo non ha mai camminato sulla luna, che il mondo è dominato dalle lucertole o che la terra è piatta. Questi video compaiono nei suggerimenti, a destra. In seguito a questa controversia, YouTube ha ammesso che “nessun sistema è perfetto e talvolta ci sfugge l’obiettivo”.

Resta da capire perché i video violenti e con teorie del complotto vengono sistematicamente messi in primo piano.

Un anno fa, William Chaslot, ex dipendente di YouTube, aveva iniziato, tramite la piattaforma AlgoTransparency, a mettere in luce le distorsioni dell’algoritmo di raccomandazione di YouTube.”Poiché io stesso ho lavorato sull’algoritmo di raccomandazione di YouTube”, spiega Guillaume Chaslot, “ho iniziato a indagare e sono giunto alla conclusione che il potente algoritmo che avevo contribuito a progettare gioca un ruolo importante nella diffusione di informazioni false”. Per rilevare i video che YouTube suggerisce, ha sviluppato un programma di esplorazione dei suggerimenti che estrae i video più consigliati per una determinata richiesta. Quindi confronta i primi 20 risultati provenienti da identiche richieste su Google e YouTube Search. Quindi, per la domanda “La terra è piatta o rotonda? Il motore di ricerca di Google mostra solo il 20% dei risultati che rafforzano l’affermazione che la terra è piatta; il motore di ricerca di YouTube, il 35%; lo strumento di raccomandazione, il 95%! Le altre richieste (“Chi è il Papa?”, “Il riscaldamento globale è una realtà?”, “Il Pizzagate è vero?”, “Chi è Michelle Obama?”) presentavano le stesse distorsioni, con alti o altissimi tassi di video cospirativi raccomandati. Queste distorsioni sono ancora più sorprendenti quando gli algoritmi di YouTube (il motore di ricerca e i suggerimenti) utilizzano gli stessi dati. La spiegazione sta negli obiettivi assegnati ai due algoritmi di YouTube: l’algoritmo di ricerca è ottimizzato per uno scopo di rilevanza, mentre l’algoritmo delle raccomandazioni tiene maggiormente in considerazione il tempo di visualizzazione (e quindi il tempo di esposizione agli annunci pubblicitari).

In altre parole, se l’algoritmo di raccomandazione mostra un numero elevato di video che dicono “la terra è piatta”, è perché questi video mantengono connessi gli utenti più a lungo di quelli che dimostrano che “la terra è rotonda” .

Un doppio effetto valanga

Questo pregiudizio viene quindi amplificato da un primo effetto “valanga”. Il fatto che l’algoritmo di raccomandazione favorisca i video cospirativi, incoraggia i loro autori a proporne di nuovi, che a loro volta supportano questa teoria. Secondo lui, YouTube proporrebbe due milioni di video che spiegano che “la terra è piatta”.

Il secondo effetto valanga sta nell’attrazione che suscitano i video “disgreganti” e sensazionalisti: nel corso di una ricerca, gli utenti cliccano un video sensazionalista sul lato destro dello schermo. Iniziano a guardarlo per curiosità. Alcuni di loro hanno dei dubbi e quindi trascorrono del tempo su YouTube per ulteriori informazioni. Questi video sono concepiti per attirare l’attenzione, in modo che gli utenti ci passino del tempo; è ciò che l’algoritmo tiene in considerazione per raccomandare e mettere questi video in evidenza.

Secondo il sociologo Zeynep Tufekci, autore di “Twitter and Tear Gas: The Power and Fragility of Networked Protest” (2017), YouTube è progettato in modo tale da offrire all’utente contenuti sempre più disgreganti. “Per YouTube è come se niente fosse mai abbastanza hardcore … perché l’algoritmo si è reso conto che se riesci a convincere la gente a pensare che puoi mostrare loro qualcosa di più hardcore, è probabile che rimangano più a lungo, e intanto Google dà loro la pubblicità “.

Negli ultimi 18 mesi, Guillaume Chaslot ha utilizzato il programma per esplorare i pregiudizi nei video raccomandati nelle elezioni francesi, britanniche e tedesche sul riscaldamento globale e le sparatorie di massa. I risultati pubblicati su AlgoTransparency mostrano che YouTube continua a mettere in evidenza video sensazionalistici e cospirativi. Il suo software simula il comportamento di un utente che inizia su un video e poi riparte con i video consigliati: salva diversi livelli di video che YouTube suggerisce nella colonna “Da seguire”. Dopo essersi assicurati che i video individuati siano i consigli generici di YouTube, piuttosto che i video personalizzati per un utente, il software ripete il processo migliaia di volte, accumulando strati di dati sui consigli di YouTube per la raccolta delle preferenze dell’algoritmo.

In un’indagine molto documentata, The Guardian si è impegnato a comprendere l’impatto di YouTube sull’elezione di Donald Trump, avvalendosi di un database degli 8.000 video più consigliati da YouTube, a risultato delle ricerche “Trump” e “Clinton” nei tre mesi precedenti le elezioni presidenziali. Oltre alle trasmissioni di dibattiti presidenziali, agli spot televisivi, alle scenette del Saturday Night Live o ai discorsi di entrambi i candidati, questo corpus conteneva un numero sproporzionato di video anti-Clinton più o meno cospirativi, sostenendo che Hillary Clinton aveva avuto una depressione mentale, sottolineando che aveva la sifilide o il morbo di Parkinson, accusandola di avere rapporti sessuali segreti, anche con Yoko Ono, accusandola di coinvolgimento in omicidi o collegandola a culti satanici e pedofili.

Passando al setaccio i 1.000 video più consigliati, hanno trovato 551 video a favore di Trump, e solo 92 a favore della campagna Clinton: YouTube era quindi sei volte più propenso a consigliare video che aiutassero Trump rispetto al suo avversario.

La diffusione della teoria dei “Crisis Actors”

Dopo la teoria delle “False Flags”, per spiegare certi avvenimenti, adesso i cospirazionisti ricorrono alla teoria del “crisis actor” per squalificare i testimoni di determinati eventi, come gli omicidi di massa .

Così, la teoria dei “crisis actor” si è ampiamente diffusa su Facebook, Twitter e YouTube dopo il massacro di Parkland. Jonathan Albright, direttore della ricerca presso il Tow Center for Digital Journalism, si è immerso nelle viscere di YouTube per misurare la diffusione di questa teoria. Partendo dalla parola chiave “crisis actor”, è giunto, attraverso lo strumento di raccomandazione di YouTube, a una rete di 8.842 video (associati al massacro di Parkland), la maggior parte dei quali contiene una teoria cospirativa, e che sommano in totale 4 miliardi di visualizzazioni.

A seguito di tali casi, i portavoce di Google affermano regolarmente che l’algoritmo “va al di là dell’ottimizzazione del tempo trascorso sulla piattaforma” e che nel 2016 la piattaforma “ha iniziato a includere la nozione di “soddisfazione” nei sistemi per assicurarci che le persone siano soddisfatte di ciò che stanno guardando (tramite l’uso di diversi segnali come i pulsanti “Mi piace” o “Non mi piace”, il passaggio di un video o un altro, le condivisioni, la diversità dei contenuti e i sondaggi sulla soddisfazione). L’opacità dell’algoritmo non consente di sapere fino a che punto è stato modificato per contenere la diffusione di questi video.

YouTube rivendica lo stato di host: in quanto tale, la società si rifiuta di rimuovere i video di cospirazione, ritenendo che cadano sotto la libertà di espressione. Per rimuoverli, dovrebbero essere in violazione delle condizioni generali d’uso; tuttavia, questi ultimi non hanno previsto nulla del genere per i video di cospirazione.Sotto la triplice pressione dell’opinione pubblica, degli inserzionisti e dei governi, Susan Wojcicki ha annunciato il 14 marzo che la piattaforma ora mostrerà degli estratti dall’enciclopedia di crowdsourcing Wikipedia accanto a video segnalati o individuati come cospirativi. Ha menzionato due casi in cui sarebbero stati attivati degli estratti da Wikipedia: lo sbarco sulla luna nel 1969 e le scie chimiche. La Wikimedia Foundation, che ospita Wikipedia, ha comunicato di non essere stata “informata in anticipo di questo annuncio” e che nessuna partnership è stata formalmente conclusa con YouTube.

Suicidio presso la sede di YouTube

Martedì 3 aprile 2018, nella sede di YouTube, a San Bruno, vicino a San Francisco, Nasim Najafi Aghdam ha aperto il fuoco, ferendo 4 persone, prima di suicidarsi. Utente di YouTube, Nasim Najafi Aghdam ha creato molti video che ha condiviso su quattro canali YouTube, in diverse lingue. Prima di questo atto, sul suo sito, accusava YouTube di discriminarla e censurarla. Si lamentava che i suoi vecchi video, molto popolari, non venivano più visti perché “filtrati” e denunciava la “dittatura di YouTube”.

Le recriminazioni di Nasim Najafi Aghdam, come quelle dell’Alt-Right americana contro la censura, mostrano che l’algoritmo ora limita la propagazione di alcuni video violenti o carichi d’odio. Resta il fatto che, le contromisure (demonetizzazione, chiusura dei conti) e le ricerche dei contenuti di cospirazione si scontrano frontalmente con un modello economico basato sulla pubblicità, che spinge ad anteporre i video catch-and-click e quelli che massimizzano il tempo impiegato.