di A. Rosanna – Alla vigilia delle elezioni del 2020, le più contestate nella storia degli Stati Uniti, le pagine più popolari di Facebook, per esempio quelle con contenuti cristiani o rivolte agli afroamericani, erano gestite da “allevamenti di troll dell’Europa orientale”.
Queste pagine facevano parte di una rete più ampia che ha raggiunto collettivamente quasi la metà di tutti gli americani. Ma questa diffusione non è stata la conseguenza delle scelte degli utenti, che hanno preferito determinati contenuti e li hanno suggeriti agli altri utenti, sono stati avvantaggiati dall’algoritmo affamato di Like di Facebook.
E’ quello che emerge dal rapporto scritto nell’ottobre 2019 e ottenuto ora dal MIT Technology Review da un ex dipendente di Facebook, che ha rivelato come dopo le elezioni del 2016, Facebook non sia riuscito a dare la priorità ai cambiamenti fondamentali nel modo in cui la sua piattaforma promuove e distribuisce le informazioni.
L’azienda ha invece perseguito una strategia di whack-a-mole (acchiappa la talpa) che prevedeva il monitoraggio e il blocco dell’attività di utenti “cattivi” quando si impegnavano in discorsi politici, e l’aggiunta di alcuni paletti che impedivano “il peggio del peggio”.
Ma questo non ha risolto il problema.
Esistono enormi fattorie di troll, fatte di professionisti che lavorano in modo coordinato, ogni giorno, in moltissimi paesi. Il loro compito è pubblicare contenuti provocatori, spesso di propaganda, sui social network, per costruire giganteschi bacini di pubblico.
Il punto però è un altro. I contenuti pubblicati da queste fattorie di troll, nel periodo delle elezioni Usa, raggiungeva i 140 milioni di utenti statunitensi al mese, il 75% dei quali non aveva mai seguito nessuna delle pagine. I contenuti erano visibili perché il sistema di raccomandazione dei contenuti di Facebook lo aveva inserito nei loro feed di notizie.
Negli Usa le troll farm cominciano ad essere un problema, colpiscono principalmente gli Stati Uniti, ma prendono di mira anche il Regno Unito, l’Australia, l’India e i paesi dell’America centrale e meridionale. Facebook ha condotto numerosi studi che confermano che i contenuti che hanno maggiori probabilità di ricevere il coinvolgimento degli utenti (mi piace, commenti e condivisioni) hanno anche maggiori probabilità di essere contenuti fake, fuorvianti o con informazioni parzialmente vere o non verificate. Tuttavia, l’algoritmo è fatto per classificare i contenuti in base al coinvolgimento più elevato.
Facebook vieta alle pagine di pubblicare contenuti semplicemente copiati e incollati da altre parti della piattaforma, ma questo non si applica gli attori stranieri. Ad un certo punto, ben il 40% delle visualizzazioni degli Stati Uniti è andato a quelle pagine con contenuti principalmente non originali o di originalità limitata. Le troll farm si sono precedentemente fatte strada nei Facebook Instant Articles e gli Ad Breaks. A un certo punto, grazie alla mancanza di controlli di qualità di base, ben il 60% delle letture di Instant Article andava a contenuti che erano stati copiati altrove.
I problemi sono tre. Il primo è che Facebook non penalizza le pagine per la pubblicazione di contenuti completamente non originali. Se qualcosa è diventato virale in precedenza, probabilmente tornerà ad essere virale quando verrà pubblicato una seconda volta. Ciò rende davvero facile per chiunque creare un enorme seguito semplicemente copiando i contenuti virali da altre pagine o anche da Reddit e Twitter, e incollarli sulla propria pagina, o talvolta su dozzine di pagine.
In secondo luogo, Facebook invia alle persone contenuti accattivanti anche se non seguono quella pagina. Quando gli amici degli utenti commentano o ricondividono i post su una di queste pagine, quegli utenti lo vedranno anche nei loro feed di notizie. Più il contenuto di una pagina viene commentato o condiviso, più viaggia oltre i suoi follower. Ciò significa che le troll farm, la cui strategia è incentrata sulla ripubblicazione dei contenuti più accattivanti, hanno un’enorme capacità di raggiungere un nuovo pubblico.
In ultima analisi, il sistema di ranking di Facebook spinge i contenuti più accattivanti più in alto nei feed di notizie degli utenti. Per la maggior parte, le persone che gestiscono le fattorie dei troll hanno motivazioni finanziarie piuttosto che politiche. Queste pubblicano tutto ciò che riceve il maggior coinvolgimento, con poca attenzione al contenuto effettivo. Ma poiché la disinformazione, i clickbait e i contenuti politicamente divisivi hanno maggiori probabilità di ricevere un elevato coinvolgimento (come riconoscono le analisi interne di Facebook), le fattorie di troll crescono enormemente con sempre più follower.
Una ricerca di tutte le pagine di troll farm elencate nel rapporto rivela che cinque sono ancora attive quasi due anni dopo:
- “My Baby Daddy Ain’t Shit”, che era la più grande pagina Facebook rivolta agli afroamericani nell’ottobre 2019.
- “Savage Hood”, che prende di mira gli afroamericani.
- “Hood Videos”, rivolta agli afroamericani.
- “Scopo della vita”, rivolta ai cristiani.
- “Eagle Spirit”, che prende di mira i nativi americani.
La ricerca di qualcosa di nuovo e al riparo da detrattori indesiderati sta portando alla nascita di vari strumenti alternativi, dai motori di ricerca che ti pagano per vedere la pubblicità, all’ex presidente Trump che nel 2022 lancerà “the Truth”, il suo social network.
Il problema delle informazioni esiste da molto tempo, oggi è divenuto un pericoloso strumento, almeno da quando è stato provato che è possibile orientare le informazioni e le priorità di una buona fetta di pubblico. Anche Facebook ha creato la sua lista di persone e organizzazioni pericolose che monitora. Il punto è dolente e fortemente divisorio, perché l’accesso indiscriminato non è più possibile, la limitazione di parola è antidemocratica. Ma Facebook resta pur sempre un’azienda privata.
Cosa fare? Cosa faranno?