di Silvia Brena, VoxDiritti, Coordinamento Rete nazionale per il contrasto ai discorsi e ai fenomeni d’odio
“Gioco, partita, incontro”. È il tweet di Elon Musk la sera della vittoria elettorale di Donald Trump, il 5 novembre scorso. Una vittoria, che il proprietario di X e di innumerevoli altre aziende (in palese conflitto di interessi con il ruolo che andrà a ricoprire nell’amministrazione Trump), si è intestato, non solo per il fiume di denaro scucito per supportare il suo candidato, ma anche per il ruolo che la piattaforma X ha svolto nell’ascesa trumpiana. Un ruolo sfacciato, secondo molti osservatori, che presenta tuttavia caratteristiche inedite nel panorama della manipolazione formato social.
Dall’inizio.
Musk acquista la piattaforma preferita da politici e giornalisti nell’ottobre del 2022 e la sopravvaluta, a detta del mercato, sborsando 44 miliardi di dollari. Le sue prime mosse evidenziano in ogni caso quella che prenderà forma come la sua visione politica. Il primo atto? Seimila licenziamenti in pochi mesi, l’80 per cento degli addetti. Tra i licenziati, il comparto più rilevante è quello dei moderatori, addetti a filtrare i contenuti e ad allertare i firewall della piattaforma in presenza di hate speech e fake news. Come dire, abbassate i ponti, ogni contenuto è permesso.
Musk si giustifica sostenendo che non bisogna porre limiti alla libertà di parola. Ma pare che ciò che lo motivi sia soprattutto l’aver scoperto che la maggior parte dei dipendenti di Twitter, in osservanza alla cultura della Silicon Valley, è orientato a sinistra: il 98% delle donazioni proveniente dalle persone impiegate in Twitter va infatti al Partito Democratico. È un primo passo importante, non solo perché apre appunto alla proliferazione dei discorsi d’odio, come anche le rilevazioni dei soggetti di Rete confermano (dalla Mappa dell’Intolleranza di VoxDiritti al Barometro dell’Odio di Amnesty).
Anche perché Musk riorienta gli assetti culturali vigenti nell’azienda acquisita. Così, sempre in nome della libertà di parola, riammette i profili di haters sin lì bannati. Primo, lo stesso Trump. E poi figuri come Alex Jones, un cospirazionista pluricondannato, che tra le altre cose ha sostenuto che la strage di Sandy Hook, dove furono uccisi 20 bambini, è un’invenzione.
Un altro importante passo è stato l’eliminazione della spunta blu che identificava fonti affidabili, un sistema di certificazione dell’identità del titolare di un account che Twitter offriva agli utenti più influenti. Oggi è riservata a chi ha sottoscritto un abbonamento.
E veniamo al presente.
Oggi Elon Musk ha 200 milioni di follower. Un vero, grande influencer, molto attivo sulla sua piattaforma.
Come riporta l’Internazionale, tra il 5 ottobre e il 5 novembre ha pubblicato 3247 tweet, con una media di cento tweet al giorno. Il tenore? “Kamala è crudele”, per esempio. Oppure: “Lei non è intelligente. Davvero”.
I suoi tweet sono stati letti più di un miliardo di volte.
Un’inchiesta del francese Le Monde ha evidenziato come Musk abbia trasformato il suo social in una macchina di propaganda.
Più di un terzo dei suoi tweet politici, infatti, erano dichiaratamente a sostegno di Trump, trasformando lui e la sua platform nel più formidabile supporter trumpiano.
“Figh fight fight. Vote vote vote”, un altro tweet pubblicato a poche ore dal voto.
Così, se in passato abbiamo assistito a tentativi più o meno riusciti di plagiare i contenuti dei social, abbiamo visto all’opera le shit storm, abbiamo assistito alle incursioni di “guastatori” russi o di altra dubbia provenienza, adesso lo scenario è cambiato. Perché un imprenditore ricchissimo si arroga il diritto di manipolare contenuti rifilati a milioni di cittadini per lo più privi della possibilità di confronto con altre fonti. Sempre Le Monde identifica tre pilastri della strategia di Musk. Interessante, esaminarli.
Primo, una presa di posizione diretta ed estrema, a tratti violenta, contro gli “avversari”, i democratici. E fa niente se molte delle esternazioni proposte contengono proposizioni evidentemente false, tipo “Kamala detesta i cristiani”.
Secondo. Attacchi violenti contro i media, da delegittimare, secondo il nostro, perché tutti schierati a sostegno del Partito Democratico.
Terzo. Un uso indiscriminato e pericoloso di disinformazione e fake news, seminando dubbi sulla regolarità delle elezioni e suggerendo che i Democratici avrebbero favorito i migranti per diluire il voto dei Repubblicani.
Dubbi, falsità, odio.
Così si manipola l’opinione pubblica.
X è una piattaforma mediatica tossica e il suo proprietario, Elon Musk, è stato in grado di usare la sua influenza per condizionare il dibattito politico per le elezioni americane. Questo, il senso delle motivazioni con cui il quotidiano inglese The Guardian ha abbandonato la piattaforma e i suoi 27 milioni di follower. Una decisione, seguita da molti altri, come il giornale spagnolo La Vanguardia, il Festival del film di Berlino, la Scuola Holden di Torino e moltissimi esponenti del mondo della cultura e dello spettacolo.
Seminare dubbi, avvalorare falsità, diffondere odio.
X è sempre più polarizzato e polarizzante.
Un ricercatore francese ha dimostrato che su Twitter i contenuti tossici erano sovra rappresentati del 30% prima dell’avvento dell’era Musk. Qualche mese dopo il suo arrivo, la percentuale di hate speech era salita al 48,7%. Così anche chi non vuol essere esposto all’odio online otterrà comunque un’esposizione a contenuti tossici superiore del 50% a quelli che normalmente vedrebbe. La temperatura sale, la lettura della realtà viene manipolata. E si vincono le elezioni.
Sappiamo molto, moltissimo, sui meccanismi che governano il nostro apparire sulle vetrine social.
Sappiamo che c’è una specificità dei social sia nella moltiplicazione, che nella creazione di gruppi chiusi a forte imprinting culturale. Conosciamo il fenomeno delle cosiddette filter bubble, bolle create da algoritmi e modellate su una totale omogeneità di opinioni e assetti culturali.
È il fenomeno delle echo chambers. Decine di studi, tra cui la Mappa dell’Intolleranza di VoxDiritti, hanno dimostrato e stanno dimostrando che l’introduzione di algoritmi capaci di segmentare le communities sui social per ottenere profilazioni di dati sempre più efficaci e sofisticate, ha fatto sì che persone il cui corredo emotivo, psichico, culturale equivalesse, si ritrovassero a scambiarsi i loro convincimenti in una sorta di spazio virtuale che gli ha fatto da eco. Uno spazio virtuale, che può essere occupato, usato e manipolato da chi ha interesse a diffondere panico e rabbia. Gli psicologi parlano di bias dell’ingroup, di quegli elementi cioè che rafforzano i nostri pregiudizi. Vale a dire: se sono un terrapiattista e mi ritrovo in mezzo a una camera dell’eco con altri terrapiattisti, la mia visione del mondo non può che uscirne rafforzata. E io la rafforzerò, per poter far parte di quel gruppo.
Così viaggiano i pregiudizi contro le donne che non devono lavorare e si devono sottomettere. E contro gli ebrei untori da secoli. E contro i musulmani, che sono tutti terroristi.
Così viaggia la paura.
E si alimenta.
Perché sappiamo anche che gli algoritmi che governano i social sono stati pensati per scatenare emozioni intense: sappiamo che quegli stessi algoritmi favoriscono la diffusione di contenuti fortemente polarizzati (negativi o positivi). E che sono i contenuti fortemente polarizzati al negativo a essere premiati dagli algoritmi, perché scatenano una reazione più immeditata e producono quindi più like.
Dunque, gli anticorpi.
Da febbraio in Europa è entrato in vigore il Digital Service Act, che stabilisce che ogni Stato membro deve avere un organismo regolatore che segnali i contenuti illegali alle piattaforme, che devono rimuoverli entro 24 ore altrimenti rischiano sanzioni fino al 6 per cento del fatturato annuo globale. È molto, ma non basta. Denunciare, monitorare, creare un tessuto culturale favorevole all’inclusione. È ciò che fa dalla sua nascita la Rete contro l’odio, creando sinergie e favorendo scambi di conoscenza tra tutti gli attori che si occupano di contrasto ai discorsi d’odio. E ancora non basta. Vanno coinvolte le università e i loro centri di ricerca; vanno coinvolte le amministrazioni cittadine, primo fronte per arginare il diffondersi di odio e violenza. Come Rete lo stiamo facendo con progetti importanti, come a Brescia, e altre città stanno pensando di aderire alla nostra proposta e dichiararsi “hate free”. E vanno coinvolte le scuole, il terreno dove lo hate speech si trasforma in bullismo e cyberbullismo, ormai una vera piaga sociale.