Hello Quit X - Libera i nostri spazi digitali
I launch the app

Quali sono le prove della tossicità di X ?

> Sto cercando nelle FAQ > Quali sono le prove della tossicità di X ?

Numerosi studi scientifici dimostrano la tossicità di X per gli utilizzatori e per la democrazia in generale.

Danni al benessere degli utenti di X

Il feed di notizie “Per te” è una delle principali fonti di informazione per gli utenti di X. Tuttavia, questo feed di notizie è fortemente sbilanciato verso i contenuti tossici. I ricercatori del Centro nazionale francese per la ricerca scientifica (CNRS) hanno dimostrato->https://www.nature.com/articles/s41598-023-43980-4] che è arricchito del +49% in termini di contenuti tossici (insulti, attacchi personali, oscenità, ecc.) rispetto a ciò che producono le vostre sottoscrizioni (misurate all’inizio del 2023). Per alcuni account, l’aumento della tossicità dell’ambiente percepito può raggiungere il +200%!

Ciò significa che X sta mettendo in evidenza il peggio del vostro ambiente sociale, influenzando così le vostre percezioni. Si noti che Musk ha esplicitamente peggiorato la situazione; prima del suo arrivo, l’amplificazione era “solo” del +32%.

È stato dimostrato che un cambiamento nel News Feed degli utenti ha un impatto diretto sul loro stato emotivo e sul modo in cui si esprimono. Quando la percentuale di messaggi positivi si riduce, gli utenti producono meno messaggi positivi e più messaggi negativi. È stato anche misurato che l’uso di Twitter è legato a una diminuzione del benessere e a un aumento dell’indignazione.

Lesione della coesione sociale.

L’amplificazione dell’ostilità e gli effetti degli algoritmi che raccomandano contenuti e persone agli utenti hanno un effetto complessivo sulle strutture sociali.

È stato misurato che X aumenta la polarizzazione politica e l’ostilità tra gruppi, il che ovviamente non aiuta il dibattito e danneggia la coesione sociale [4, 5].

Proliferazione della disinformazione e dei discorsi incitanti all’odio

Una mancata moderazione su un social network come X può avere conseguenze estremamente gravi, come si è già visto su altri social network.

Ad esempio, Amnesty International ha dimostrato che la mancata moderazione di Facebook ha facilitato la brutale campagna di pulizia etnica del 2017 contro i musulmani Rohingya in Birmania, come anche le gravi violazioni dei diritti umani contro la popolazione tigrina in Etiopia dal 2020 al 2022..

Sotto Elon Musk, il team di moderazione é stat decimato e dei conti precedentemente censurati per incitazione alla violenza, e promozione del nazismo ou homophobie sono stati ristabiliti.

X accetta pienamente di non voler più combattere la disinformazione. Ad esempio, l’azienda ha sospeso la sua politica di lotta alla disinformazione sulla pandemia di covid-19. Se scoppia una nuova pandemia e X è ancora al centro dell’informazione globale, il costo umano sarà considerevole.

X ha anche eliminato il “badge di certificazione” che veniva usato per certificare l’autenticità di un account. Questo è stato trasformato in une badge che indica che un account ha pagato per ottenere visibilità su X. Le conseguenze sono state immediate e non solo in ambito politico: un falso account che si spacciava per l’azienda farmaceutica Eli Lilly ha annunciato che l’insulina prodotta dal gruppo era gratuita. Quel giorno Lilly ha perso il 4,37% della sua capitalizzazione di mercato.

Selezione di pubblicazioni scientifiche

Leggi anche:

Segui la tendenza!

Il #20Gennaio, i nostri strumenti di migrazione saranno pronti per aiutare tutte le persone, e trovare argomenti e seguaci sugli altri social network.

Lascia X il #20Gennaio, non prima, non dopo, e mobilita amici e amiche, familiari e gruppi su tutte le piattaforme per far parte del movimento e aiutare tutti e tutte a lasciare X!

Segui HelloQuitX su:

X / Twitter Mastodon

Bluesky Youtube

Instagram

Voglio seguire la campagna
e approfondire

Voglio approfondire
di più:

I read the Manifesto