De nombreuses études scientifiques démontrent que X est toxique pour ses utilisateurs et la démocratie en général.
Atteintes au bien-être des utilisateurs de X
Le fil d’actualité "For you" est l’une des principales sources d’information pour les utilisateurs de X. Or ce fil d’actualité est fortement biaisé vers les contenus toxiques. Des chercheurs du CNRS ont démontré qu’il était enrichi de +49% en contenus toxiques (insultes, attaques personnelles, obscénités, etc.) par rapport à ce que produisent vos abonnements (mesure début 2023). Pour certains comptes, l’amplification de la toxicité de l’environnement perçu peut aller jusqu’à +200% !
Cela veut dire que X met en avant ce qu’il y a de pire dans votre environnement social et biaise ainsi vos perceptions. À noter que Musk a explicitement aggravé la situation, avant son arrivée, l’amplification n’était "que" de +32%.
Or il a été démontré qu’une modification du fil d’actualité des utilisateurs a un impact direct sur leur état émotionnel et leur manière de s’exprimer. Lorsque la proportion de messages positifs est réduite, les personnes utilisateurs produisent moins de messages positifs et plus de messages négatifs. Il a également été mesuré que l’utilisation de Twitter est liée à une diminution du bien-être et à une augmentation de l’indignation.
Atteintes à la cohésion sociale
L’amplification de l’hostilité et les effets des algorithmes recommandant contenus et utilisateurs personnes a un effet global sur les structures sociales.
Il a été mesuré que X augmente la polarisation politique et de l’hostilité entre groupes, ce qui de manière évidente n’aide pas le débat et nuit à la cohésion sociale [4, 5].
Il a aussi été démontré par la modélisation que sur le moyen terme, le design de réseaux sociaux basé sur l’engagement, tels que X, concentre l’influence sociale entre les mains des utilisateurs les plus toxiques : la sur-représentation des comptes toxiques dans le top 1% des influenceurs est estimé à +40% . En gros, les personnes qui jouent l’ouverture d’esprit et prônent un débat d’idées apaisé sont défavorisées de facto sur X. Elles sont d’une certaine manière progressivement invisibilisées.
Prolifération des discours de haine et de la désinformation
Un défaut de modération sur un réseau social tel que X peut avoir des conséquences extrêmement graves, comme cela a déjà pu être constaté sur d’autres réseaux sociaux.
Par exemple, Amnesty International a montré qu’un défaut de modération de Facebook a favorisé en 2017 la campagne brutale de nettoyage ethnique à l’encontre des musulmans rohingyas en Birmanie et aux graves atteintes aux droits humains contre la population tigréenne en Éthiopie de 2020 à 2022.
Or sous Elon Musk, les équipes de modération ont été décimées et des comptes autrefois bannis pour incitation à la violence, promotion du nazisme ou homophobie ont été rétablis.
X assume totalement ne plus vouloir lutter contre la désinformation. La compagnie a par exemple suspendu sa politique de lutte contre la désinformation sur la pandémie de covid-19. Si une nouvelle pandémie éclate et que X est toujours au cœur de l’information mondiale, le coût humain sera considérable.
X a par ailleurs supprimé le "badge de certification" qui permettait avant de certifier l’authenticité d’un compte. Celui-ci a été recyclé pour signaler qu’un compte a payé pour gagner en visibilité sur X. Les conséquences ont été immédiates et par seulement dans le domaine politique : un faux compte se faisant passer pour l’entreprise pharmaceutique Eli Lilly a annoncé le gratuité de l’insuline produite par le groupe. Lilly a perdu 4,37 % de sa capitalisation boursière ce jour-là.
Sélection de publications scientifiques
- [1] Kramer, Adam D. I., Jamie E. Guillory, et Jeffrey T. Hancock. 2014. « Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks ». Proceedings of the National Academy of Sciences of the United States of America 111 (24) : 8788‑90. https://doi.org/10.1073/pnas.1320040111.
- [2] Bouchaud, Paul, David Chavalarias, et Maziyar Panahi. 2023. « Crowdsourced Audit of Twitter’s Recommender Systems ». Scientific Reports 13 (1) : 16815. https://doi.org/10.1038/s41598-023-43980-4.
- [3] Chavalarias, David, Paul Bouchaud, et Maziyar Panahi. 2024. « Can a Single Line of Code Change Society ? The Systemic Risks of Optimizing Engagement in Recommender Systems on Global Information Flow, Opinion Dynamics and Social Structures ». Journal of Artificial Societies and Social Simulation 27 (1) : 9. https://www.jasss.org/27/1/9.html.
- [4] Oldemburgo de Mello, Victoria, Felix Cheung, et Michael Inzlicht. 2024. « Twitter (X) Use Predicts Substantial Changes in Well-Being, Polarization, Sense of Belonging, and Outrage ». Communications Psychology 2 (1) : 1‑11. https://doi.org/10.1038/s44271-024-00062-z.
- [5] Yarchi, Moran, Christian Baden, et Neta Kligler-Vilenchik. 2021. « Political Polarization on the Digital Sphere : A Cross-platform, Over-time Analysis of Interactional, Positional, and Affective Polarization on Social Media ». Political Communication 38 (1‑2) : 98‑139. https://doi.org/10.1080/10584609.2020.1785067.