Des réseaux sociaux moins clivants et plus apaisés ? Ces chercheurs y travaillent
La polarisation du monde se joue en partie sur les réseaux sociaux, théâtre d'affrontements souvent virulents. Si certains laissent libre cours aux pires discours sous couvert de liberté d'expression, d'autres préfèrent censurer de nombreux posts, au risque de susciter des mouvements de résistance. Mais une autre voie est possible pour reprendre la main sur les algorithmes.
Par Hugo Ruher
7 janvier 2026

Par ses pratiques de modération insuffisante des contenus et son absence d’application de la diligence requise en matière de droits humains, X a contribué à des atteintes aux droits fondamentaux commises contre des membres de la communauté LGBTI de Pologne.
Amnesty International - ‘A Thousand Cuts’ : technology-facilitated gender-based violence against Poland’s LGBTI community on X
Ce constat provient d'un rapport d'Amnesty International paru en septembre 2025. La chercheuse Alia Al Ghussain y détaille comment le réseau social d'Elon Musk facilite le harcèlement de masse d'une certaine catégorie de la population. Comme les personnes LGBTI en Pologne, en amplifiant notamment la visibilité des posts violents à leur encontre.
Le problème est connu, et depuis la prise en main de l'ex-Twitter par le milliardaire controversé, la modération en est quasiment absente au nom de la "liberté d'expression" menant à une multitude d'actes de harcèlement, souvent contre des femmes ou des minorités.
C'est dans cette optique que des mouvements se développent pour contrer cette tendance et faire des réseaux sociaux un endroit plus sain. Un idéal qui n'a jamais vraiment été atteint par le passé, et semble s'éloigner chaque jour un peu plus alors que les débats en ligne atteignent des sommets de violence.
Cet article est gratuit
Aidez-nous pour que ça le reste !
Un algorithme personnalisé
Des chercheurs⸱ses américain⸱es, spécialistes du numérique, se sont entouré⸱es de psychologues pour construire une alternative via une extension de navigateur destinée à manipuler l'algorithme de ces réseaux. Fin 2025, ils⸱elles publié leur travail dans la revue Science, détaillant comment l'expérience a été menée sur 1200 personnes.
Durant l'élection américaine de 2024, les participant⸱es avaient accès à leurs réseaux sociaux habituels, mais une extension modifiait leur fil de suggestions - lequel a surtout tendance à faire remonter les messages dits "viraux". Ici, un programme guidé par intelligence artificielle repérait les discours qui semblaient le plus haineux et violents pour les faire redescendre plus bas dans le fil, les rendant de fait moins visibles.
L'une des autrices, Jeanne L.Tsai, du département de psychologie de l'Université de Stanford, précise : « L'avantage de cette méthode est que tout était piloté par notre extension. Nous n'avions donc pas besoin de l'accord de X ou autres pour étudier les effets. La plupart des autres recherches menées sur ces sujets se font en partenariat avec ces entreprises, et peuvent donc être influencées par leurs priorités. »
Ainsi, tandis que les participant⸱es utilisaient leurs réseaux normalement, cette étude a montré que leurs réactions vis-à-vis des personnes de l'autre camp (conservateurs ou libéraux) étaient moins extrêmes. Il leur a été demandé de répondre à un questionnaire pour évaluer comment ils⸱elles se sentaient face au parti adverse : leur attitude était, en moyenne, bien plus positive.
Une manière de se protéger qui ne supprime pas la violence
Julie Del Papa, modératrice accompagnant des personnes victimes de cyberharcèlement, considère qu'il s'agit d'une méthode intéressante. « L'intérêt est de pouvoir se défaire de l'algorithme imposé par les réseaux et de pouvoir être libre de choisir ce qu'on veut voir, et ce qu'on préfèrerait ne pas lire. »
Son travail consiste en partie à supprimer et à bloquer des comptes pour éviter que les victimes de harcèlement soient en permanence confrontées aux insultes et menaces. « Psychologiquement, c'est tellement énergivore d'être submergée par la haine. Pour les victimes, choisir d'ignorer tout cela peut être une manière de se protéger. »

Jeanne L. Tsai rejoint cette approche , qu'elle défend dans son étude :
Actuellement, ce sont les plateformes qui contrôlent ce que les utilisateurs voient à travers leur algorithme. Désormais, il est temps de redonner le pouvoir aux usagers de ces réseaux.
Jeanne L. Tsai
L'objectif étant que les auteurs⸱rices de posts haineux, souvent encouragé⸱es dans cette démarche par les algorithmes qui privilégient les contenus clivants, soient forcé⸱es de s'adapter pour conserver leur visibilité... en recherchant davantage le dialogue ou la nuance.
Il faut toutefois garder en tête que ces approches ne résoudront pas tout. « Il n'y a pas que l'algorithme. L'extrême-droite excelle dans le harcèlement de masse, avec des militants organisés, décidés à nuire, qui utilisent les deepfakes, le doxxing [pratique consistant à publier des informations privées comme l'adresse ou le numéro de téléphone, ndlr] et d'autres méthodes à des fins malveillantes. » déplore Julie Del Papa. Autant d'utilisateurs⸱rices qui resteront actives, malgré les protections mises en place.
Références :
Amnesty International - Pologne
Twitter/X a facilité la propagation de la haine et du harcèlement envers les personnes LGBTIScience
Reranking partisan animosity in algorithmic social media feeds alters affective polarizationScience Direct
Twitter remains a haven of harassmentJulie Del Papa
Protégez-vous du cyberharcèlement