Même sur Facebook, nous restons des primates

Alexandre Bovet

Alexandre Bovet est professeur assistant au département de mathématiques de l'Université de Zurich et membre de la Digital Society Initiative. Dans ses recherches, il traite des systèmes complexes et de leur modélisation. Il est membre de la Jeune Académie Suisse. Ce texte a été publié une première fois en allemand par Higgs.ch.

Le 25 mars dernier, Elon Musk sondait ses 92 millions de followers sur Twitter pour savoir si elles et ils pensaient que Twitter adhérait strictement au principe de la liberté d’expression, qu’il juge essentiel pour la démocratie. Après plus de 2 millions de votes, une majorité (70%) répondait «non». Quelques semaines plus tard, Musk, la personne la plus riche du monde, concluait un accord pour racheter Twitter et annonçait une série de mesures pour transformer la plateforme, mettant l'accent sur la liberté d'expression.

Au-delà de la question de l’impact qu’auront ces mesures, il est parfois difficile de se rendre compte à quel point une telle série d’événements n’aurait simplement pas pu avoir lieu il y a seulement 20 ans.

Les réseaux sociaux ont évolué avec nous

L’organisation des réseaux sociaux et les moyens de communications régissent la transmission d’information dans nos sociétés et donc l’influence potentielle d’un individu. Ils ont beaucoup changé au cours de la vie de notre espèce.

Pendant environ 250’000 ans, nos réseaux étaient formés de quelques familles, où l’information se transmettait de façon orale et gestuelle, et ainsi se propageait lentement et se dégradait rapidement.

Depuis l’apparition de l’agriculture, il y a environ 12’000 ans, les moyens de communication sont progressivement devenus plus efficaces (livres, radio, télévision), et les réseaux sociaux progressivement plus étendus, mais toujours contrôlés par une petite fraction de la société (membres de l’Église ou du gouvernement, journalistes…).

Avec l’apparition d’Internet et des réseaux sociaux en ligne, ce n’est pas seulement la taille des réseaux qui a drastiquement changé, mais également leur structure et dynamique. Les 4,9 milliards de personnes qui ont accès à Internet peuvent partager une information gratuitement sur Twitter ou Instagram et facilement atteindre des milliers, voire des millions de personnes. Tout ceci en l’espace de quelques heures et sans aucune détérioration du message original.

Des relations de pouvoir renversées

Les politiciens et journalistes, qui auparavant avaient le contrôle sur l’actualité, sont maintenant en compétition avec des «influenceurs» pour capter notre attention. Ces changements ont renversé les relations de pouvoir.

Des biais cognitifs hérités de notre histoire

Facebook a été fondé en 2004, Twitter en 2006. En l’espace de moins de vingt ans, les médias sociaux ont radicalement changé les modes de communication. Cette transformation n’a pas été conduite dans le but d’améliorer la qualité de l’information ou notre bien-être en général, mais bien dans le but de générer du revenu pour quelques entreprises.

Pour ce faire, les plateformes tirent parti de nos biais cognitifs, comme notre tendance à privilégier les informations confirmant nos idées préconçues, et de notre influençabilité et suscitent des réponses émotionnelles. Les algorithmes des plateformes sont conçus pour garder notre attention et nous faire cliquer sur des publicités.

Des études sur les primates suggèrent que la taille de notre néocortex limite le nombre de relations significatives que nous pouvons maintenir avec d'autres personnes (environ 150 pour les humains).

Vivre dans de plus grands groupes mènerait à une surcharge d’information.

En effet, nous avons évolué pour vivre dans de petits groupes où l’information se diffuse lentement et est rapidement altérée. Dans ces conditions, nos biais cognitifs et nos réponses émotionnelle étaient probablement utiles à la vie en société, mais actuellement ils participent à l’amplification de la désinformation et à l’augmentation de la polarisation sur les médias sociaux.

Un problème de conception

De plus en plus de chercheurs montrent que le problème ne vient pas nécessairement des utilisateurs, mais plutôt de la façon dont les plateformes ont été conçues. Leur conception façonne les comportements. Il y a des boutons «J’adore», «Wouah», «Triste» et «Grrr» sur Facebook, mais pas de bouton «Intéressant» ou «Tu m’apprends quelque chose». De plus, les algorithmes sont parfois volontairement biaisés pour amplifier la visibilité des messages qui provoquent le plus d’outrage. Ce qui, involontairement, nous apprend à écrire des posts qui, à leur tour, provoquent plus d’outrage.

Plusieurs travaux proposent déjà des pistes pour concevoir des plateformes qui promeuvent la qualité de l’information ainsi que les débats constructifs, et diminuent la haine et la division. Par exemple, en modifiant l’environnement des utilisateurs de façon à les encourager à vérifier la crédibilité de leurs sources et à être conscients des facteurs qui décident de ce qui apparaît sur leur flux d’actualité.

Pour inventer de meilleurs médias sociaux, nous avons besoin de comprendre les mécanismes complexes qui les régissent.

Que se passerait-il si, au lieu de promouvoir les messages qui créent le plus d’engagement, on promouvait les messages aimés par une audience diverse? Peut-on laisser les gens s’exprimer de manière anonyme, mais éviter les «trolls» et les «bots»?

Répondre à ces questions requiert un effort interdisciplinaire combinant, entre autres, sciences cognitives, sciences sociales, science des réseaux, systèmes complexes et intelligence artificielle. Ces recherches devraient être conduites de manière transparente et indépendante par la communauté scientifique, en collaboration avec les plateformes et pourraient guider la société pour mettre en place un système de régulation.

Le modèle de la sécurité routière

D’autres industries qui représentent un danger pour la sécurité publique, l’industrie automobile par exemple, ont été régulés et se sont adaptées à des normes de sécurité. Les gouvernements commencent à réfléchir à des moyens de réguler les plateformes.

Cette régulation devrait être guidée par des résultats prouvés par la méthode scientifique et servir l’intérêt public.

Dans un monde où les médias sociaux jouent un rôle indéniable dans notre vie de tous les jours, lors des débats publics, des pandémies et des guerres, nous ne pouvons pas laisser spéculer des millionnaires ou des décideurs politiques sur la bonne façon d’aborder un problème si important et compliqué.