Science Feedback publie la première évaluation indépendante de la désinformation : TikTok et X, mauvais élèves du débat public européen

La désinformation n’est plus seulement une nuisance isolée dans les recoins du web : elle est devenue un enjeu central du débat public européen. Des récits mensongers sur la guerre en Ukraine aux fausses informations climatiques ou sanitaires, les campagnes de manipulation fragilisent la confiance des citoyens, alimentent la polarisation et menacent la cohésion démocratique.

Face à cette réalité, l’Union européenne a renforcé son cadre législatif avec le Digital Services Act (DSA) et son Code de conduite sur la désinformation, qui oblige les très grandes plateformes en ligne à démontrer qu’elles réduisent effectivement ces risques systémiques.

Mais un obstacle majeur subsistait : comment savoir si ces promesses se traduisent en actes ?

Les plateformes communiquaient des données fragmentaires, non comparables et impossibles à vérifier, tandis que les tentatives d’audit indépendant restaient limitées par le manque d’accès aux informations.

Dans ce contexte de désengagement partiel de certaines plateformes vis-à-vis du Code de conduite sur la désinformation, la question devenait urgente : qui pouvait fournir des mesures crédibles, robustes et indépendantes ?

C’est à cette exigence que répond aujourd’hui le projet SIMODS, dirigé par Science Feedback avec plusieurs partenaires européens. En publiant les premières données paneuropéennes et scientifiquement vérifiées sur la désinformation circulant sur six grandes plateformes, SIMODS offre aux régulateurs, aux chercheurs et à la société civile un outil inédit pour évaluer objectivement l’état de l’information en ligne.

20251001164231-p2-document-xkju

Une étude paneuropéenne inédite et rigoureuse

Le rapport publié le 29 septembre 2025 s’appuie sur une méthodologie robuste, pensée pour offrir une vision représentative de l’expérience réelle des utilisateurs.

  • Portée et périmètre : six plateformes majeures (Facebook, Instagram, LinkedIn, TikTok, X/Twitter et YouTube) et quatre pays représentatifs de l’Union européenne (France, Espagne, Pologne, Slovaquie) ;
  • Corpus : environ 2,6 millions de publications, totalisant près de 24 milliards de vues ;
  • Échantillonnage : un tirage aléatoire pondéré par l’exposition, soit 500 posts par plateforme et par pays, permettant de refléter ce que les utilisateurs voient effectivement dans leur fil d’actualité ;
  • Thématiques analysées : cinq sujets d’importance publique — guerre en Ukraine/Russie, climat, santé, migration, politique nationale ;
  • Analyse des contenus : annotation manuelle par des fact-checkers professionnels issus des partenaires européens, selon des protocoles transparents et reproductibles ;
  • Accès aux données :
    • Seule LinkedIn a fourni l’échantillon complet demandé dans le cadre de l’article 40.12 du DSA ;
    • TikTok a ouvert un accès API, mais trop tardivement pour être inclus dans cette première vague ;
    • Malgré l’obligation de coopérer, en vertu de l’Article 40.12 du DSA, les autres plateformes n’ont pas coopéré, soulignant des limites persistantes de transparence ;
  • Période de collecte : principalement mars-avril 2025 (avec ajustements spécifiques pour YouTube et TikTok) ;
  • Perspectives : une deuxième vague de mesure est prévue à l’automne 2025 avec publication d’un rapport début 2026 pour suivre l’évolution.

Cette méthodologie constitue la première mesure concrète et robuste des indicateurs structurels de désinformation appelés de leurs vœux par le Code de conduite.

Résultats : TikTok et X en première ligne de la désinformation

TikTok : une publication sur cinq est trompeuse

L’un des résultats les plus frappants concerne TikTok : près de 20 % des publications sur des sujets d’intérêt public contiennent des informations fausses ou trompeuses. Cela signifie qu’un utilisateur de TikTok est dix fois plus exposé à des contenus mensongers qu’un utilisateur de LinkedIn (2 %).

X/Twitter : des taux inquiétants de contenus toxiques

Si l’on ajoute les contenus abusifs (discours de haine, attaques ciblées, etc.) et les contenus dits « borderline » (qui reprennent des narratifs de désinformation sans contenir d’erreurs vérifiables), la situation devient encore plus préoccupante :

  • TikTok atteint un taux de 34 % ;
  • X/Twitter suit de près avec 32 %.

Autrement dit, un tiers de l’expérience utilisateur sur ces plateformes peut être influencé par des contenus problématiques.

LinkedIn : la preuve qu’un autre modèle est possible

À l’opposé, LinkedIn fait figure de bon élève, avec seulement 2 % de désinformation sur les sujets d’intérêt public. Cette performance prouve qu’il est possible de concevoir des systèmes de modération et de distribution de contenus où la désinformation n’est pas mise en avant, et où une visibilité accrue n’est pas conférée aux contenus trompeurs.

Un avantage algorithmique pour les comptes de désinformation

Autre constat majeur : sur les plateformes, les comptes diffusant de la désinformation bénéficient d’un “premium” de visibilité.

  • Pour un même nombre d’abonnés, leurs publications obtiennent plus de vues et plus d’interactions que celles des comptes diffusant des informations fiables ;
  • Cet effet est observé sur toutes les plateformes, sauf LinkedIn.

Ce biais structurel signifie que les algorithmes de recommandation amplifient davantage les contenus trompeurs, augmentant leur potentiel d’influence sur le débat public.

Une alerte pour l’Europe et ses régulateurs

Ces résultats arrivent à un moment clé. Le DSA impose aux plateformes de prouver qu’elles réduisent les risques systémiques liés à la désinformation. Le Code de conduite devait en être l’instrument de vérification. Mais alors que plusieurs plateformes s’en éloignent, l’étude SIMODS démontre que la situation reste critique.

Pour Emmanuel Vincent, directeur de Science Feedback : « La désinformation n’est pas une anomalie marginale sur les réseaux sociaux. Sur TikTok, une publication sur cinq contient des informations trompeuses. Le cas de LinkedIn montre pourtant que d’autres plateformes pourraient concevoir leurs systèmes pour éviter de récompenser la désinformation. »

Cette étude constitue donc la base la plus claire et indépendante pour évaluer la conformité des plateformes au DSA en matière de désinformation. Elle alerte sur la nécessité, pour les régulateurs européens et les fondations philanthropiques, de renforcer leur vigilance et leur soutien à la recherche indépendante.

Des ambitions fortes pour l’avenir

SIMODS ne se limite pas à ce premier état des lieux. Le consortium prévoit :

  • Des vagues de mesure régulières, dès début 2026, pour suivre l’évolution dans le temps ;
  • Un élargissement géographique, afin d’inclure davantage de pays et de langues ;
  • Un approfondissement des indicateurs, en particulier sur la monétisation des contenus trompeurs et l’amplification algorithmique qui leur est accordée.

À terme, l’objectif est clair : créer un baromètre européen robuste de la désinformation, une référence incontournable pour les régulateurs, les chercheurs, les journalistes et la société civile.

Emmanuel Vincent et Science Feedback : la science comme garde-fou

Derrière le projet SIMODS se trouve Science Feedback, une association indépendante française à but non lucratif, qui s’est imposée comme un acteur international de référence dans l’évaluation de l’information scientifique et la lutte contre la désinformation.

Fondée par Emmanuel Vincent, docteur en sciences du climat, Science Feedback applique à l’information les principes de la recherche scientifique : transparence, vérifiabilité et rigueur méthodologique. L’organisation s’appuie sur un réseau de chercheurs et de fact-checkers expérimentés pour analyser la qualité des contenus les plus influents en ligne. Sa mission est simple mais essentielle : garantir que les débats publics s’appuient sur des faits établis et non sur des récits trompeurs.

Le parcours d’Emmanuel Vincent illustre cette exigence. Diplômé de l’École Normale Supérieure et docteur de l’Université Pierre et Marie Curie, il a mené un post-doctorat au MIT (Cambridge, USA) sur les interactions entre ouragans et océans. Aux États-Unis, il a créé Climate Feedback, un réseau de scientifiques chargé de vérifier la fiabilité des articles climatiques viraux. L’initiative a marqué une étape importante en donnant une voix collective à la communauté scientifique face au climatoscepticisme.

Avec Science Feedback, il a élargi cette démarche à d’autres champs essentiels comme la santé, puis à l’évaluation des systèmes numériques eux-mêmes, en analysant l’effet des algorithmes de plateformes comme Facebook ou YouTube. Aujourd’hui chercheur associé au médialab de Sciences Po, Emmanuel Vincent continue de développer des outils scientifiques destinés à renforcer la transparence des plateformes et à protéger la qualité du débat public.

Avec SIMODS, Science Feedback franchit une nouvelle étape : transformer l’analyse ponctuelle de la désinformation en baromètre indépendant et pérenne au service des régulateurs, des chercheurs, des journalistes et de la société civile.

20251001164231-p1-document-rbuz

En savoir plus

Rapport complet (PDF) : SIMODS Report 1

Résumé en ligne : Présentation SIMODS

Site web : https://science.feedback.org/

Facebook : https://www.facebook.com/ScienceFeedback

Linkedin : https://linkedin.com/company/sciencefeedback

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>