Wikipédia nourrit les IA… qui la rendent invisible
Wikipédia pourrait savourer paisiblement son statut de monument du Web. Mais alors qu’elle entame sa 25e année d’existence, l’encyclopédie libre fait face à un paradoxe inédit : jamais ses contenus n’ont été autant utilisés et pourtant jamais elle n’a semblé aussi peu visible. Et pour cause : les IA génératives s’appuient massivement sur elle pour produire ses réponses.
Par Pauline Deprez
2 avril 2026

Qui profite du savoir libre ?
En janvier 2001, Jimmy Wales et Larry Sanger lancent un projet expérimental : permettre à n’importe quel⸱le internaute de créer et modifier des articles en quelques clics. À l’époque, l’idée paraît fragile. Confier le savoir au collectif, sans comité éditorial centralisé, relève du pari. Finalement, Wikipédia s’imposera en quelques années comme la plus vaste encyclopédie en ligne jamais construite.
Le modèle de Wikipédia repose sur les dons, se passe d'équipe de rédaction et n'affiche pas de publicité. Ce sont 138 000 bénévoles actifs⸱ves dans le monde qui écrivent, corrigent et surveillent les pages, en s’appuyant sur des sources vérifiables et avec pour principal pilier la neutralité.
Seulement voilà : la fondation Wikimédia, qui héberge l’encyclopédie, a constaté une baisse d’environ 8 % du nombre de lecteurs⸱rices sur l’année passée. Non pas parce que l’intérêt pour le savoir décline, mais parce que l’accès change. Un chiffre à surveiller pour Rémy Gerbet, directeur de Wikimédia France, qui s’inquiète pour l’avenir : « Qui dit moins de lecteurs dit moins de personnes qui vont arriver sur Wikipédia pour peut-être franchir le pas de devenir contributeurs. Qui dit moins de contributeurs dit une qualité du contenu qui peut se dégrader. »
Pour une entreprise comme OpenAI et son outil ChatGPT, Wikipédia est une mine d’or. L’encyclopédie, qui compte environ deux cents millions de pages d’informations sourcées et libres de droit sur tous les sujets possibles, constitue un terrain majeur pour entraîner et alimenter les systèmes d'intelligences artificielles. Mais une fois la réponse produite par l'IA, la source disparaît. L’utilisateur⸱rice lit donc une synthèse sans savoir qu’elle repose, en partie, sur le travail de milliers de bénévoles. Quid de la reconnaissance des contributeurs⸱rices ?
En France, une proposition de loi a été déposée au Sénat en décembre 2025 visant à renverser la charge de la preuve dans les litiges entre créateurs⸱rices et fournisseurs d’intelligence artificielle. Car actuellement, lorsqu’un⸱e auteur⸱e soupçonne qu’une IA a utilisé son œuvre protégée, c’est à elle⸱lui d’en démontrer l’usage. Une tâche souvent jugée impossible, faute d’accès aux données d’entraînement des modèles.
Rémy Gerbet nuance : « La motivation première pour les bénévoles de contribuer à Wikipédia, c'est par passion, par conviction, par le fait qu'ils ont le sentiment de faire quelque chose qui est utile pour l'humanité. »
Cet article est gratuit
Aidez-nous pour que ça le reste !
La désinformation optimisée par l’IA
L’autre effet du boom des IA génératives se joue à l’intérieur même de Wikipédia. Les générateurs de texte facilitent la production de paragraphes entiers, rédigés en quelques secondes. Certain⸱es contributeurs⸱rices les copient-collent alors sur les pages de l'encyclopédie : une solution de facilité tentante. Problème : ces textes peuvent contenir des erreurs factuelles, des approximations et même des sources inexistantes. Chaque ajout suspect nécessite alors une vérification humaine, un travail chronophage pour les bénévoles.
Cette désinformation optimisée par IA nécessite que les communautés soient formées pour mieux détecter ce type de contenus.
Rémy Gerbet
Depuis 2023, des contributeurs⸱rices ont lancé le « WikiProject AI Cleanup ». Cette initiative est dédiée à l’identification et à la suppression des contenus générés automatiquement, qui compromettent l’intégrité de l’information publiée. Ce projet liste des caractéristiques typiques des textes IA et aide les relecteurs⸱rices humain⸱es à détecter les ajouts problématiques.
En juin 2025, un petit groupe de contributeurs⸱rices anglophones a lancé un projet pilote baptisé « Simple Article Summaries » (résumés d’articles simples), qui consistait à afficher automatiquement en haut de certains articles des résumés générés par une IA. L’idée était de rendre les pages plus accessibles en proposant des survols simplifiés, à l’image des aperçus IA de Google. Mais l’expérience a vite tourné court après une réaction très vive des contributeurs⸱rices bénévoles, qui ont estimé que ces résumés menaçaient l’exactitude et la confiance accordée à Wikipédia.
Refuser l’IA en bloc n’est toutefois pas une option à long terme pour l'encyclopédie en ligne. Reste à savoir comment l’apprivoiser sans compromettre sa fiabilité.
Comment s’allier avec L’IA ?
Rémy Gerbet précise que le mouvement Wikimédia n’est pas technophobe et utilise lui-même des IA depuis longtemps. Ces outils sont employés pour les systèmes de reconnaissance de texte dans Wikisource (une bibliothèque numérique libre et collaborative) ou même dans la lutte contre le vandalisme, c'est à dire la dégradation volontaire des articles. Lorsqu’il y a des ajouts de mots non autorisés ou violents, l'IA les repère et alerte la communauté pour qu'elle modère.
Par ailleurs, la fondation Wikimedia ne se contente pas d’un face-à-face critique avec les acteurs de l’IA. Elle tente d’organiser une collaboration plus encadrée. En France, un accord a été conclu entre Wikimedia Enterprise, la filiale commerciale de la fondation, et l’entreprise française d’IA Mistral. Au lieu de puiser librement dans les contenus via l’API publique (interface de programmation ouverte), l’entreprise accède, contre rémunération, à une API dédiée. L’objectif est double : éviter de surcharger les infrastructures ouvertes aux bénévoles, et garantir une meilleure qualité des données utilisées pour l’entraînement des modèles.
Ce type de service est également proposé à d’autres géants technologiques comme Google ou Microsoft. En échange, la fondation espère obtenir davantage de reconnaissance, de transparence sur la provenance des contenus... ainsi qu'un soutien financier pour Wikipédia.
Références :
Sénat
Présomption d'exploitation des contenus culturels par les fournisseurs d'IAWikipédia
WikiProject AI CleanupWikimedia Foundation
À l’ère de l’IA, Wikipédia n’a jamais été aussi précieuseWikisource
Bienvenue sur WikisourceWikimedia enterprise
Mistral AI partners with Wikimedia Enterprise to Leverage Open Knowledge for AIWikipédia
Wikimedia Enterprise

