La fin de la détection des contenus pédocriminels révèle une faille du numérique européen

Par Léna Jauze

17 avril 2026

1 min

Partager cet article

Sur les réseaux sociaux

Illustration de la breve : La fin de la détection des contenus pédocriminels révèle une faille du numérique européen
Crédit : Annie Spratt

Depuis le 3 avril 2026, un changement majeur est passé presque inaperçu : les plateformes numériques, réseaux sociaux comme messageries, n’ont plus le droit, dans l’Union européenne, de détecter d’elles-mêmes les contenus pédocriminels. Cette évolution découle de l’expiration d’un régime juridique temporaire mis en place en 2021 et prolongé jusqu’en 2026, mais non remplacé à temps par un accord politique européen.

Ce dispositif permettait jusqu’ici aux réseaux sociaux et services de messagerie de mettre en place des systèmes de détection automatique sur certains contenus (images, vidéos, textes). Il ne s’agissait pas d’une obligation généralisée, mais d’une possibilité encadrée juridiquement.

Dans les faits, ces outils servaient à repérer des contenus illégaux, les signaler aux autorités, aider à identifier des victimes et empêcher leur rediffusion. Ils concernaient aussi certains services chiffrés, ce qui est central dans un contexte où les criminel⸱les utilisent massivement des messageries sécurisées.

Les associations de protection de l’enfance alertent désormais sur un changement concret : la disparition de ces mécanismes réduit fortement les capacités de détection en amont, avec un risque de baisse des signalements et une perte d’indices pour les enquêtes. Le sujet est d’autant plus sensible que les estimations évoquent des dizaines de millions de contenus pédocriminels en circulation chaque année, avec une forte augmentation sur la dernière décennie.

Cet article est gratuit

Aidez-nous pour que ça le reste !

Je fais un don

Un blocage politique ancien autour de "Chat Control"

Cette situation s’inscrit dans un débat européen plus large sur le projet de règlement appelé "Chat Control" (CSAR – Child Sexual Abuse Regulation), discuté depuis 2022.

Ce texte visait à structurer durablement la lutte contre les contenus pédocriminels en ligne en imposant davantage d’obligations aux plateformes. Parmi les points les plus controversés : la possibilité de détection systématique de contenus dans les communications privées, y compris sur des messageries chiffrées.

Pour ses opposant⸱es, dont plusieurs organisations de défense des libertés numériques, ce type de dispositif revient à instaurer une forme de surveillance généralisée des échanges privés, incompatible avec le chiffrement de bout en bout et le droit à la vie privée. Ils⸱elles alertent également sur les risques techniques et sécuritaires d’un tel système.

Les partisans du texte défendent au contraire une approche plus contraignante, estimant que les dispositifs volontaires ne suffisent pas et que de nombreux contenus restent invisibles sans mécanisme de détection structuré.

Faute de compromis entre États membres et institutions européennes, aucun cadre pérenne n’a été adopté à temps, laissant expirer le régime transitoire existant.

Une dépendance persistante aux signalements étrangers

Un autre élément structure la situation actuelle : l’absence de système européen centralisé équivalent au NCMEC (National Center for Missing and Exploited Children), une organisation américaine qui reçoit les signalements de plateformes numériques et les redistribue aux autorités compétentes dans différents pays.

Dans les faits, une partie importante des signalements mondiaux transitait déjà par ce centre. Avec la fin de la détection volontaire en Europe, les observateurs craignent une baisse du volume de contenus identifiés à la source, ce qui pourrait réduire la matière exploitable par les forces de l’ordre.

Cela met en lumière une forme de dépendance structurelle : l’Europe limite certains mécanismes de détection sur son territoire, tout en continuant de s’appuyer sur des infrastructures externes pour centraliser les alertes.

Une impasse entre deux impératifs

Ce changement révèle une tension centrale non résolue au niveau européen. D’un côté, la volonté de renforcer la protection des mineur⸱es en ligne. De l’autre, la nécessité de préserver la vie privée, le chiffrement des communications et les libertés numériques.

Faute d’accord entre États membres et Parlement européen, le dispositif a pris fin sans solution de remplacement, laissant un vide juridique dans un domaine extrêmement sensible.

Références :