Les images pédopornographiques générées par IA deviennent « nettement plus réalistes »

Soutenez un média indépendant

Reportages, enquêtes, initiatives et solutions en accès libre : pour un numérique plus responsable, notre rédaction compte sur vous.

Les images pédopornographiques générées par IA deviennent « nettement plus réalistes »

Les criminel·les utilisent désormais l'intelligence artificielle pour créer de toutes pièces des contenus pédopornographiques d'un réalisme saisissant, avant de les diffuser sur le Web ouvert à tous·tes.

En 2024, l'Internet Watch Foundation (IWF), organisation britannique luttant contre les contenus illégaux sur Internet, a reçu pas moins de 245 signalements concernant des pages diffusant des contenus problématiques générés par IA, soit une hausse de 380 % par rapport à 2023.

7600

images et vidéos étaient concernées par ces signalements.

Source : IWF

Les conséquences de la prolifération de ces contenus s'avèrent très graves, autant d'un point de vue psychologique que juridique.

Des risques nombreux et élevés

Même s'il s'agit d'images "fausses", générées artificiellement par IA, elles représentent des actes criminels graves d'une manière de plus en plus réaliste. De nombreux pays considèrent leur création, leur possession et leur partage comme illégaux car elles banalisent voire encouragent les violences sexuelles faites aux enfants. Elles peuvent notamment augmenter le risque d'abus réels en nourrissant des fantasmes et pousser des pédocriminels à passer à l’acte à l'encontre de vrai·es enfants.

Et ce n'est pas tout. Auparavant, ce genre de contenu circulait surtout dans des coins reculés d'Internet (le "dark web"). Maintenant, il commence à apparaître sur des sites accessibles à tous·tes : forums d'images et de discussions peu modérés, sites Internet de génération d'images IA ou encore réseaux sociaux alternatifs. Une accessibilité qui rend sa détection mais aussi sa suppression plus difficiles, tout en multipliant le risque qu'un public de n'importe quel âge puisse y être exposé. Plus elles circulent librement, plus ces images minent la sécurité des plateformes et la confiance du public dans les espaces numériques.

L'exposition à ce genre d'images peut par ailleurs, psychologiquement, s'avérer très violent. D'autant plus que presque 40% des contenus signalés en 2023 auprès de l'IWF relevaient de la "catégorie A" (la plus extrême, montrant des actes de pénétration et de sadisme). Pour les victimes réelles d'abus, même des images "synthétiques" peuvent être vécues comme une réactivation de leur traumatisme.

Enfin, l'essor de ces contenus pose un réel problème d'un point de vue judiciaire. Comme les images sont de plus en plus réalistes, du fait des progrès de l'IA, il devient toujours plus difficile pour les autorités de dire si une vraie victime est impliquée ou non, compliquant ainsi les enquêtes et poursuites judiciaires.

Les législateurs·rices et les associations se mobilisent

En réaction à la gravité de ce phénomène, le gouvernement britannique a interdit la possession, la création et la distribution d'outils d'IA destinés à générer de tels contenus, ainsi que les manuels expliquant leur utilisation.

Parallèlement à cela, l'IWF a lancé "Image Intercept", un outil gratuit destiné à détecter et bloquer ces images. Celui-ci s'adresse en particulier aux sites Web n'ayant pas suffisamment de moyens financiers et/ou techniques pour exercer d'eux-mêmes une surveillance et une modération active des contenus illégaux (contrairement aux GAFAM). De quoi se mettre en conformité avec l'Online Safety Act du Royaume-Uni, une législation visant à renforcer la protection des utilisateurs·rices, et notamment des enfants, contre les contenus nuisibles et illégaux sur Internet.

Références :

[Photo de couverture : Caleb Woods]

Soutenez-nous en partageant l'article :