IA et désinformation : quel avenir pour la démocratie ?
Les systèmes d'intelligence artificielle (IA), conçus pour traiter des tâches complexes et atteindre des objectifs spécifiques, envahissent progressivement tous les secteurs de la société. Ils promettent de transformer notre interaction avec les institutions politiques, mais cette transformation, porteuse d'espoir et de risques, soulève des questions fondamentales.
L'IA favorise l'engagement citoyen, ou représente-t-elle un risque pour la démocratie à travers la propagation de la désinformation et la manipulation des opinions ?
L'évolution des campagnes électorales à l'ère du numérique : d'un modèle traditionnel à un modèle basé sur l'IA
Historiquement, les campagnes électorales misaient sur une communication de masse où les messages politiques étaient diffusés sans interaction directe avec les électeurs·rices, via des médias comme la télévision ou la radio.
Cette approche unidirectionnelle a évolué avec l'avènement des réseaux sociaux, qui ont permis une personnalisation des messages basée sur les données des utilisateurs·rices. Les plateformes comme Facebook et Twitter facilitent désormais les interactions en temps réel, permettant d'affiner en continu les stratégies de communication employées.
L'avenir des campagnes pourrait voir l'IA jouer un rôle central, avec des techniques avancées de génération de contenus personnalisés à travers des canaux diversifiés : appels personnalisés, posts ciblés sur les réseaux sociaux, expériences en réalité virtuelle. Cela soulève des questions sur l'impact potentiel de ces technologies sur le processus électoral et la qualité de la démocratie.

L’intelligence artificielle en tant que catalyseur de la démocratie
L'intelligence artificielle peut être un catalyseur pour la démocratie en facilitant l'engagement politique des citoyen·nes et en améliorant le processus électoral.
Par exemple, les systèmes de recommandation politique : ces guides personnalisés suggèrent des politiques en phase avec vos intérêts, en analysant vos activités et préférences sur Internet. Plus vous interagissez avec ces systèmes, plus ils deviennent pertinents et fournissent de meilleures suggestions, participant à vous engager plus efficacement dans les affaires politiques.
Sur les réseaux sociaux, ces systèmes sont également présents. C’est le cas de l’algorithme de Facebook, qui personnalise vos actualités et publicités sur la base de vos interactions. Tout comme celui de X (ex-Twitter) qui vous recommande des tendances, des hashtags et des discussions basés sur vos interactions passées.

Ces outils peuvent être envisagés comme des moyens d'éducation des citoyen·nes. Comment ? En rendant l’information politique plus accessible et en créant de l’engagement politique, plus particulièrement en périodes de campagnes électorales, à travers notamment les habitudes et préférences de navigation de chacun·e.
Cependant, ces systèmes peuvent aussi s'avérer contreproductifs pour les individus : le risque de s’enfermer dans une bulle créée par l’algorithme n'est pas négligeable. En effet, il est presque impossible pour l’utilisateur·rice d'accéder à un contenu différent de ses préférences politiques. Là voilà habitué·e à recevoir les mêmes informations, à consulter les messages des mêmes personnes ou organismes. Difficiles dans ces conditions de s'informer objectivement sur les propositions d'autres tendances politiques.
- ❌ 0% publicité
- 🫀 100% du contenu écrit par un·e humain·e
- ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
- 💡 Le meilleur du numérique responsable
La désinformation alimentée par l’IA
Si l’IA peut constituer un outil précieux dans le cadre d'une éducation politique, elle peut aussi être utilisée à mauvais escient.
Les Deepfakes
Les techniques d'IA permettent la création de contenus faux et biaisés, tels que les deepfakes, à même de manipuler l'opinion publique. Ces vidéos, créées de toutes pièces par IA, peuvent donner l'impression que des personnalités publiques ont tenu certains propos ou réalisé certaines actions... alors que rien de tel ne s'est produit. C’est le cas de la Première Ministre italienne Giorgia Meloni qui a été victime de deepfakes montrant du contenu illicite en 2020 (avant son accession à la fonction).
La génération d'images
Les technologies de génération d'images à partir de textes, alimentées par l'IA (DALL-E, Midjourney), peuvent servir d'outils de désinformation en créant des images hyperréalistes à partir de simples descriptions textuelles. Cela permet de fabriquer des scénarios impliquant des personnalités publiques ou des événements fictifs.
La rapidité avec laquelle ces contenus sont générés, ainsi que leur propagation quasi-instantanée, rendent difficile la modération de la désinformation. Ces technologies peuvent être particulièrement utiles pour les régimes autoritaires ou les acteurs·rices malveillant·es cherchant à manipuler l'opinion publique.
Enfin, la sophistication croissante de ces outils pourrait éroder la confiance dans les médias, compliquant la distinction entre le réel et l'irréel, et affaiblissant le débat public et les processus démocratiques. Il est donc crucial de mettre en place des mesures de protection des utilisateurs·rices afin de protéger le débat démocratique.
L'astroturfing : création de faux mouvements de masse
Cette pratique consiste à créer, sur les réseaux sociaux, une fausse impression de soutien ou d'opposition populaire à une cause, une personne ou une organisation spécifique. Elle implique l'utilisation de faux comptes, de bots ou d'individus engagés pour poster des commentaires, partager des contenus ou participer à des activités, trompant ainsi le public sur le niveau réel de soutien ou de résistance. Des groupes d'individus peuvent par exemple créer de faux profils sur un réseau social pour promouvoir un·e candidat·e. Ceci peut influencer l'opinion publique et être utilisé dans le cadre de campagnes politiques, promotions d'entreprises ou autres stratégies basées sur des intérêts particuliers.
Mais quelles sont les mesures en place à l'échelle européenne pour lutter contre la désinformation ?
Les moyens de lutte contre la désinformation
Une réponse de l'UE face à la désinformation causée par l'IA
Afin de mieux lutter contre la désinformation en ligne, surtout dans un contexte d'amplification par l'IA, l'UE s'est dotée d'un arsenal législatif.
- Le Digital Services Act (DSA) : adopté en novembre 2022, le DSA oblige les plateformes en ligne à lutter contre les abus et la désinformation. Elles doivent ainsi prendre toutes les mesures possibles afin de prévenir ces pratiques (signalement des contenus illicites, modération, transparence...)
Le Code de bonnes pratiques sur la désinformation : renforcé en 2022, avec 128 mesures spécifiques et 44 signataires. Ceux-ci s'engagent à prendre des mesures de transparence en matière de publicité à caractère politique, permettant aux utilisateurs·rices de reconnaître les publicités à caractère politique. En outre, des mesures doivent être prises afin de réduire les comportements manipulateurs, notamment amplifiés par l'IA (faux comptes, deep fakes...).
Le Règlement européen relatif à la transparence et au ciblage de la publicité à caractère politique : adopté le 13 mars 2024, il vise à lutter contre la désinformation et les ingérences étrangères dans les élections européennes. Des mesures strictes sont prévues par ce règlement, permettant aux citoyen·nes de comprendre qui est à l'origine des publicités et qui est visé par une publicité ciblée afin de faire des choix éclairés.
L'AI Act (Loi sur l'intelligence artificielle): récemment adopté par l'UE, ce texte crée des obligations pour les fournisseurs de systèmes d'IA à haut risque (avec un risque de manipulation). Ainsi, parmi la liste de ces systèmes à haut risque ont été ajoutés ceux ayant la capacité d'influencer les électeurs·rices dans le cadre des campagnes électorales. Aussi, les contenus créés avec une IA générative devront porter une mention spéciale, pour une meilleur transparence.
Des outils de lutte contre la désinformation
Outre l'arsenal législatif, il existe des outils permettant de combattre au mieux la désinformation en ligne, en particulier celle reposant sur l'IA.
Citons notamment les outils de détection automatique de contenus générés par IA : par exemple GPTZero, DetectGPT ou encore "Classifier" de OpenAI. Toutefois, la pertinence de ces outils a été fortement critiquée. En effet, certains tests réalisés sur ces outils ont permis de mettre en évidence leur rapide obsolescence face aux grandes capacités de l'IA. Ils peuvent ainsi être simplement contournés en remplaçant quelques mots, ou en reformulant tout simplement le contenu généré par l'IA. OpenAi indique d'ailleurs, à ce propos :
À partir du 20 juillet 2023, le classificateur d'IA n'est plus disponible en raison de son faible taux de précision. Nous travaillons à intégrer les retours et menons actuellement des recherches sur des techniques de provenance plus efficaces pour les textes. Nous nous sommes engagés à développer et déployer des mécanismes permettant aux utilisateurs de savoir si le contenu audio ou visuel est généré par une IA.
Source : OpenAI
Quant à la technique du watermarking (arquage numérique), elle a pour but d'identifier les contenus générés par IA : cela consiste en l'ajout informations invisibles sur l'origine du contenu, le modèle d'IA utilisé et les paramètres de formation, facilitant ainsi la traçabilité. À ce stade, cette solution reste encore limitée car le marquage peut être facilement retiré après une simple reformulation, dans le cadre de la génération de texte.
Au niveau des plateformes en ligne, certaines initiatives ont également vu le jour. Ainsi, TikTok affirme travailler avec une quinzaine d'organisations de fact-checking (vérification des faits) dans plus de 40 langues. Cela permettrait concrètement de labelliser les vidéos comprenant du contenu non vérifié et de ne pas les faire apparaître dans la section « Pour vous » des utilisateurs·rices. Meta et Google ont à leur tour annoncé leur volonté de prendre certaines mesures en ce sens. X (anciennement Twitter) n'a de son côté pas annoncé de mesures particulières à l'approche des élections européennes.
Cependant, l'ONG Global Witness a décidé de tester trois plateformes dans leurs stratégies de lutte contre la désinformation en y postant 16 publicités avec des informations erronées sur les élections européennes. X les a toutes bloquées, YouTube en a bloqué 14, tandis que TikTok a approuvé toutes les 16. Il reste donc du chemin à faire pour cette plateforme qui attire massivement les jeunes.
Enfin, pour répondre, à cette problématique, une coalition sur la provenance et l’authenticité des contenus (C2PA) est en cours de création. Elle réunit des acteurs comme Adobe, Intel ou Microsoft.
En résumé, l'intelligence artificielle est une technologie pouvant impacter profondément les élections européennes, avec quelques possibilités de renforcer la démocratie... et d'autres possibilités infinies de propagation de désinformation. Il sera crucial à l’avenir d’aligner les réglementations sur les capacités de l’IA, et d'éduquer les électeurs·rices pour réduire ses impacts et préserver la démocratie.
Références :
- European Parliament - Artificial intelligence, democracy and elections
- Euronews - EU elections: How is Europe preparing for possible disinformation campaigns?
- BBC - Giorgia Meloni: Italian PM seeks damages over deepfake
- Conseil de l'Union européenne : L'UE introduit de nouvelles règles en matière de transparence et de ciblage de la publicité à caractère politique
- OpenAI - New AI classifier for indicating AI-written text
- Global Witness - TikTok approves misleading election disinformation ads for publication in Ireland ahead of EU elections
[Photo de couverture : Joakim Honkasalo]
Soutenez-nous en partageant l'article :