Deepfakes, hashtags et algorithmes : et si l'issue des élections américaines ne dépendait plus que du numérique ?

Soutenez un média indépendant

Reportages, enquêtes, initiatives et solutions en accès libre : pour un numérique plus responsable, notre rédaction compte sur vous.

Nousseu DOUONNousseu DOUON

6 min

Deepfakes, hashtags et algorithmes : et si l'issue des élections américaines ne dépendait plus que du numérique ?

Les élections américaines, événement emblématique de la démocratie, se jouent aussi sur le plan numérique. Aujourd’hui, elles sont confrontées à un défi de taille : la montée en puissance de l'intelligence artificielle, qui redéfinit en profondeur les moyens d’informer, de mobiliser et, potentiellement, de manipuler les électeurs·rices.

Le scandale Cambridge Analytica (avec l'exploitation des données d'utilisateurs·rices Facebook à des fins électorales), les interventions de figures influentes telles qu'Elon Musk, propriétaire du réseau social X (ex-Twitter) et la montée en puissance de l'intelligence artificielle illustrent la façon dont le numérique peut modifier le cours d'une élection en influençant les opinions et en polarisant les débats.

Les plateformes numériques : des outils indispensables à la vie politique

Le numérique est aujourd'hui un acteur incontournable dans les processus électoraux et la vie politique. Il modifie les canaux de communication, les stratégies des partis, les comportements des électeurs·rices et les mécanismes de gouvernance. En rendant l’information politique plus accessible et instantanée, le numérique a révolutionné la manière dont les citoyens·nes s’informent et interagissent avec la politique. Ceci, par le biais d'un rapprochement entre l'entité étatique et la population : nouveaux modes d'information, vote en ligne, pétitions en ligne, etc.

Grâce aux plateformes numériques, les partisan·es peuvent désormais interagir directement avec leurs candidat·es et exprimer leurs opinions publiquement. Les pétitions en ligne, les campagnes de hashtag (mots-clés tendances sur les réseaux en rapport à un événement, permettant de référencer toutes les réactions qui s'y rapportent) et les forums de discussion témoignent de l’implication accrue des citoyen·nes dans la vie politique.

Hashtag tendance #USElection2024 - 22K posts
Exemple de campagne de hashtag sur le réseau social Facebook, en rapport avec les élections présidentielles américaines

Cependant, cette accessibilité peut ouvrir la voie à la désinformation et à la manipulation, avec des risques importants de distorsion de la réalité, particulièrement en période électorale. C’est le cas aux États-Unis.

Pour ne rien rater sur l'impact de l'IA sur la politique, inscrivez-vous à notre newsletter :
  • ❌ 0% publicité
  • 🫀 100% du contenu écrit par un·e humain·e
  • ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
  • 💡 Le meilleur du numérique responsable

Rappels historiques de l’influence du numérique sur la vie politique

L’influence du numérique sur la démocratie a marqué les processus électoraux à travers plusieurs événements historiques, révélant à quel point les technologies numériques peuvent bouleverser la scène politique. Ces cas montrent les dangers de la manipulation d’opinions à grande échelle et soulignent le besoin de régulation face à l’impact grandissant du numérique sur les démocraties.

Par exemple, en 2018, il a été révélé que l'entreprise Cambridge Analytica avait collecté les données personnelles de millions d'utilisateurs·rices de Facebook sans leur consentement pour influencer les intentions de vote lors des élections présidentielles américaines de 2016, ainsi que les campagnes pro-Brexit.

Contenu d'une ancienne page du site Cambridge Analytica - We find your voters and move them to action. CA Political has redefined the relationship between data and campaigns. By knowing your electorate better, you can achieve greater influence while lowering overall costs. There areno longerany expertsexcept CambridgeAnalytica." - Frank Luntz, Political Pollster
Capture de l'ancien site de Cambridge Analytica (web.archive.org)

Un autre cas récent est celui des élections de 2023 en Slovaquie. De faux enregistrements audios créés par intelligence artificielle, visant Michal Šimecka (leader du Parti Progressiste), ont été utilisés pour simuler des discussions avec un journaliste sur la manipulation des votes. Suite à leur diffusion, il est arrivé en seconde position alors que les sondages le donnaient vainqueur.

Les risques posés par les plateformes numériques dans la démocratie

Les plateformes numériques, en tant que vecteurs puissants de diffusion de l’information, présentent des risques substantiels pour la démocratie. La manipulation des opinions, la polarisation idéologique, la publicité ciblée et la prolifération de faux comptes constituent autant de menaces potentielles à la qualité du débat public et à la stabilité des institutions démocratiques.

Manipulation de l’opinion publique

Les plateformes permettent une diffusion rapide et massive de contenus, facilitant ainsi la manipulation de l’opinion publique. Les algorithmes, conçus pour maximiser l’engagement, amplifient des contenus susceptibles de générer des réactions fortes, sans se préoccuper de leur véracité.

Cette manipulation sur les plateformes peut également être le fait de personnes influentes de la sphère numérique. Citons notament Elon Musk, propriétaire du réseau social X (anciennement Twitter). Le 30 août 2024, la Cour Suprême brésilienne a ordonné le blocage de X, accusant la plateforme de ne pas avoir censuré certains contenus et comptes responsables de désinformation. Elon Musk a refusé de se conformer à cette décision, ce qui a conduit à la suspension de la plateforme dans tout le pays.

Polarisation idéologique

Les plateformes amplifient la polarisation idéologique par ce que l’on appelle les effets de chambre d'écho. Les utilisateurs·rices sont souvent exposé·es à des contenus similaires, renforçant ainsi leurs propres points de vue et limitant les opportunités de confrontation d’idées. Les algorithmes de recommandation favorisent les publications en adéquation avec les intérêts et les croyances de chaque utilisateur·rice, contribuant ainsi à la fragmentation de l’opinion publique. Ainsi, dans le cadre des élections américaines, un·e utilisateur·rices ayant des convictions démocrates et suivant des personnes ayant les mêmes points de vue risque de se retrouver enfermé·e dans une bulle idéologique, avec peu de contradiction.

Publicité politique ciblée

La publicité ciblée exploite les données personnelles et les préférences des utilisateurs·rices pour leur faire parvenir des publicités avec une précision inédite. Si ces techniques permettent de mieux atteindre certains segments de la population, elles encouragent également la diffusion de messages polarisants ou clivants, adaptés à des cibles spécifiques mais invisibles au reste de la population, diminuant ainsi la transparence et la cohésion du discours politique.

En France, des chercheurs·ses du CNRS (Centre National de la Recherche Scientifique) ont développé l’outil AdAnalyst afin de comprendre le fonctionnement de la publicité ciblée sur Facebook. Grâce à 2000 volontaires, 240 000 publicités (politiques ou non) diffusées pendant les élections présidentielles de 2018 au Brésil ont pu être recueillies et examinées. Ils·elles ont découvert qu'environ 2 % de ces publicités étaient catégorisées comme commerciales, mais avaient en réalité un but politique. Ce taux est relativement important puisque sur l'ensemble des publicités diffusées, les annonceurs·ses avaient initialement déclaré 2 à 4% de publicités politiques.

Faux comptes et désinformation

Les faux comptes sont utilisés pour propager de la désinformation ou manipuler l’opinion sur les réseaux sociaux. Le rapport Imperva de Thalès (2024) pointe une prolifération générale des "mauvais bots" sur Internet : dans la totalité du secteur "Communauté et société" (incluant les réseaux sociaux), le trafic des "mauvais bots" compte pour 42,2% du total.

Un bot est un programme informatique exécutant des tâches automatisées, pouvant aller d'actions simples, comme remplir un formulaire, à des tâches plus complexes, comme rechercher des données sur un site web.

Ces "mauvais bots" ont pour principale mission de cibler les plateformes en ligne pour propager des fake news, amplifier des messages de propagande, manipuler les tendances et influencer le débat public. Concrètement, cela passe par l’amplification du nombre de reposts (re-publications) ou de likes par les faux comptes, ce qui fait croire à un fort engagement ou accord populaire.

Exemple d'un faux compte sur X

Création de deepfakes

Un deepfake ou hypertrucage est une technique de manipulation de médias numériques utilisant l'intelligence artificielle pour créer des images, vidéos ou audios falsifié·es, qui paraissent réalistes.

Par exemple, en janvier 2024, un appel automatisé utilisant une voix générée par IA a imité le président américain Joe Biden, conseillant à des électeurs·rices (environ 20.000 selon la chaîne CNN) de ne pas voter lors des primaires du New Hampshire. Ce type de manipulation peut semer la confusion et influencer les résultats électoraux.

En février 2024, une série de photos truquées montrant Donald Trump avec des électeurs·rices afro-américain·es a circulé sur les réseaux sociaux. Une vérification du média anglophone BBC a montré que la photo avait été créée par IA.

Une autre image montrant le président Biden en tenue militaire et en pleine opération a été publiée sur X le 30 janvier 2024. Une vérification des faits par l’AFP (Agence France-Presse) a permis de confirmer qu’il s’agissait en réalité d’une image manipulée, dans le but de montrer une forte implication du président dans les opérations militaires.

Biden en tenu militaire dans une salle de gestion de crise potentiellement entouré de militaires
Deepfake publié sur X représentant le président Biden en tenue militaire - source : Farid Berkeley

Dans ce contexte, le CISA (Agence américaine pour la Cybersécurité et la Sécurité des Infrastructures) a présenté une classification des risques liés à l’utilisation de l’IA générative dans le cadre des élections américaines. Son but est de sensibiliser la population électorale sur les dangers posés par le numérique

SupportRésultatExemple
VidéoTexte vers video : deepfakeUtilisation de deepfakes pour créer des vidéos de candidat·es communiquant de fausses informations sur les procédures de vote, ou pour discréditer les candidat·es. Par exemple, une vidéo truquée montrant un·e candidat·e faisant des déclarations controversées.
ImageTexte vers image : image altéréeCréation d'images de rassemblements ou d'événements inexistants pour manipuler les perceptions des électeurs·rices, comme montrer un·e candidat·e dans des situations compromettantes ou positives pour son image.
AudioTexte vers audio : audio altéréClonage de la voix d'un·e candidat·e pour diffuser de faux appels téléphoniques ou des messages vocaux, comme de fausses déclarations ou des actes illicites, visant à semer la confusion.

Ainsi, le numérique présente des risques significatifs pour les élections, en facilitant la désinformation, la manipulation ciblée, et la création de contenus trompeurs comme les deepfakes. Ces menaces complexifient la protection de l’intégrité électorale et augmentent la difficulté pour les citoyen·nes de discerner l'authenticité des informations.

Post de Donald Trump sur son réseau The Truth avec des images générés par IA contenant des fans de Taylor Swift indiquant soutenir Trump et une affichage Taylor Swift wants you to vote for Donald Trump
Compte de Donald Trump reprenant des images réalisées par IA, sur son réseau Truth Social (18 août 2024). Quelques semaines plus tard, la chanteuse Taylor Swift affichera son soutien à son opposante Kamala Harris (11 septembre 2024).

Pour contrer ces effets, des efforts de régulation et des initiatives de transparence se multiplient, cherchant à renforcer la protection des individus en ligne et à préserver la confiance dans les processus démocratiques.

Efforts de régulation par les plateformes numériques

De leur côté, les plateformes numériques tentent de lutter contre la désinformation. Meta (Facebook et Instagram) utilise des algorithmes et une communauté d’environ 100 vérificateurs·rices afin d’identifier les contenus générés par IA et les signaler avec l’inscription « AI info ». Par ailleurs, la promotion de contenus politiques sur la plateforme est soumise à autorisation avec une mention obligatoire permettant d’identifier le·la financeur·se. En outre, une période de restriction des publicités politiques est établie par Meta entre le 29 octobre et le 5 novembre 2024 pour les élections américaines.

TikTok utilise une méthode appelée « Content Credentials » pour signaler automatiquement la présence de contenus générés par IA, en y ajoutant une étiquette et des métadonnées. La plateforme exige également que les utilisateurs·rices signalent eux·elles-mêmes la présence de contenus générés par IA par l'ajout d'une légende claire, d'un filigrane ou d'un autocollant. Le réseau interdit également la promotion des contenus politiques, les dons et collectes de fonds pour des campagnes, empêchant les politicien·nes de solliciter des dons via des vidéos ou liens directs.

X (ex-Twitter) ne signale pas la présence de contenus générés par IA mais repose sur la contribution de la communauté, avec un programme appelé « Notes de communauté ». Cela permet de signaler les contenus trompeurs avec un étiquette apposée à la publication, suivie d’un lien vers la source. Les publicités politiques sont approuvées mais uniquement dans certains pays comme les Etat-Unis, avec autorisation préalable pour les publicités en campagne électorale.

Enfin, pour mieux lutter contre la désinformation, surtout en période électorale, il est essentiel d'adopter de bons réflexes. Cela inclut la vérification des faits via des sources fiables comme Factcheck.org, PolitiFact, AFP Factuel, ainsi que l'utilisation de la recherche inversée d'images avec Google Images ou TinEye pour repérer les manipulations.

Il est indispensable de vérifier si d'autres sources d'information ont publié la même histoire avant d'y croire. Privilégier les informations provenant de comptes officiels de médias, en fonction du pays ou de la plateforme utilisée, est également crucial. Pour éviter de s'enfermer dans une bulle, il est important de diversifier ses sources d'information. Enfin, en ce qui concerne l'intelligence artificielle, se familiariser avec les outils d'IA et leur fonctionnement permet d'apprendre à détecter les biais et mieux reconnaître les contenus trompeurs.

Références :

[Photo de couverture : Element5 Digital]

Soutenez-nous en partageant l'article :

Sur le même thème :