Pause IA : dangers et défis de l’intelligence artificielle
Impossible de passer à côté : l'IA est partout. Mais ses créateurs·rices semblent davantage se préoccuper de ses capacités que des risques qu'elle fait courir aux humain·es. Entretien avec Maxime Fournes, à la tête de la branche française de l'association Pause IA.
Maxime Fournes, diplômé d’une école d’ingénieur en France et titulaire d’un master en mathématiques à Cambridge, a travaillé pendant une dizaine d’années dans le domaine du deep learning. « C'est la technologie qui est derrière les intelligences artificielles qu'on connaît aujourd'hui. J'étais chercheur et ingénieur dans le secteur privé. »
Mais en 2023, la sortie de GPT-4 marque un tournant pour lui : « Là, j’ai commencé à vraiment m’inquiéter. » Il se plonge alors dans la recherche sur la sécurité de l’IA, analysant les arguments des expert·es sur les risques liés à ces technologies. « J'en suis ressorti assez convaincu qu'il y a de forts risques pour la société à court terme. »
Aujourd’hui, il dirige la branche française de Pause IA, un mouvement présent dans 12 pays qui organise des manifestations, publie des contre-expertises et milite pour une gouvernance plus stricte de l’IA.
- ❌ 0% publicité
- 🫀 100% du contenu écrit par un·e humain·e
- ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
- 💡 Le meilleur du numérique responsable
L'intelligence artificielle open source : une alternative risquée face aux dérives sécuritaires
Les modèles d'intelligence artificielle open source apparaissent comme une alternative intéressante aux modèles propriétaires, offrant plus de transparence et un meilleur contrôle sur les données utilisées. Ils permettent aussi de mesurer l'impact matériel et énergétique de leur utilisation.
Cependant, Maxime Fournes nous met en garde : « L'open source, ce n'est pas un dogme, ça a des limites. La limite, c’est quand une technologie devient extrêmement dangereuse, il vaut mieux ne pas la mettre entre les mains de tout le monde. » Il cite notamment Meta, qui rend ses modèles accessibles en « open weight » (sans partager le code ni les données utilisés pour créer leur IA).
Cette accessibilité pose de sérieux problèmes de sécurité. « La Chine utilise leurs intelligences artificielles à des fins militaires. Meta a publié une déclaration pour indiquer que c'est contraire à leurs termes et conditions d'usage. » Pourtant, ces restrictions sont facilement contournables : « Ils rajoutent une couche d'alignement par-dessus qu'on peut enlever en un jour ou deux. »
Résultat, ces modèles en libre accès peuvent être détournés à des fins malveillantes, facilitant « des attaques de phishing, l’automatisation de fake news, etc. ».
Super-intelligence artificielle : un danger entre perte de contrôle et cybermenaces
Le développement d’une intelligence artificielle plus compétente que l’humain dans toutes les tâches pose deux problèmes majeurs : la perte de contrôle sur cette IA, et son utilisation malveillante. « On crée des intelligences artificielles, mais on ne sait pas comment les aligner avec des valeurs humaines », explique Maxime Fournes, soulignant le risque qu’un système autonome ne suive plus l’objectif fixé. Il compare ce danger à un virus informatique capable de se répliquer et pirater des systèmes.
Et même si ce problème était résolu, une autre menace subsiste : « Comment empêcher que des acteurs·rices mal intentionné·es utilisent ces systèmes à de mauvaises fins ? ». Un tel outil, aussi performant que les meilleurs pirates informatiques, pourrait être détourné pour des cyberattaques massives, illustrant l’urgence d’une régulation efficace.
Sommet pour l’IA en France : priorité à l’investissement au détriment de la sécurité ?
Le Sommet pour l’action sur l’Intelligence Artificielle, organisé en France du 6 au 11 février 2025, a suscité des critiques quant à son approche des risques liés à l’intelligence artificielle.

Alors que ces rencontres internationales avaient initialement pour objectif de traiter les enjeux de sécurité (on pense par exemple à l'AI Safety Summit organisé au Royaume-Uni en novembre 2023), la France a décidé de rebaptiser l’événement "Sommet pour l’action sur l’IA", un changement révélateur selon Maxime Fournes. « En France, on est dans le déni complet des risques de l’IA », affirme-t-il, dénonçant une approche favorisant l’investissement plutôt que la régulation.
Maximes conclut « Il y a cinq groupes de travail. Il n’y en a aucun qui est sur la sécurité de l’IA. Il y a un groupe de travail qui s'appelle l’intelligence artificielle de confiance, et dans ce groupe de travail, il y aura des problématiques de sécurité qui seront abordées ».
Références :
- Communiqué de presse - 01/11/2023 - La France organisera le prochain Sommet sur l’intelligence artificielle
- Sommet pour l’action sur l’Intelligence Artificielle
Soutenez-nous en partageant l'article :