Pause IA : dangers et défis de l’intelligence artificielle

Soutenez un média indépendant

Reportages, enquêtes, initiatives et solutions en accès libre : pour un numérique plus responsable, notre rédaction compte sur vous.

Jérémy PASTOURETJérémy PASTOURET

4 min

Pause IA : dangers et défis de l’intelligence artificielle

Impossible de passer à côté : l'IA est partout. Mais ses créateurs·rices semblent davantage se préoccuper de ses capacités que des risques qu'elle fait courir aux humain·es. Entretien avec Maxime Fournes, à la tête de la branche française de l'association Pause IA.

Maxime Fournes, diplômé d’une école d’ingénieur en France et titulaire d’un master en mathématiques à Cambridge, a travaillé pendant une dizaine d’années dans le domaine du deep learning. « C'est la technologie qui est derrière les intelligences artificielles qu'on connaît aujourd'hui. J'étais chercheur et ingénieur dans le secteur privé. »

Mais en 2023, la sortie de GPT-4 marque un tournant pour lui : « Là, j’ai commencé à vraiment m’inquiéter. » Il se plonge alors dans la recherche sur la sécurité de l’IA, analysant les arguments des expert·es sur les risques liés à ces technologies. « J'en suis ressorti assez convaincu qu'il y a de forts risques pour la société à court terme. »

Aujourd’hui, il dirige la branche française de Pause IA, un mouvement présent dans 12 pays qui organise des manifestations, publie des contre-expertises et milite pour une gouvernance plus stricte de l’IA.

Pour continuer à vous informer sur les impacts des intelligences artificielles, inscrivez-vous à la newsletter mensuelle :
  • ❌ 0% publicité
  • 🫀 100% du contenu écrit par un·e humain·e
  • ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
  • 💡 Le meilleur du numérique responsable

L'intelligence artificielle open source : une alternative risquée face aux dérives sécuritaires

Les modèles d'intelligence artificielle open source apparaissent comme une alternative intéressante aux modèles propriétaires, offrant plus de transparence et un meilleur contrôle sur les données utilisées. Ils permettent aussi de mesurer l'impact matériel et énergétique de leur utilisation.

Cependant, Maxime Fournes nous met en garde : « L'open source, ce n'est pas un dogme, ça a des limites. La limite, c’est quand une technologie devient extrêmement dangereuse, il vaut mieux ne pas la mettre entre les mains de tout le monde. » Il cite notamment Meta, qui rend ses modèles accessibles en « open weight » (sans partager le code ni les données utilisés pour créer leur IA).

Cette accessibilité pose de sérieux problèmes de sécurité. « La Chine utilise leurs intelligences artificielles à des fins militaires. Meta a publié une déclaration pour indiquer que c'est contraire à leurs termes et conditions d'usage. » Pourtant, ces restrictions sont facilement contournables : « Ils rajoutent une couche d'alignement par-dessus qu'on peut enlever en un jour ou deux. »

Résultat, ces modèles en libre accès peuvent être détournés à des fins malveillantes, facilitant « des attaques de phishing, l’automatisation de fake news, etc. ».

Super-intelligence artificielle : un danger entre perte de contrôle et cybermenaces

Le développement d’une intelligence artificielle plus compétente que l’humain dans toutes les tâches pose deux problèmes majeurs : la perte de contrôle sur cette IA, et son utilisation malveillante. « On crée des intelligences artificielles, mais on ne sait pas comment les aligner avec des valeurs humaines », explique Maxime Fournes, soulignant le risque qu’un système autonome ne suive plus l’objectif fixé. Il compare ce danger à un virus informatique capable de se répliquer et pirater des systèmes.

Et même si ce problème était résolu, une autre menace subsiste : « Comment empêcher que des acteurs·rices mal intentionné·es utilisent ces systèmes à de mauvaises fins ? ». Un tel outil, aussi performant que les meilleurs pirates informatiques, pourrait être détourné pour des cyberattaques massives, illustrant l’urgence d’une régulation efficace.

Sommet pour l’IA en France : priorité à l’investissement au détriment de la sécurité ?

Le Sommet pour l’action sur l’Intelligence Artificielle, organisé en France du 6 au 11 février 2025, a suscité des critiques quant à son approche des risques liés à l’intelligence artificielle.

La France organisera le prochain Sommet sur l’intelligence artificielle
Bruno Le Maire, ministre de l’Economie, des Finances et de la Souveraineté industrielle et numérique, et
Jean-Noël Barrot, ministre délégué chargé du Numérique, ont annoncé aujourd’hui que la France
accueillerait la prochaine édition du Sommet sur la sécurité de l’intelligence artificielle (IA) à Paris.
L’organisation de ce Sommet s’inscrit en pleine cohérence avec la stratégie française et européenne en
matière de gouvernance de l’intelligence artificielle.
Source : communiqué de presse du 01/11/23

Alors que ces rencontres internationales avaient initialement pour objectif de traiter les enjeux de sécurité (on pense par exemple à l'AI Safety Summit organisé au Royaume-Uni en novembre 2023), la France a décidé de rebaptiser l’événement "Sommet pour l’action sur l’IA", un changement révélateur selon Maxime Fournes. « En France, on est dans le déni complet des risques de l’IA », affirme-t-il, dénonçant une approche favorisant l’investissement plutôt que la régulation.

Maximes conclut « Il y a cinq groupes de travail. Il n’y en a aucun qui est sur la sécurité de l’IA. Il y a un groupe de travail qui s'appelle l’intelligence artificielle de confiance, et dans ce groupe de travail, il y aura des problématiques de sécurité qui seront abordées ».

Références :

Soutenez-nous en partageant l'article :

Sur le même thème :