Ethique & intelligence artificielle : entre biais culturels et défis sociétaux
Giada Pistilli, docteure en philosophie et principal ethicist à Hugging Face, explore dans un entretien avec Les e-novateurs les enjeux éthiques des IA génératives. Elle explique comment les modèles, nourris par des données issues du passé, reproduisent des biais culturels et structurels tout en invitant à repenser leur développement pour mieux s’adapter aux réalités actuelles.

Interview
Giada Pistilli
docteure en philosophie et principal ethicist à Hugging Face
Giada Pistilli travaille pour la plateforme franco-américaine Hugging Face. Celle-ci permet à la communauté des créateurs·rices d'intelligence artificielles de partager leur modèles, les entraîner, utiliser des données, etc. Cet acteur est devenu incontournable dans le monde des IA.
Giada joue un rôle central dans l’équipe « Machine Learning and Society ». En conjuguant recherche académique et accompagnement opérationnel, elle se penche sur les multiples facettes des enjeux éthiques des technologies d’IA.
Le modèle statistique et la « soupe » des données
Giada Pistilli rappelle que les modèles d’IA se fondent sur des analyses statistiques de données passées. Selon elle, cette approche entraîne inévitablement des raccourcis et une simplification excessive :
On essaie de faire rentrer dans un modèle statistique des qualités et des visions de société... qui normalement ne sont pas du tout statistiques. Donc forcément, le modèle est obligé de faire des raccourcis, un gros résumé. Une espèce d’énorme soupe de tout.
Giada Pistilli
Ce “résumé” des données peut faire oublier des voix et des particularités qui, pourtant, sont essentielles pour comprendre le contexte d’utilisation des outils d’IA.
- ❌ 0% publicité
- 🫀 100% du contenu écrit par un·e humain·e
- ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
- 💡 Le meilleur du numérique responsable
Les biais culturels : quand la donnée façonne le modèle
Pour illustrer ce phénomène, Giada Pistilli évoque la génération d’images par IA.
Si par exemple on demande à un modèle de génération d’images de créer une maison, sans instruction supplémentaire, il va créer une maison américaine, car la majorité des données sur lesquelles il a été entraîné sont occidentales.
Giada Pistilli
Ce constat démontre à quel point il est indispensable de tenir compte des contextes culturels et historiques lors du développement de technologies génératives.
Des enjeux éthiques à multiples facettes
Giada Pistilli souligne que les biais ne sont pas intrinsèquement négatifs. Ils relèvent en partie de la nature humaine et peuvent servir à identifier des dysfonctionnements plus profonds dans la société.
Les biais ne sont pas forcément négatifs tout le temps, puisque nous les humains, on a des biais. Surtout quand on parle par exemple de biais cognitifs.
Giada Pistilli
Néanmoins, leur impact peut devenir préoccupant lorsqu’ils viennent amplifier des stéréotypes ou influencer des décisions critiques, notamment dans le domaine de la justice ou de l’allocation des ressources.
Vers un contrôle éthique et technique plus fin
Face à ces enjeux, l’experte propose une approche plus fine, combinant contrôle technique et contrôle éthique. Son idée : recourir à des modèles plus petits, adaptés aux contextes spécifiques de leur utilisation et à un public défini.
C'est ce que prône Thomas Wolf, co-fondateur d'Hugging Face : au lieu d'avoir un modèle qui est capable de répondre à toutes les questions, ce sont des modèles beaucoup plus petits, beaucoup plus spécialisés sur une question particulière, qu'on peut brancher les uns avec les autres [...], qui consomment aussi beaucoup moins en énergie - un élément extrêmement important.
Giada Pistilli
Un chemin vers une IA responsable
Giada Pistilli démontre que l’intelligence artificielle, bien que puissante, se heurte à des défis de taille lorsqu’il s’agit d’intégrer une pluralité de visions sociétales.
a grande question sous-jacente, c’est de dire : “ok, on ne veut pas reproduire les biais de la société, mais donc quel type de société on va reproduire ?” […] On sait très bien qu'en société, il y a déjà des problèmes sous-jacents. Ce n'est pas quelque chose d'intrinsèquement problématique dans un modèle d'IA, ça ne fait que fonctionner comme vecteur, comme amplificateur de problèmes qui existent déjà.
Giada Pistilli
Que faire en tant qu'utilisateur·rice ?
Pour finir, Giada Pistilli invite a se questionner sur les usages et la place de l'intelligence artificielle dans notre quotidien.
Énormément de gens ont peur d'exprimer leur opinion, de sembler stupide. Ils se disent : "La machine devant moi, elle est tellement plus intelligente que moi. Je suis juste un pauvre être humain, donc tout ce que me dit la machine est la vérité." Alors que pas du tout ! L'humain restera toujours plus intelligent.[...] Il faut se réapproprier le droit de ne pas l'utiliser, ce qui peut paraître banal... mais ça ne l'est pas.
Giada Pistilli
Soutenez-nous en partageant l'article :