Une IA neutre et sans prégugés ? En 2024, c'est toujours une légende

Soutenez un média indépendant

Reportages, enquêtes, initiatives et solutions en accès libre : pour un numérique plus responsable, notre rédaction compte sur vous.

Hélène Dos SantosHélène Dos Santos

5 min

Une IA neutre et sans prégugés ? En 2024, c'est toujours une légende

A la manière d’un·e humain·e, une intelligence artificielle peut-elle se montrer sexiste ou raciste ? Certains exemples récents semblent démontrer que les algorithmes sont loin d'être parfaitement neutres, justes ou équitables. Alors est-il possible de créer une IA qui ne soit biaisée d'aucune façon ?

Du monde stéréotypé aux données biaisées

Nous sommes imprégné·es de stéréotypes. En un sens, c’est très utile puisque cela nous permet de simplifier notre monde complexe pour mieux l’aborder. Pour l’Homme des cavernes, pratique de savoir discerner rapidement un animal apprivoisable d’une bête féroce (par exemple en identifiant d'un coup d’œil ses grandes dents pointues).

Cependant, il faut avoir conscience que ces stéréotypes ne représentent pas la réalité. Ils n'en sont qu'une simplification. Problème : même en ayant conscience de l’inexactitude des stéréotypes, ceux-ci persistent. Le stéréotype sera toujours la première réponse de notre cerveau... et il nous faut faire un effort supplémentaire pour aller au-delà.

En fait, nos stéréotypes forment la base de croyances qui vont engendrer des attentes envers les autres : un homme doit avoir "une bonne situation", une femme doit s’occuper des autres, etc. C’est ainsi qu'avec des stéréotypes au cœur de notre fonctionnement, nous avons bâti un monde qui répond à ces stéréotypes : davantage de femmes infirmières, d'hommes chefs d'entreprise… et cela se retrouve dans les données que nous produisons sur nous-mêmes.

Une étude de 2013 portant sur les biais de genre montre que même les mots que nous utilisons sont empreints de stéréotypes. Ces travaux se basent sur le principe de la vectorisation, qui consiste à additionner ou soustraire des mots pour en obtenir d’autres :

Homme + Couronne = Roi

Roi - Homme = Reine

Un procédé permettant de nous renseigner sur la proximité syntaxique de certains mots. Ainsi, l’étude a découvert qu’un programmeur est syntaxiquement proche d’une femme au foyer :

Homme + Ordinateur = Programmeur

Femme + Ordinateur = Femme au foyer

Les biais humains sont donc reflétés dans les données que nous transmettons à des Intelligences Artificielles (IA) pour leur apprentissage.

Pour continuer à vous informer sur les biais de l'IA, inscrivez-vous à la newsletter mensuelle :
  • ❌ 0% publicité
  • 🫀 100% du contenu écrit par un·e humain·e
  • ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
  • 💡 Le meilleur du numérique responsable

Biais algorithmiques : quand la machine généralise

A la manière des enfants qui apprennent à différencier des formes par l’expérience et la répétition, l’IA apprend à partir des données qui lui sont fournies. Ces données fonctionnent comme un extrait de la réalité, à partir duquel l’IA va généraliser pour "se faire une idée" de la réalité qu'on lui propose.

Si vous montrez uniquement des images de chats noirs à une IA, elle intégrera que tous les chats sont noirs. Et comment pourrait-il en être autrement, puisque c’est la seule version de la réalité que vous lui avez donnée ?

Les données intégrées par l'IA lui servent donc de modèle statistique, appliqué aux tâches que nous lui demandons de réaliser. Mais comme nous l'avons vu, les données que nous fournissons à l’IA sont empreintes de nos stéréotypes et de nos biais. Une fois son processus d’apprentissage effectué, il n’est donc pas étonnant que l’IA systématise, voire amplifie ces biais.

Un exemple significatif : en 2014, Amazon a souhaité automatiser son processus de recrutement en implémentant une IA pour trier les CV des candidat·es. Les données fournies à l’IA comprenaient les CV des personnes embauchées au cours des 10 dernières années... majoritairement des hommes. Ce qui a amené l’IA à généraliser (et amplifier !) ce constat en refusant tous les CV de femmes.

Voilà une problématique éthique qui peut avoir de graves conséquences. Heureusement, il existe une barrière de contrôle avant le déploiement d'une intelligence artificielle : les équipes de développement d'IA.

Biais du concepteur : quelle diversité dans les équipes de développement ?

L’équipe de développement (composée d'expert·es en données, ingénieur·es IA, chef·fes de projet…) est responsable d’un projet d’IA de sa conception à sa distribution. Sur le papier, ces personnes veillent à ce que les données soient justes et que les traitements réalisés par l’IA soient équitables.

Toutefois, avant la parution de l’AI Act (réglementation européenne encadrant l’IA), ces équipes n’étaient pas contraintes de réaliser ce type de vérifications. Les problèmes se constataient au déploiement de l’IA, lorsque les utilisateurs·rices finaux·ales s'y confrontaient.

Par ailleurs, ces équipes sont très majoritairement constituées d’hommes blancs.

29 %

de femmes dans les métiers de la data science et de l’IA.

Source : The Conversation - "Pourquoi est-il important d’avoir une égalité femmes-hommes dans le monde de l’IA ?"

Ce manque de diversité implique souvent une sensibilisation moindre aux stigmatisations.

Seulement 2%

d'employé·es noir·es chez Google en 2017.

Source : Usbek & Rica - "La Silicon Valley toujours aussi blanche et masculine"

Autre problématique : en grande majorité, ce sont ces personnes aussi qui effectuent les tests. Comment, à ce moment-là, être sûr que le modèle fonctionne aussi bien sur une femme, un homme noir ou toute autre portion de la population?

Ces algorithmes échouent plus souvent pour les femmes, les migrants, les personnes qui ne savent pas lire… il ne faut pas qu’ils fonctionnent seulement pour ceux qui les ont conçus, mais pour tout le monde.

Cathy O’Neil, mathématicienne et auteure de "Weapons of Maths destruction", le 29 mars 2018 lors du sommet français sur l’intelligence artificielle.

Imaginez maintenant une IA qui choisirait de vous accorder un prêt à la banque, ou qui déciderait des peines des condamné·es dans les tribunaux. Deux exemples montrant à quel point la problématique de biais dans l'IA est critique sur certains cas d'usages. Elle peut mener à :

  • de la discrimination, un traitement différent désavantageant certaines personnes au profit d'autres.
  • Voire à de l'exclusion, soit l'impossibilité pour certaines personnes d'utiliser un service.

A l’université, un de mes bons amis est venu me voir et m’a dit que je faisais disjoncter son logiciel de reconnaissance faciale. Parce que, apparemment, toutes les images qu’il avait utilisées [pour l’entraîner] montraient des personnes avec beaucoup moins de mélanine que moi.

Charles Isbell, chercheur en intelligence artificielle (IA) à Georgia Tech (Atlanta)

Évidemment, cette problématique n'est pas évidente à résoudre. Contrairement à ce que l'on pourrait penser, il ne suffit pas d'imposer systématiquement de la diversité dans les réponses de l'IA. L'expérience de Google Gemini en 2024, avec la création d'aberrations telles que des images de nazis noirs (une sacrée incohérence historique !), l'a récemment démontré.

Des soldats nazis noirs et asiatiques générés par IA
Source : Liberation

Certain·es chercheurs·ses se penchent sur cette problématique. Citons notamment Daphné Marnat et sa solution Unbias, "Le premier modèle qui débiaise le sexisme ordinaire en langue française". Un moyen de questionner la manière dont les biais imprègnent les textes. Pour d'autres, comme le pôle mixité de l'institut ANITI (Artificial and Natural Intelligence Toulouse Institute), la solution réside dans l'augmentation de la diversité des équipes de développement d'IA. Quoi qu'il en soit, la problématique est conséquente et mérite que davantage de personnes s'y penchent, si on souhaite injecter plus de systèmes d'IA dans notre société.

Références :

[Photo de couverture : Taras Chernus]

Soutenez-nous en partageant l'article :

Sur le même thème :