Comment allier innovation et responsabilité à l’ère de l’IA générative ?
L’essor de l’intelligence artificielle générative (IAG) bouleverse les entreprises, entre promesses d’efficacité accrue et défis éthiques majeurs. Pourtant, alors que plus de la moitié des salarié·es y ont recours hors de tout cadre formel, peu d’organisations ont mis en place une gouvernance adaptée.
L’explosion de l’IAG redéfinit en profondeur les modes de travail et les stratégies d’entreprise :
58%
des salarié·es utilisent ces technologies en dehors d’un cadre formel
Source : Salesforce
Pourtant, 87 % d’entre elles·eux constatent l’absence de politique interne encadrant leur usage (des chiffres révélés par une étude de Salesforce menée en novembre 2023).
Les risques sont multiples : biais algorithmiques, fuites de données, impact environnemental… autant d’enjeux qui exigent une régulation éthique. Face à ces mutations, certaines entreprises prennent les devants en instaurant des comités d’éthique et des garde-fous technologiques. Mais cette prise de conscience reste encore trop timide.
À l’heure où l’Union Européenne a élaboré une loi sur l’IA (entrée en vigueur le 1er août 2024) visant à encadrer ces pratiques, les entreprises se trouvent face à un impératif d’innovation accompagné d’une responsabilité accrue vis à vis de leurs employé·es et de leurs parties prenantes.
IA : les risques du laisser-faire
Dans un contexte où près de deux tiers des dirigeant·es considèrent l’IA générative comme un levier de refonte de leur organisation de travail, selon une étude du cabinet conseil BCG (Boston Consulting Group) publiée en juin 2024, l’enjeu n’est pas seulement technique : il est fondamentalement éthique.
Les risques se déclinent sous plusieurs formes. Les premiers algorithmes de reconnaissance faciale, par exemple, illustraient déjà comment des systèmes mal conçus pouvaient ignorer certaines populations comme les personnes noires de peau ou les femmes (à découvrir : le reportage "Code Biais" qui décrypte ces biais et leurs conséquences).
Aujourd’hui, les biais menacent de perpétuer certaines discriminations, qu’ils soient :
- de disponibilité : tendance à juger en fonction des informations les plus facilement accessibles dans notre mémoire,
- de confirmation : tendance à favoriser, rechercher et interpréter les informations de manière à confirmer nos croyances ou hypothèses préexistantes,
- de sélection : biais survenant quand l'échantillon étudié n'est pas représentatif de la population cible.
- ❌ 0% publicité
- 🫀 100% du contenu écrit par un·e humain·e
- ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
- 💡 Le meilleur du numérique responsable
En parallèle, l’exploitation de main-d’œuvre à bas coût se poursuit dans des pays émergents comme l’Inde ou le Kenya pour classifier, annoter et documenter des images et contenus issus du Web afin d'entraîner l'IA. Quant à l’empreinte écologique des centres de données, elle représente d'ores et déjà 4,4 % de l’empreinte carbone en France selon l'ADEME (Agence de la Transition). Preuves que l’innovation n’est pas déconnectée des enjeux environnementaux et sociaux.

Les exemples concrets abondent. En avril 2023, le groupe Samsung a fait état d’un incident où des salarié·es avaient sans le vouloir livré des informations confidentielles à ChatGPT, risquant ainsi de compromettre des secrets industriels. Par ailleurs, des requêtes ingénieuses lancées par des utilisateurs·rices ont permis à un chatbot (agent conversationnel) de Microsoft de diffuser des données sensibles. Les informations compromises comprenaient des e-mails, des numéros de téléphone et des clés API, révélant ainsi des failles dans la protection des données de ces systèmes. Ces exemples démontrent que l’usage de ces technologies peut, en l’absence de garde-fous adéquats, conduire à des fuites d’informations majeures.
Initiatives d'encadrement de l'IA
À l’inverse, Orange se distingue par sa démarche proactive. L'entreprise a développé Dinootoo, sa boîte à outils interne d’IA générative, pour que les salarié·es puissent s’acculturer au potentiel des LLM (Large Language Models) et se les approprier de façon simple et sûre. En la rendant accessible à plus de 50 000 collaborateurs·rices, le groupe cherche à combiner l’innovation issue de grands modèles – OpenAI, Google, Anthropic, Mistral, Meta – avec une politique de sécurité renforcée qui garantit que les informations partagées par les salarié·es ne sont pas réutilisées par des acteurs·rices externes. Ce dispositif s’accompagne d’un conseil d’éthique composé d’expert·es indépendant·es, garantissant une réflexion continue sur la protection des données et l’équité dans l’usage de l’IA.

Worldline, acteur majeur du paiement en France et en Europe avec 18 000 collaborateurs·rices, a également fait évoluer sa gouvernance des IA génératives. Plutôt que de bloquer l'accès à ChatGPT, sa stratégie consiste à encadrer clairement l'usage des IA génératives. Sur la base d'une série de règles communiquées à tous·tes, l'accès à ces services est rendu possible et les collaborateurs·rices sont encouragé·es à les utiliser. En parallèle, une campagne de sensibilisation vise à démystifier les capacités réelles des IA génératives.
Ces initiatives illustrent qu’une approche globale est indispensable. Il ne suffit pas de déployer des technologies de pointe sans se doter d’un cadre solide de gouvernance algorithmique. Ceci passe par la définition de règles, pratiques et mécanismes permettant de contrôler l’usage des algorithmes et d’assurer un fonctionnement éthique, transparent et responsable de ces technologies. Notamment en limitant les biais, protégeant les données personnelles et garantissant leur conformité avec les réglementations en vigueur.
Chaque étape, de la conception des modèles aux processus de validation des données, doit être pensée pour sécuriser les informations et respecter les engagements en matière de responsabilité sociale et environnementale. Le coût de la responsabilité – qu’il s’agisse des investissements en sécurité ou de la mise en place de processus d’audit rigoureux – apparaît comme un investissement stratégique pour pérenniser l’innovation.
Concrètement, comment s'engager dans cette démarche ?
Mettre en place un audit régulier des algorithmes
Les entreprises peuvent effectuer des contrôles fréquents pour identifier et corriger les biais éventuels dans leurs modèles d’IA. Cela passe par des tests rigoureux, des évaluations indépendantes et l'ajustement des jeux de données pour garantir une meilleure équité et représentativité.
Renforcer la sécurité des données utilisées par l’IA
Il est important de protéger les informations sensibles en appliquant des protocoles stricts de chiffrement et d’anonymisation. Parmi les bonnes pratiques identifiées, limiter l’accès aux données aux seules personnes autorisées permet de réduire les risques de fuite ou de mauvaise utilisation.
Intégrer des critères environnementaux et sociaux dans le développement de l’IA
Pour minimiser l’empreinte écologique des systèmes d’IA, les entreprises peuvent privilégier des infrastructures plus efficientes sur le plan énergétique et optimiser l’utilisation des ressources de calcul. Il faut également sensibiliser les collaborateurs·rices à la question de l'usage : en d'autres termes, utiliser des logiciels spécialisés plutôt que de faire appel à l'intelligence artificielle systématiquement. Par exemple, un moteur de recherche... au lieu de ChatGPT. En parallèle, une attention particulière doit être portée aux conditions de travail des annotateurs·rices et aux impacts sociaux des algorithmes déployés.
En définitive, l’intégration de l’IA générative dans les entreprises ne doit pas être une course effrénée vers la productivité à tout prix. Elle appelle à une transformation digitale éclairée, où la performance technique est indissociable du respect des valeurs éthiques et environnementales. Dans ce contexte, il devient urgent pour les entreprises de se doter d’un comité d’éthique capable de réguler l’utilisation des IA génératives. Ce conseil, en s’appuyant sur une expertise indépendante, sera le garant d’un usage responsable de l’IA, permettant de conjuguer innovation, protection des données sensibles et préservation des ressources. Tout en veillant à ce que les avancées technologiques profitent à l’ensemble de la société.
Références :
- Salesforce - 58% des employés français avouent utiliser l’IA générative en dehors d’un cadre défini par leur entreprise
- Commission Européenne - Législation sur l'IA
- BCG - IA Générative au travail : amie ou ennemie des salariés ?
- France Inter - "Coded bias" sur Netflix : algorithme et discrimination
- ADEME - Data centers : la face pas si cachée du numérique
- Time - Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
- Actu IA - Des employés de Samsung Semiconductor divulguent des informations sensibles via ChatGPT
- Skyhigh Security - Bot Busted Up : La fuite de données présumée d'un chatbot d'IA
- Orange - Orange développe pour ses salariés un usage sécurisé et optimisé des IA génératives
- Silicon - Worldline fait évoluer sa gouvernance des IA génératives - Octobre 2024
[Photo de couverture : Vitaly Gariev]
Soutenez-nous en partageant l'article :