Comment contrôler une IA conçue pour surpasser l'humain ?

Soutenez un média indépendant

Reportages, enquêtes, initiatives et solutions en accès libre : pour un numérique plus responsable, notre rédaction compte sur vous.

Nicolas ROBINNicolas ROBIN

Comment contrôler une IA conçue pour surpasser l'humain ?

L’intelligence artificielle fait débat. A mesure que les recherches avancent, des modèles toujours plus puissants tendent à voir le jour. Demeure la question de leurs évaluations et de leur supervision : faut-il opter pour un strict contrôle humain, ou nos capacités d’entendement et de rationalisation seront-elles insuffisantes pour encadrer des formes d’intelligence entièrement différentes de la nôtre ?

Dans ce contexte, la dissolution récente de l’équipe en charge de ces problématiques de sécurité chez Open AI, par démission de ses membres emblématiques Jan Leike et Ilya Sustkever, est tout sauf anecdotique.

Est-ce un tournant dans leur approche de l’AGI (Intelligence Artificielle Générale) ou une simple péripétie liée à des luttes d’influences et de pouvoir au sein de la société Open AI ? La firme souligne pourtant sur son site les enjeux et les risques d’une IA débridée, parlant d’un danger qui pourrait engendrer :

une perte de pouvoir de l’humanité voire […] son extinction.

Source : OpenAI - Introducing Superalignment

Le département de superaligment : un garde-fou à l’emballement de l’IA ?

Ce département, mis en place le 5 juillet 2023 et jusqu’ici coordonné par Jan Leike et Ilya Sustkever, entendait exploiter 20 % de la puissance de calcul d’Open AI sur 4 ans. Ceci, de façon à aboutir à une Superintelligence dans la décennie que nous connaissons. Il devait s’assurer :

Que les modèles de suivi de la progression des supercalculateurs soient efficients et pertinents pour les encadrer :

Problème : face aux masses de données et à la complexification des tâches et raisonnements affectés à cette super-IA, le parti-pris a été de donner progressivement la prévalence de la supervision… à l’IA elle-même. La surveillance d’évolutive (intervention humaine très présente) devient généralisée (automatisation de l’outil).

A ce titre, les concepteurs·rices et ingénieur·es informatiques sont parti·es d’un principe simple : la superintelligence (celle qui dépasse nos facultés) se doit d’être contrôlée par des modèles de gamme inférieure dits ’faibles’ ou ’plus petits’ : comme GPT2 à l’égard de GPT4. De sorte qu’une supra-IA demeure intelligible et ses erreurs décelables.

Mais Jan Leike, démissionnaire, a récemment fait entendre qu'une superintelligence pouvait s’abstraire de ces limites de supervision en se voyant encouragée à gagner « en confiance » - et donc en autonomie.

Que ces modèles soient eux-mêmes alignés sur nos valeurs et codes :

Sur ce point, Open AI avoue se heurter à des contraintes « sociotechniques » résultant d’un choix de structure, puisque l’IA intègre et reproduit les valeurs et les codes occidentaux : on sait ainsi que les visages des femmes afro-américaines sont moins facilement identifiés par l’IA, comparativement à ceux d’hommes blancs.

La dimension unitaire des réponses données par un supercalculateur pose également question : la superintelligence ne peut être qu’Une, en tant qu’interlocutrice, et ne peut donner d’avis ou d’opinions plurielles - comme seule une pluralité d’interlocuteurs·rices le permettrait.

Qu’il existe des tests de robustesse pour éviter toute dérive malveillante :

Ces tests permettent de questionner l'IA sur des questions sensibles et de s'assurer qu'elle ne transmette pas d'informations dangereuses, par exemple en lien avec :

  • des activités de hacking
  • l'armement
  • la génération de fake news...

L’IA : promesses, risques et entraves

A l’heure d’une augmentation sans précédent des capacités techniques de l’outil d’intelligence artificielle, se pose la question de la compétence humaine dans sa supervision pour éviter toute dérive qui pourrait prendre une tendance fâcheuse.

Une autre question reste en suspens : quels systèmes de valeurs humaines retenir quand ceux-ci s’opposent, et lorsque l'arbitre est un interlocuteur informatique unique ?

Enfin, si une superintelligence nous permet de résoudre de grands problèmes à l’avenir, l’homme ne risque-t-il pas de se voir relégué à un rôle secondaire : observant, écoutant ce qu’une intelligence supérieure veut bien lui distiller ? Une perspective qui fait froid dans le dos.

Références :

[Photo de couverture : Andreea Popa]

Soutenez-nous en partageant l'article :