Intelligence artificielle à volonté : OpenAI ouvre les vannes de ChatGPT-4

Soutenez un média indépendant

Reportages, enquêtes, initiatives et solutions en accès libre : pour un numérique plus responsable, notre rédaction compte sur vous.

Jérémy PASTOURETJérémy PASTOURET

2 min

Intelligence artificielle à volonté : OpenAI ouvre les vannes de ChatGPT-4

L'intelligence artificielle la plus puissante (pour le moment) pourrait bien faire son entrée dans toutes nos applications / logiciels. Jusqu'à présent, ChatGPT-4 n'était accessible qu'à une petite poignée de développeurs·ses. Quelles répercussions ce changement aura-t-il pour les entreprises et les usager·es du numérique ? Voici quelques éléments de réponse.

OpenAI (le cerveau derrière ChatGPT-4) s'apprête à ouvrir encore plus largement les vannes de son intelligence artificielle la plus performante.

Depuis le mois de mars, des millions de développeurs·ses ont demandé un accès à l'API de ChatGPT-4. Précisons, pour les non-initié·es, qu'il devient possible avec un morceau de code d'imbriquer ChatGPT-4 dans n'importe quel logiciel ou application. Ceci, sous réserve qu'un accès à Internet soit disponible et qu'OpenAI soit rémunéré à chaque utilisation de son intelligence artificielle.

A la fin du mois de juillet 2023, les équipes d'OpenAI ont prévu d'ouvrir l'accès à l'API à un plus grand nombre de développeurs.ses.Elles vont également augmenter les limites d'utilisation (en termes de requêtes / heure envoyées à ChatGPT), fixées au départ pour des raisons matérielles et économiques.

Même si OpenAI a donné la possibilité à des développeurs·ses d'intégrer ChatGPT dans une application, ses équipes ont tenté de rester prudentes. Notamment en procédant à une sélection des candidat·es et en appliquant des limites d'utilisation. Vraisemblablement pour plusieurs raisons :

  • Maîtriser les coûts : plus il y a d'utilisateurs·rices, plus les besoin en ressources matérielles augmentent.
  • Limiter les risques de copie ou de vol de leur IA. En effet, il est possible de créer/entraîner une nouvelle IA en interrogeant une IA existante qui fonctionne bien. Google aurait initié son IA, Bard, de cette manière.
  • Prévenir les usages douteux, et les dérives qui ont pu être commises - comme dans le cas d'une entreprise d'aide psychologique qui utilisait ChatGPT pour répondre aux patient.es.

Suite à l'allègement des conditions d'accès et au relâchement des limites fixées, il y a fort à parier que davantage d'applications basées sur l'intelligence artificielle émergent dans les mois à venir.

Cependant, les développeurs·ses et entreprises désireuses de se lancer dans ce domaine feraient bien d'anticiper la réglementation européenne en préparation. Notamment en faisant preuve de transparence, avec la mention claire du recours à une IA afin d'informer les utilisateurs·rices. Inutile de faire de la poudre au yeux en masquant l'appel à un outil tiers.

Au passage, on peut souligner la problématique de confidentialité des données qui pourrait concerner les interactions humain-IA. Rien n'exclut que ces échanges soient réutilisés dans le cadre d'un entraînement d'IA pour rendre celle-ci encore plus performante. Avec une réutilisation de données personnelles, voire même intimes, potentiellement dangereuse.

En pratique : côté coût, les utilisateurs·rices devront débourser 0,027€ pour chaque "paquet" de 750 mots envoyés à l'IA (prompts ou questions), et 0,055€ par paquet de 750 mots fournis par l'IA dans ses réponses.

Dans le cadre d'un échange plus élaboré (prise en compte préalable d'un historique / contexte / jeu de données...), il faut compter 0,055€/750 mots en requête et 0,11€/750 mots en réponse.

La facture peut toutefois vite grimper en fonction de l'audience des applications concernées.

OpenAI a aussi indiqué que son API conversationnelle est la plus populaire auprès des utilisateurs·rices de l'API. Cela signifie que la plupart des développeurs·ses intègrent ChatGPT comme un assistant de type Chatbot dans leur application. Par exemple, une célèbre application d'apprentissage de langues étrangères permet à ses utilisateurs de poser des questions à l'IA, et de recevoir des explications lorsque l'application les corrige et relève des erreurs.

Concernant ses autres outils / IAs moins performantes, OpenAi a prévu de les supprimer progressivement d'ici janvier 2024. Les développeurs·ses sont donc poussé·es à utiliser des moteurs plus récents, plus intelligents et donc plus coûteux en ressources.

Comme détaillé dans un précédent article consacré à son impact matériel, écologique et social, ChatGPT est particulièrement énergivore et coûteux. Ainsi au lancement de ChatGPT-3.5, la version la plus médiatisée, l'outil coûtait à OpenAI environ 100 000€/jour en infrastructure.

[Photo de couverture : Mariia Shalabaieva]

NB : la source principale de cette publication est l'article de blog d'OpenAI.

Soutenez-nous en partageant l'article :

Sur le même thème :