Les coûts de l'IA bientôt supportés par les utilisateurs ?
L'IA est au centre de l'attention : intégrée dans un nombre exponentiel de services, cette technologie compte de plus en plus d'utilisateurs•rices. Mais ses coûts extrêmement élevés compromettent sa rentabilité. La décision de faire (in)directement payer les consommateurs•rices fera-t-elle à l'avenir partie des stratégies des géants de la Tech ?
Entraîner et mettre des systèmes d'IA à la disposition des administrations, entreprises et citoyen•nes : l'opération se révèle jusqu'ici à la fois extrêmement onéreuse et déficitaire pour les géants de la Tech.
5 milliards de $
c'est le montant des pertes d'OpenAI en 2024. Celui de ses recettes s'élevait à 3.7 milliards de dollars.
Source : TechCrunch
Fin février 2025, Microsoft (principal investisseur d'OpenAI) a restreint ses dépenses liées aux centres de données en annulant plusieurs de ses contrats de location. Or ces infrastructures se trouvent au cœur du fonctionnement des intelligences artificielles, en phase d'entraînement comme d'utilisation.
Mais leur coût se révèle extrêmement élevé : les puces électroniques requises sont particulièrement chères, tandis que les data centers consomment sans interruption de l'eau pour le refroidissement des machines ainsi que de l'électricité pour leur fonctionnement.
Pour le moment, les revenus générés par les outils d'IA ne suffisent à faire de ces technologies des services profitables. Sam Altman, PDG d'OpenAI, a même avoué que l'entreprise perdait de l'argent avec son offre payante ChatGPT Pro, commercialisée au prix de 200$ par mois, parce que les abonné•es l'utilisent plus que prévu. Or une requête lancée sur l'un des modèles les plus avancés de l'entreprise peut aujourd'hui lui coûter 1000$.
- ❌ 0% publicité
- 🫀 100% du contenu écrit par un·e humain·e
- ✏️ Le dessin du mois réalisé par le dessinateur Théo Schulthess
- 💡 Le meilleur du numérique responsable
Des consommateurs•rices progressivement contraintes d'assumer les coûts de fonctionnement de l'IA ?
La problématique actuelle de Microsoft est d'avoir massivement équipé ses services de son IA Copilot. Y ayant d'ores et déjà investi des milliards, l'entreprise cherche à présent à réduire ses coûts. La décision stratégique de ne pas opérer de centres de données supplémentaires va en ce sens, augmenter le prix de ses licences également.
30 à 45%
d'augmentation sur les abonnements Microsoft 365 destinés aux particuliers sont appliqués aux Etats-Unis depuis janvier 2025.
Source : CNBC
Une autre piste que Microsoft pourrait explorer, en plus de l'ajout de publicités dans ses services équipés d'IA, serait de les faire fonctionner directement depuis l'appareil des utilisateurs•rices. Une façon de faire supporter aux citoyen•nes les coûts de fonctionnement associés (notamment en termes de consommation électrique).
Une bascule exigeant dès lors qu'ils•elles investissent dans des équipements électroniques toujours plus performants, pour parvenir à suivre l'évolution des programmes d'IA développés par les géants de la Tech. De quoi accélérer la consommation d'appareils polluants, à tous les stades de leur cycle de vie, et épuisant encore davantage les ressources naturelles exploitées pour leur fabrication.
Au-delà de ces problématiques environnementales, une telle stratégie pourrait aussi façonner une société à plusieurs vitesses. D'un côté, des utilisateurs•rices pouvant s'offrir des appareils capables de faire tourner les modèles les plus performants d'IA... de l'autre, des personnes contraintes de se servir d'outils moins performants, faute de pouvoir s'équiper d'une machine dernier-cri. Un modèle de société évoquant une véritable dystopie.
Références :
TechCrunch - OpenAI is losing money on its pricey ChatGPT Pro plan, CEO Sam Altman says
CNBC - Microsoft raises price of consumer version of Microsoft 365 for first time in 12 years
[Photo de couverture : Esra Afşar]
Soutenez-nous en partageant l'article :