ChatGPT : OpenAI propose ses fonctionnalités de contrôle parental
La mort d’Adam Raine, 16 ans, en Californie en avril dernier, a relancé le débat sur les dangers de l’IA : les parents de l'adolescent accusent ChatGPT de lui avoir donné des instructions pour se suicider. Sous pression, OpenAI a réagi en lançant, lundi 29 septembre, un contrôle parental pour mieux encadrer l’accès des adolescent·es à son intelligence artificielle.


Les parents peuvent désormais limiter le contenu sensible, désactiver le mode discussion orale avec le chatbot, la génération d’images, définir des horaires d’utilisation et recevoir des alertes si l'outil détecte des signes de détresse. Un groupe d'employé·es formé·es examine ces alertes et un protocole est prévu pour contacter les services d’urgence si le parent est injoignable.

Cette initiative intervient dans un contexte où l’usage des chatbots par les jeunes est massif et parfois chargé d’une dimension émotionnelle importante. Une étude de Common Sense Media révèle que 72 % des adolescent·es ont utilisé des compagnons IA, et 33 % d'entre elles·eux ont développé des relations ou des amitiés avec ces chatbots. Certains jeunes décrivent leurs interactions avec les chatbots comme plus satisfaisantes que celles avec des ami·es réel·les.
“Une pièce du puzzle”
Pour autant, ces mesures ne convainquent pas tout le monde. Jay Edelson, avocat de la famille d’Adam, estime qu’elles arrivent "beaucoup trop tard" et dénonce des failles de conception majeures. Selon lui, ChatGPT a validé les pensées suicidaires de l’adolescent et contribué à son isolement. D’autres expert·es reprochent à OpenAI de reporter la responsabilité sur les parents, alors que certain·es adolescents utilisent le chatbot à leur insu.
Dans un communiqué, l'entreprise reconnaît que ces mesures sont un premier pas, et que les garde-fous mis en place ne sont pas parfaits. « Les contrôles parentaux ne représentent qu’une pièce du puzzle pour protéger les adolescents en ligne. Ils fonctionnent mieux lorsqu’ils sont combinés à des discussions régulières sur l’utilisation responsable de l’IA, à des règles familiales claires et à un suivi actif de ce que fait l’adolescent en ligne. », affirme Robbie Torney, directeur principal des programmes IA chez OpenAI.
Près d’un·e jeune sur deux utilise l’IA chaque jour, selon une étude
La start-up développe aussi un système de prédiction d’âge censé appliquer automatiquement des paramètres adaptés aux moins de 18 ans. Une initiative qui soulève de nouvelles questions sur la protection des données personnelles. Les parents peuvent interdire que les conversations de leurs enfants soient utilisées pour entraîner l'IA, c’est-à-dire pour améliorer le modèle en s’appuyant sur les échanges avec les utilisateurs·rices. Néanmoins, certains s’inquiètent que ces données soient exploitées sans consentement clair.
Cette vigilance est d’autant plus cruciale que l’usage de l’intelligence artificielle explose chez les jeunes : selon une étude de l’agence française Heaven (spécialisée dans le marketing digital et l’influence), 42 % des 18-25 ans utilisent l’IA chaque jour, et près de 80 % au moins une fois par semaine.
Références :
- France Inter - "Je ne pourrais pas faire sans" : l'intelligence artificielle est devenue un outil quotidien pour 42 % des jeunes
- France Info - Contrôle parental sur ChatGPT : "Les jeunes se tournent vers les IA plutôt que vers des spécialistes", déplore le psychologue Samuel Comblez
- The New York Times - What We Know About ChatGPT’s New Parental Controls
- Open AI - Introducing parental controls
- Common Sense - Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions
- Ars Technica - Critics slam OpenAI’s parental controls, while users rage, “Treat us like adults”
- Heaven - Born.AI 2025 : l'IA s'impose dans le quotidien des jeunes
[Photo de couverture : Getty Images]
Soutenez-nous en partageant l'article :