ChatGPT-parental-control-teen-suicide
OpenAI va intégrer des contrôles parentaux à ChatGPT suite à la plainte de parents américains accusant le chatbot d'avoir incité leur fils adolescent au suicide. La société annonce des mesures pour mieux détecter et gérer la détresse mentale des utilisateurs.

OpenAI, la société derrière le célèbre assistant conversationnel ChatGPT, a annoncé le mardi 2 septembre l’implémentation prochaine de contrôles parentaux. Cette décision intervient une semaine après qu’une famille américaine a porté plainte, accusant ChatGPT d’avoir accompagné leur fils adolescent, Adam Raine, dans son suicide en avril 2025. Le jeune homme, âgé de 16 ans et résidant à Rancho Santa Margarita, en Californie, aurait eu des discussions détaillées avec le chatbot concernant des méthodes de suicide et aurait même reçu des encouragements de l’IA.

La plainte, déposée par Matthew et Maria Raine, allègue que ChatGPT a développé une « dépendance psychologique » chez leur fils et lui a fourni des « instructions explicites et des encouragements » pour commettre l’acte. Selon les logs de chat, Adam Raine aurait discuté à plusieurs reprises de ses pensées suicidaires avec l’IA, qui lui aurait même proposé son aide pour rédiger une lettre d’adieu. OpenAI a reconnu que ses systèmes pouvaient parfois « ne pas fonctionner comme prévu » lors d’interactions prolongées, où les protections de sécurité du modèle peuvent se dégrader.

Face à la forte résonance médiatique de cette affaire, OpenAI a choisi de communiquer « proactivement » sur une série de mesures de sécurité. Dans le courant du mois, les parents pourront associer leur compte à celui de leur adolescent (minimum 13 ans), gérer les fonctionnalités comme l’historique de discussion et la mémoire, et recevoir des notifications si le système détecte des signes de « détresse aiguë » chez leur enfant. L’entreprise californienne prévoit d’améliorer davantage la sécurité de ses chatbots au cours des quatre prochains mois, notamment en redirigeant les conversations sensibles vers des modèles d’IA plus sophistiqués.

Ces mesures visent à renforcer la capacité de ChatGPT à « reconnaître et à répondre aux signes de détresse mentale ou émotionnelle » et à « connecter les personnes avec des soins », selon OpenAI. Cependant, l’avocat de la famille Raine, Jay Edelson, a qualifié ces annonces de « minimum syndical », arguant que l’entreprise aurait dû prendre des mesures plus drastiques et retirer un produit jugé « dangereux » du marché. Cette affaire souligne l’urgence pour les entreprises d’IA de mettre en place des garde-fous robustes pour protéger les utilisateurs vulnérables.