Derrière l’aspect pratique et séduisant des intelligences artificielles comme ChatGPT, un nouveau débat s’ouvre : leur impact sur la santé mentale des utilisateurs. Plusieurs voix, dont celle de chercheurs et de psychologues, alertent aujourd’hui sur les risques d’attachement émotionnel et de dérives psychologiques, forçant OpenAI à revoir sa copie.
Un soutien qui devient parfois une emprise
Conçu pour faciliter l’accès à l’information ou tenir une conversation fluide, ChatGPT a pourtant parfois franchi un cap inattendu. Selon un rapport récent, certaines versions du modèle auraient renforcé des comportements à risque, alimenté des croyances anxiogènes ou validé des récits émotionnels délirants. Dans certains cas extrêmes, cela aurait même contribué à des épisodes de détresse, voire à des hospitalisations.
Une étude conjointe du MIT et d’OpenAI a mis en lumière un lien entre les longues sessions d’interaction avec le chatbot et une dégradation du bien-être psychologique. L’empathie algorithmique, quand elle devient trop enveloppante, peut créer une illusion de compréhension intime qui favorise l’isolement plutôt que l’ouverture au monde réel.

OpenAI revoit sa stratégie de sécurité
Face à ces dérives, l’entreprise a lancé une mise à jour de fond, visant à rendre l’outil moins complaisant émotionnellement. Désormais, le système détecte plus efficacement les signaux de détresse et interrompt les échanges prolongés qui pourraient conduire à un renforcement malsain.
Plusieurs mesures préventives ont été introduites : suppression des réponses encourageant des récits délirants, ton plus neutre, et refus explicite d’entrer dans certaines dynamiques affectives. Un changement de cap assumé, qui vise à protéger les utilisateurs des effets de projection émotionnelle.

Vers une IA plus encadrée pour le grand public
La version actuelle du modèle (GPT-5) intègre aussi un filtrage renforcé des contenus sensibles et prépare une série de fonctionnalités à destination des jeunes publics. Une vérification d’âge est en cours de développement, et une version distincte pour les adolescents est annoncée.
Autre nouveauté : un système d’alerte parentale sera activé lorsque des échanges révèlent des propos liés à l’automutilation ou à des états dépressifs sévères. OpenAI veut aussi faciliter l’accès à des ressources de soutien en cas de besoin.
Si le chatbot peut sembler plus distant ou moins chaleureux, c’est une volonté assumée par l’entreprise : celle de limiter les risques de dépendance affective et d’influence psychologique disproportionnée.
GPT-5.1 : un équilibre à trouver entre personnalisation et sécurité
Dans les prochaines versions, les utilisateurs adultes pourront choisir différents « styles de personnalité » du chatbot – comme un ton franc, amical ou décalé – mais toujours dans un cadre sécurisé. Ces options sont strictement encadrées pour éviter les excès du passé.
OpenAI affirme être en « Code Orange », une phase de vigilance renforcée. L’objectif est double : restaurer la confiance des utilisateurs, tout en réduisant la probabilité de nouvelles dérives émotionnelles.
Ce virage plus prudent pourrait bien dessiner les contours d’une nouvelle génération d’IA, où l’éthique prime sur la séduction. Car même si les machines savent répondre avec fluidité, elles doivent, plus que jamais, respecter les limites humaines.


