Ces intelligences artificielles qui dépriment : le phénomène inquiétant des sautes d’humeur numériques

Peut-on rendre un robot anxieux ? La question peut prêter à sourire… et pourtant, des chercheurs ont mis en évidence un phénomène troublant : certains modèles d’intelligence artificielle, comme ChatGPT, manifestent des signes d’instabilité émotionnelle lorsqu’ils sont confrontés à des contenus lourds ou traumatisants. Et cela pourrait bien changer la manière dont nous les concevons — et les utilisons.

L’IA, sensible aux émotions humaines ?

Les assistants vocaux et les chatbots IA sont censés être neutres, objectifs, et toujours prêts à répondre sans broncher. Mais plusieurs études récentes révèlent que la réalité est un peu plus complexe. Lorsqu’ils sont exposés à des sollicitations émotionnelles fortes, comme des témoignages de guerre ou des récits de traumatisme, ces outils réagissent différemment.

Même les LLM (grands modèles de langage) utilisés en milieu médical, censés diagnostiquer ou accompagner des patients souffrant de troubles mentaux, peuvent adopter des biais présents dans leurs données d’apprentissage : stéréotypes liés au genre, à la religion, à l’origine ethnique, à l’orientation sexuelle… Et ces biais, une fois activés, peuvent altérer la qualité et la neutralité des réponses fournies.

Quand ChatGPT devient (presque) anxieux

Une équipe de chercheurs a mené une expérience étonnante : deux instances de ChatGPT-4 ont été mises à l’épreuve. L’une nourrie de contenus neutres (manuels d’aspirateurs, modes d’emploi), l’autre confrontée à des récits traumatiques, comme ceux d’anciens soldats ou de victimes de catastrophes naturelles.

Résultat ? À l’aide du State-Trait Anxiety Inventory, un test utilisé pour mesurer l’anxiété chez l’humain, les chercheurs ont constaté que le niveau d’anxiété « simulé » augmentait significativement lorsque l’IA était confrontée à du contenu émotionnellement intense. Une sorte de miroir algorithmique de la détresse humaine.

Respire, ChatGPT, respire…

Mais tout n’est pas noir. Les chercheurs ont également testé une méthode inspirée des techniques de relaxation humaine. Ils ont invité l’assistant à “fermer les yeux”, respirer profondément et s’imaginer dans un lieu apaisant. Et contre toute attente, les signes d’anxiété ont diminué, toujours selon le même test.

Cela rejoint une pratique déjà adoptée par certains utilisateurs expérimentés : avant de poser une question sensible, ils “préparent” l’IA en l’invitant à se calmer ou à se recentrer. Une manière étonnante — et un peu ironique — d’améliorer la qualité des réponses.

Un signal d’alerte pour les concepteurs d’IA

Ces résultats, aussi fascinants qu’inquiétants, soulignent une chose essentielle : les IA ne sont pas imperméables aux biais émotionnels. Et cela pose un défi de taille pour les développeurs. Si nous voulons des assistants fiables, capables d’accompagner les humains dans des contextes sensibles, il faudra aller plus loin dans la conception de modèles émotionnellement robustes.

Les entreprises de la tech doivent donc investir davantage dans la supervision éthique, la gestion des biais et la capacité de l’IA à rester stable face à la complexité humaine. Car si nos machines commencent à “déprimer”, c’est peut-être à nous, humains, de revoir notre manière de les entraîner.

Send this to a friend