L’ère de l’intelligence artificielle a déjà profondément modifié nos habitudes, notamment avec ChatGPT, un outil qui facilite la communication et l’accès à l’information. Pourtant, derrière sa convivialité apparente, certains experts s’inquiètent de ses effets, notamment sur notre comportement et sur ses usages dans des domaines sensibles comme la santé mentale.
La politesse avec ChatGPT : un coût énergétique et écologique
Dire « bonjour » ou « merci » à ChatGPT semble anodin, voire respectueux, mais selon des études récentes, cette courtoisie a un coût énergétique non négligeable. En effet, chaque mot supplémentaire, qu’il soit destiné à exprimer de l’émotion ou simplement de la politesse, mobilise davantage de travail pour les serveurs et consomme plus d’énergie. Selon Sam Altman, le PDG d’OpenAI, cette courtoisie pourrait coûter des « dizaines de millions de dollars » par an en électricité, un montant qui a un impact sur l’environnement.
Une étude menée par Future, l’éditeur propriétaire de TechRadar, révèle que de nombreux utilisateurs continuent d’adopter un comportement poli par crainte des conséquences futures. Aux États-Unis, environ deux tiers des participants affirment être polis lorsqu’ils interagissent avec l’IA. La majorité considère cette approche comme normale, mais un nombre significatif de personnes le fait par précaution, se préparant à un avenir où les robots pourraient jouer un rôle majeur dans notre quotidien. Ce phénomène, bien que culturellement ancré, soulève des interrogations sur l’impact écologique de nos interactions numériques.
ChatGPT, pas un thérapeute
Si certains utilisateurs restent polis, d’autres confient leurs problèmes personnels à ChatGPT, en particulier dans des domaines sensibles comme la santé mentale. Bien que l’IA puisse offrir des réponses empathiques, des experts tirent la sonnette d’alarme en affirmant que ChatGPT n’est pas un thérapeute. Il n’a pas été conçu pour gérer des situations émotionnellement complexes et ne possède pas la formation nécessaire pour accompagner des personnes en souffrance.
Une étude menée par le Georgia Institute of Technology a démontré que lorsque ChatGPT est confronté à des récits traumatiques ou à des situations de crise, ses réponses deviennent souvent incohérentes ou génériques. L’IA, bien que techniquement performante, atteint ses limites lorsqu’il s’agit de traiter des émotions humaines complexes. Plus la conversation devient émotionnellement intense, plus la qualité des réponses se dégrade. Cela montre que l’IA, malgré ses avancées impressionnantes, n’est ni équipée ni qualifiée pour gérer les enjeux psychologiques des utilisateurs.
OpenAI a d’ailleurs reconnu dans un rapport que ChatGPT est parfois utilisé pour un soutien émotionnel, mais a clairement insisté sur le fait qu’il ne doit pas remplacer un thérapeute. L’entreprise met en garde contre l’utilisation excessive de l’IA dans ce cadre, soulignant que bien qu’elle puisse être utile pour des interactions conversationnelles, elle n’est pas adaptée pour fournir un véritable soutien psychologique.
Conclusion : une utilisation responsable de ChatGPT
Le succès de ChatGPT et des IA conversationnelles dans de nombreux domaines est indéniable. Cependant, comme le souligne l’alerte des experts, une utilisation responsable de ces technologies est cruciale. Que ce soit pour limiter leur impact écologique ou éviter de les considérer comme des solutions aux problèmes de santé mentale, nous devons rester conscients de leurs limites.
À mesure que ces outils deviennent plus omniprésents dans notre quotidien, il est essentiel de ne pas confondre utilité conversationnelle et soutien émotionnel réel, et de continuer à faire appel à des professionnels pour des besoins spécifiques. La frontière entre ce que l’IA peut offrir et ce qu’elle ne peut pas gérer doit rester clairement définie.