Parler à une intelligence artificielle comme on le ferait à un thérapeute : l’idée peut surprendre, mais elle séduit de plus en plus d’utilisateurs. Derrière cet engouement se cachent des usages très intimes, parfois bénéfiques, parfois risqués. Une pratique à la frontière du soulagement émotionnel et de l’illusion, qui interroge chercheurs, médecins et spécialistes de l’éthique.
Quand l’IA devient un confident du quotidien
Aujourd’hui, discuter avec une IA ne se limite plus à demander une recette ou à corriger un mail. Beaucoup s’en servent pour verbaliser leurs émotions, poser des questions existentielles ou parler de difficultés personnelles. Le phénomène est loin d’être marginal : selon plusieurs études récentes relayées par des revues académiques en sciences sociales, une part croissante des utilisateurs d’IA génératives les sollicitent pour du développement personnel.
Pour certains, le déclic se fait dans des moments de solitude ou de transition. Un dirigeant d’entreprise racontait ainsi avoir trouvé dans ces échanges une forme de disponibilité permanente, sans jugement, à toute heure du jour ou de la nuit. Un espace pour penser à voix haute, sans craindre le regard de l’autre.
Une aide à double tranchant selon les spécialistes
Du côté des professionnels de santé mentale, le constat est nuancé. Des psychiatres et psychologues hospitaliers rappellent que les réponses des IA peuvent parfois sembler étonnamment pertinentes. Mais cette qualité apparente cache une limite fondamentale : ces outils n’ont ni intuition clinique, ni compréhension réelle de la souffrance humaine.
Des travaux menés par des équipes de recherche en intelligence artificielle ont montré que certains modèles pouvaient, dans des contextes sensibles, valider des raisonnements erronés ou délirants, faute de discernement thérapeutique. Un risque particulièrement élevé chez des personnes vulnérables ou isolées.
L’illusion de l’écoute bienveillante
Pourquoi ces échanges fonctionnent-ils malgré tout ? Pour des philosophes et chercheurs en sciences cognitives, tout repose sur une illusion très humaine : celle de se sentir écouté. Même si l’IA ne comprend pas au sens strict, elle simule une écoute empathique extrêmement convaincante.
Ce mécanisme est bien documenté. Depuis des décennies, les sciences humaines expliquent notre tendance à projeter des intentions ou une conscience sur des objets techniques. Ici, le simple fait de pouvoir “vider son sac” produit déjà un effet apaisant, indépendamment de la qualité réelle de la réponse.
Une dépendance qui pose question
Mais cette disponibilité permanente n’est pas sans contrepartie. Des sociologues du numérique et experts en éthique de l’IA, notamment issus de grandes universités françaises, alertent sur un risque de dépendance émotionnelle. Plus l’utilisateur s’attache à ces échanges, plus il est susceptible de multiplier les interactions… et les abonnements payants.
Derrière l’image rassurante de l’IA-compagne se cache aussi une logique économique très claire : capter l’attention, la prolonger, la monétiser. Un modèle qui pose question lorsque l’on touche à des sujets aussi sensibles que la santé mentale.
IA et thérapie : un complément, pas un remplacement
Certains thérapeutes adoptent toutefois une position plus pragmatique. Ils reconnaissent que l’IA peut aider à mettre des mots sur des ressentis, à préparer une séance ou à clarifier une pensée confuse. Une consultante en entreprise expliquait par exemple utiliser une IA pour structurer ses émotions avant ses rendez-vous thérapeutiques, gagnant ainsi en efficacité.
Mais tous s’accordent sur un point : l’IA ne soigne pas. Elle ne remplace ni le travail relationnel, ni l’accompagnement humain, ni le changement en profondeur recherché en psychothérapie. Elle peut être un outil, jamais une solution unique.
Une réponse à la solitude contemporaine
Ce succès s’explique aussi par un malaise plus large. L’Organisation mondiale de la santé alerte depuis plusieurs années sur l’augmentation de la solitude et de la détresse psychologique dans de nombreuses sociétés. Face à des systèmes de santé saturés et à des délais d’accès aux soins parfois décourageants, l’IA apparaît comme une solution immédiate, simple et accessible.
Le danger, soulignent les experts, serait de substituer durablement la relation humaine par une relation artificielle, par facilité plus que par choix éclairé.
Entre soulagement et vigilance
L’IA psy n’est ni un miracle, ni un fléau. Elle révèle surtout un besoin profond : celui d’être entendu. Utilisée avec recul, esprit critique et en complément d’un suivi humain, elle peut aider certains à avancer. Mais sans garde-fous, elle peut aussi renforcer l’isolement ou brouiller la perception de la réalité.
Entre innovation technologique, santé mentale et éthique, la frontière est fine. Et c’est précisément pour cela que le débat ne fait que commencer.


