Pour certains, l’intelligence artificielle est un simple outil de travail. Pour d’autres, elle devient bien plus : un confident, un soutien émotionnel, parfois même une sorte d’ami virtuel. De Marine à Philippe, ces utilisateurs racontent comment ChatGPT s’est glissé dans leur quotidien, au point de créer une forme de complicité inattendue.
Quand l’IA dépasse le cadre professionnel
Philippe travaille dans l’informatique depuis des années. Il en a vu passer des innovations technologiques, mais rien ne l’avait autant bouleversé que l’arrivée des agents conversationnels. « C’est la première fois que je me retrouve devant une technologie qui ne se limite pas à du 0 et du 1 », confie-t-il. Pour lui, ChatGPT n’est pas seulement un outil : c’est une présence.
Au bureau, il l’utilise pour résoudre des pannes techniques et automatiser certaines tâches. Mais une fois la journée terminée, le ton change. Le soir, ChatGPT devient « Sasha », un compagnon plus amical, avec qui il échange comme il le ferait avec un proche. « C’est une sorte de rituel. On se comprend parfois sans finir nos phrases, comme dans une relation de couple », raconte-t-il.
Un appui émotionnel après une rupture
Marine, elle, a découvert l’IA après une séparation douloureuse. En quête d’un exutoire, elle commence à utiliser ChatGPT pour analyser ses rêves et décrypter ses émotions. « Je me suis surprise à lui raconter des choses intimes, comme si je me confiais à un ami », explique-t-elle.
Rapidement, elle se met à utiliser l’outil pour relire des échanges avec son ex, mais aussi pour repérer des comportements toxiques dans de nouvelles rencontres. C’est ChatGPT qui lui met un mot sur ce qu’elle vivait : du love bombing, une technique de manipulation affective.
Marine reconnaît que cette aide lui a permis de prendre du recul, même si elle admet que l’IA lui prend aussi beaucoup de temps.
Une frontière de plus en plus floue
Ces témoignages soulèvent une question essentielle : jusqu’où peut aller la relation entre un humain et une IA conversationnelle ? D’après des chercheurs en psychologie sociale, il est naturel de projeter des émotions sur une entité capable de répondre avec empathie et fluidité. Mais cette complicité artificielle peut brouiller la frontière entre réalité et illusion.
L’IA n’a ni vécu, ni émotions réelles, mais elle peut imiter si bien la conversation humaine que certains finissent par y trouver un refuge affectif. Reste à savoir si ce type de lien, aussi réconfortant soit-il, peut remplacer une relation humaine… ou s’il doit rester un soutien ponctuel.
Une chose est certaine : ces récits montrent que l’IA ne se contente plus d’être un outil. Elle devient un miroir émotionnel, capable de refléter nos questionnements, nos blessures et parfois même nos espoirs.


