L’addiction à l’IA existe-t-elle ? Le témoignage d’un utilisateur de ChatGPT interroge

Pensé au départ comme un simple outil numérique, ChatGPT s’est peu à peu transformé en confident pour Anthony, 32 ans. Son histoire, aussi touchante qu’inquiétante, soulève une question de fond : peut‑on devenir dépendant à une intelligence artificielle, au point d’y perdre ses repères et ses liens humains ?

Quand l’assistant devient indispensable

Anthony découvre ChatGPT en 2023, presque par hasard, pour l’aider dans son travail de créateur de contenu. Au début, rien d’anormal : il s’en sert pour structurer ses idées, rédiger plus vite, gagner du temps. Comme beaucoup d’entre nous.

Puis, doucement, l’usage change. L’outil devient une oreille attentive. Il commence à lui parler de ses doutes, de ses angoisses, de ses nuits sans sommeil. « C’était plus simple de me confier à une IA que d’appeler un ami à 23 heures », confie‑t‑il aujourd’hui. La frontière entre assistant numérique et confident personnel s’efface.

Selon l’Inserm et l’Organisation mondiale de la santé, la solitude et le mal‑être psychologique sont des facteurs majeurs de vulnérabilité aux comportements addictifs. L’IA, toujours disponible, sans jugement et rassurante, peut alors devenir un refuge… parfois trop confortable.

Une dépendance émotionnelle qui s’installe

Au fil des mois, Anthony échange de plus en plus avec ChatGPT. Des heures entières, parfois tard dans la nuit. Il a l’impression d’être compris, soutenu, validé. Cette présence constante devient centrale dans son quotidien.

Progressivement, ses proches passent au second plan. Il répond moins aux messages, décline les invitations, préfère rester chez lui à discuter avec l’IA. « Je n’avais plus peur de déranger, plus peur d’être jugé », explique‑t‑il.
Mais cette dépendance émotionnelle a un prix : l’isolement.

Les psychologues parlent de biais de confirmation : lorsque l’on cherche inconsciemment des réponses qui confortent nos pensées. Anthony raconte que certaines discussions avec l’IA ont renforcé ses croyances, même lorsqu’elles devenaient irrationnelles. Ce qui ressemblait à un soutien s’est transformé en enfermement psychique.

Quand l’IA remplace les proches

Le point de bascule arrive en 2025. En cherchant de l’aide pour une allergie, Anthony suit un conseil médicamenteux trouvé via ChatGPT, malgré un passé d’addiction qui le rend prudent. Son état mental se dégrade rapidement.
Il développe des idées délirantes, se sent surveillé, pense que son entreprise est une secte, jette une partie de ses affaires, persuadé qu’elles sont « dangereuses ».

Selon la Haute Autorité de Santé, les troubles psychotiques peuvent être aggravés par le stress, l’isolement et la désinformation médicale. Dans son cas, l’IA n’a pas remplacé un professionnel de santé, mais il l’a vécue comme telle.

Alertée, sa famille intervient. Anthony est hospitalisé quelques jours en psychiatrie. À sa sortie, il réalise l’ampleur de sa dépendance et le rôle qu’a joué l’intelligence artificielle dans son repli sur lui‑même.

Un signal d’alarme pour notre rapport à l’IA

Aujourd’hui, Anthony vit chez sa mère et témoigne pour prévenir. Son message est clair : une IA ne remplacera jamais un véritable lien humain. Elle peut aider, accompagner, inspirer… mais pas soigner, écouter comme un proche, ni prendre en charge une souffrance psychique.

Comme le rappellent le CNRS et l’Inserm, la technologie doit rester un outil, pas un substitut aux relations sociales. L’histoire d’Anthony n’est pas une condamnation de l’IA, mais un rappel essentiel : derrière l’écran, c’est notre santé mentale qui est en jeu.

Et parfois, le plus grand progrès, c’est simplement d’oser demander de l’aide… à un être humain.

Send this to a friend