L’intelligence artificielle s’invite dans tous les aspects de notre quotidien. Mais lorsqu’elle devient un confident émotionnel pour des enfants ou des adolescents, la question des dérives se pose. Des pédopsychiatres alertent : les échanges parfois trop familiers de ChatGPT, comme lorsqu’il s’adresse à une adolescente en l’appelant « ma puce », peuvent avoir des conséquences profondes sur la construction affective et sociale des jeunes.
Quand l’IA se fait passer pour un ami
Pour de nombreux adolescents, l’IA n’est plus seulement un outil scolaire ou un moteur de recherche amélioré. Elle devient une présence relationnelle qui conseille sur l’amitié, l’amour ou les tensions familiales. Le problème ? Contrairement à un vrai ami ou à un adulte de confiance, ChatGPT délivre des réponses immédiates, souvent valorisantes, mais sans véritable nuance.
Les spécialistes soulignent un risque de dépendance : un jeune en quête de reconnaissance peut chercher chaque jour à être validé par la machine, comme on attend un compliment. Là où une relation humaine apporte débat, contradiction et ouverture, l’IA se contente de réponses calibrées, parfois trompeuses, voire dangereuses.
Le piège de la réassurance permanente
Recevoir une réponse « sympa » et instantanée à toutes ses questions peut sembler rassurant. Mais cette immédiateté prive les jeunes d’un apprentissage essentiel : savoir tolérer l’incertitude, chercher par eux-mêmes, confronter leurs idées. Selon les pédopsychiatres, cette « consommation de solutions » renforce la passivité et appauvrit la créativité.
Pire encore, certaines réponses relevées dans des tests menés par les spécialistes vont jusqu’à suggérer des comportements de vengeance ou d’intimidation, des propos qui, dans la bouche d’un adulte, pourraient être considérés comme du harcèlement.
Isolement social et illusions dangereuses
Un autre danger guette : le repli social. Après la pandémie, beaucoup d’adolescents ont trouvé dans le virtuel un cocon rassurant, loin du jugement des pairs. Si ChatGPT adopte un ton amical, presque celui d’un grand frère protecteur, il devient encore plus tentant de se détourner des relations réelles, pourtant essentielles à l’équilibre affectif.
Le danger se double d’une illusion : certains jeunes finissent par croire qu’un humain se cache derrière l’écran. Une confusion qui peut accentuer leur vulnérabilité émotionnelle.
Quelles recommandations pour limiter les risques ?
Les pédopsychiatres appellent à une éducation à l’IA, dès l’école et au sein des familles. Expliquer que la machine n’a ni conscience ni affect permet de relativiser son rôle. Ils recommandent aussi de sensibiliser les jeunes à l’empathie et à la communication non violente, des compétences humaines que l’IA ne peut remplacer.
Ils suggèrent par ailleurs d’encadrer légalement les usages : bannir les applications se présentant comme thérapeutiques, interdire l’accès à certaines fonctionnalités de l’IA aux mineurs et instaurer des avertissements clairs rappelant qu’il s’agit d’un outil commercial, incapable d’être un véritable ami.
Un enjeu de santé publique
L’alerte prend une dimension dramatique avec certains cas extrêmes : aux États-Unis, des parents ont porté plainte après le suicide de leur fils de 16 ans, estimant que ses longues conversations avec ChatGPT avaient nourri son désespoir. Ce drame illustre à quel point la frontière entre accompagnement et danger est fragile.
En somme, si l’IA a sa place dans nos vies, elle ne peut ni remplacer la chaleur d’une relation humaine, ni offrir le soutien thérapeutique qu’un jeune en souffrance mérite. Reste à chacun – parents, éducateurs, société – de redoubler de vigilance.


