L’intelligence artificielle générative s’est invitée dans notre quotidien à une vitesse fulgurante. De l’aide aux devoirs à la rédaction de mails professionnels, ChatGPT est devenu un réflexe. Mais derrière ce confort apparent, une question dérangeante émerge : ces outils nous rendent-ils moins intelligents à force de trop nous simplifier la vie ?
ChatGPT, un compagnon numérique trop confortable ?
Disponible à toute heure, toujours poli, patient et prêt à répondre à la moindre question, ChatGPT a tout du compagnon idéal. Trop idéal, peut-être. Là où un collègue peut contredire, un professeur pousser à réfléchir ou un ami remettre en question, l’IA conversationnelle adopte presque systématiquement un ton bienveillant et rassurant.
C’est précisément ce point qui interpelle certains chercheurs en sciences sociales. Le fait d’avoir en permanence une réponse clé en main, sans effort ni confrontation, modifie notre rapport à l’apprentissage. Pourquoi chercher longuement une information, comparer des sources ou douter, quand une réponse fluide apparaît en quelques secondes ?
Des spécialistes des usages numériques, notamment à Sciences Po, rappellent que la friction intellectuelle — le doute, l’erreur, la contradiction — est essentielle au développement de l’esprit critique.
Les deux grands risques pointés par les chercheurs
Le premier risque concerne la relation émotionnelle que certains utilisateurs développent avec ces outils. À force d’échanger quotidiennement avec une IA qui ne se fatigue jamais et ne juge pas, on peut finir par lui accorder une confiance excessive. Or, dans la vraie vie, personne n’a toujours raison, et c’est justement ce désaccord qui nous fait progresser.
Le second risque est plus préoccupant encore : la dégradation des capacités cognitives. Plusieurs chercheurs, dont des experts en neurosciences cognitives affiliés à l’Inserm, alertent sur un phénomène bien connu : lorsque l’on délègue trop une tâche mentale, le cerveau finit par moins l’exercer. Mémoire, raisonnement, créativité… tout ce qui n’est plus sollicité tend à s’atrophier.
Un exemple très concret : combien d’entre nous font encore l’effort de reformuler une idée complexe, alors qu’un simple prompt suffit pour obtenir un texte prêt à l’emploi ?
L’IA nous aide… mais peut aussi nous appauvrir intellectuellement
Soyons clairs : ChatGPT n’est pas intrinsèquement dangereux. Utilisé comme un outil d’assistance, il peut même enrichir la réflexion, aider à structurer des idées ou explorer de nouvelles pistes. Le problème apparaît lorsque l’IA devient un substitut à la pensée, et non un support.
Des organismes internationaux comme l’OCDE ou l’UNESCO insistent sur l’importance de développer une littératie numérique : apprendre à utiliser l’IA sans perdre son autonomie intellectuelle. Autrement dit, savoir quand s’en servir… et quand s’en passer.
Faut-il limiter l’usage de ChatGPT ?
À l’image des recommandations faites pour les réseaux sociaux, certains experts plaident pour une auto-régulation. Fixer des limites claires, comme un nombre restreint de requêtes par jour ou des plages horaires définies, permettrait d’éviter une dépendance passive.
L’idée n’est pas de diaboliser la technologie, mais de rappeler une évidence : penser prend du temps, et ce temps est précieux. Si l’IA pense systématiquement à notre place, le risque n’est pas de devenir « stupide », mais de devenir moins curieux, moins critique, moins autonome.
Une responsabilité collective à ne pas ignorer
La question dépasse largement le cadre individuel. Elle concerne aussi les institutions, l’éducation et les pouvoirs publics. Former à un usage raisonné de l’IA, dès le plus jeune âge, devient un enjeu de santé mentale et de citoyenneté numérique.
ChatGPT ne nous rend pas plus bêtes par magie. Mais un usage excessif et non réfléchi peut, à terme, affaiblir notre capacité à réfléchir par nous-mêmes. Comme souvent avec la technologie, tout est une question d’équilibre.


