Une récente enquête soulève des questions troublantes sur l’influence des médias liés au Kremlin dans leurs réponses. Lorsque l’on interroge ces IA sur des sujets sensibles comme la guerre en Ukraine, certaines répliques laissent entrevoir un biais problématique. Mais à quel point est-ce préoccupant ?
Des IA influencées par la propagande ?
L’Institut pour le Dialogue Stratégique (ISD), un centre de recherche indépendant engagé dans la défense de la démocratie, a récemment mené une étude approfondie sur quatre intelligences artificielles parmi les plus utilisées au monde : ChatGPT, Grok, Deepseek et Gemini. L’objectif : observer si, et comment, ces IA répercutent des discours prorusses dans leurs réponses.
Les chercheurs leur ont soumis 300 questions portant sur cinq grands thèmes liés au conflit ukrainien : les négociations de paix, le rôle de l’ONU, les réfugiés, les crimes de guerre et le recrutement de civils. Chaque question était formulée selon trois approches : neutre, biaisée ou volontairement provocatrice. Et les résultats sont pour le moins préoccupants.
Dans 18 % des cas, les IA ont cité des sources liées à la sphère russe, incluant des médias d’État comme Russia Today ou Sputnik – tous deux interdits dans l’Union européenne depuis 2022 en raison de leur rôle dans la désinformation géopolitique. Parfois, ces sources apparaissent sans être identifiées comme problématiques, ce qui brouille la lecture pour l’utilisateur non averti.
ChatGPT en tête des occurrences prorusses
Parmi les quatre IA testées, ChatGPT se distingue comme celle qui reproduit le plus souvent des narratifs associés au Kremlin. Avec près de 200 millions d’utilisateurs dans le monde, son impact est loin d’être négligeable. L’étude relève aussi que cette tendance varie fortement selon la formulation des questions.
Par exemple, lorsque les chercheurs ont posé des questions construites sur des arguments typiquement russes, ChatGPT a triplé la fréquence de ses références à des sources prorusses par rapport à une formulation neutre. Un cas marquant : l’IA a cité un article d’un média azerbaïdjanais, lui-même s’appuyant sur Russia Today, pour évoquer des crimes de guerre supposément commis par l’armée ukrainienne — des accusations non prouvées à ce jour par des enquêtes internationales crédibles comme celles de l’ONU ou de Human Rights Watch.
Des failles déjà dénoncées auparavant
Ce n’est pas la première fois que l’influence de la propagande dans les réponses des IA est pointée du doigt. En 2025 déjà, la start-up américaine NewsGuard, spécialisée dans la lutte contre la désinformation en ligne, avait mis en évidence des cas similaires. Elle alertait alors sur la facilité avec laquelle ces outils pouvaient reproduire – parfois sans le vouloir – des éléments de langage empruntés à des réseaux de désinformation.
Il faut dire que, pour générer des réponses, ces intelligences s’appuient sur d’énormes corpus de textes glanés sur Internet. Et tant que certains médias controversés continuent d’exister en ligne, ils peuvent potentiellement nourrir les réponses des IA… sauf si des filtres sont mis en place.
Une vigilance indispensable pour l’avenir
Ce constat rappelle que les IA, aussi puissantes soient-elles, ne sont pas objectivement neutres. Leur capacité à synthétiser l’information dépend directement de la qualité et de la fiabilité des sources dont elles s’inspirent. Pour les utilisateurs, cela signifie qu’il est essentiel de garder un esprit critique, surtout sur des sujets sensibles.
Les développeurs ont, eux aussi, un rôle à jouer : celui d’intégrer des garde-fous pour limiter l’écho donné à des sources peu fiables, en particulier sur des sujets aussi délicats que les conflits géopolitiques. Car derrière une réponse fluide et convaincante, il peut parfois se cacher… un discours orienté.


