Présidente de Signal et ancienne cadre de Google, Meredith Whittaker n’a rien d’une technophobe. Mais lorsqu’elle parle de l’intelligence artificielle, son ton devient grave. Pour elle, ce n’est pas une révolution technologique, mais un miroir grossissant des déséquilibres de pouvoir qui gouvernent le numérique. Et le pire, selon elle, c’est que nous faisons semblant de ne pas le voir.
Une fausse révolution, un vrai modèle économique
On nous présente l’IA comme une innovation sans précédent, capable de transformer la société, la science, et même la créativité humaine. Pourtant, Meredith Whittaker rappelle une évidence que beaucoup préfèrent ignorer : l’IA n’est pas née d’une rupture technologique, mais d’une continuité économique.
Dès les années 2010, les géants du numérique — Google, Facebook, Amazon, Microsoft — disposaient déjà de tout : la puissance de calcul, les données massives et les infrastructures nécessaires pour faire fonctionner le deep learning. Ces modèles d’apprentissage automatique, pourtant anciens, ont soudain retrouvé une pertinence grâce à un carburant bien connu : la publicité et la surveillance.
« Ce que nous appelons IA, explique-t-elle, n’est pas une invention scientifique mais le prolongement d’un système économique fondé sur la collecte de données et la concentration du pouvoir. »
Le retour du « vieux monde » sous un vernis high-tech
Meredith Whittaker connaît le système de l’intérieur : elle a passé plus d’une décennie chez Google, à observer la montée du deep learning et la transformation des algorithmes en instruments d’influence. YouTube, par exemple, fut l’un des premiers terrains d’expérimentation. Les IA y ont appris à capter l’attention, à maximiser le temps d’écran, quitte à encourager les contenus les plus polarisants.
Ces choix n’avaient rien d’accidentel : ils répondaient à une logique commerciale, celle de la publicité comportementale. Et c’est cette même logique, selon Whittaker, qui structure aujourd’hui les grands modèles d’IA.
En d’autres termes : l’intelligence artificielle, telle que nous la connaissons, n’est pas née pour penser comme un humain, mais pour servir les intérêts économiques d’un petit nombre d’entreprises.
Une bulle qui enfle… sur fond de géopolitique
« Il y a clairement une bulle de l’IA », affirme Whittaker. Les valorisations s’envolent, les investissements s’empilent, mais les profits réels restent faibles. Certaines entreprises vivent plus de spéculation que d’innovation.
Les liens entre acteurs majeurs se renforcent : Nvidia investit dans OpenAI, OpenAI dépend du cloud de Microsoft, Microsoft gonfle sa propre valeur boursière en retour. Un cercle fermé, où l’argent circule entre les mêmes mains.
Plus inquiétant encore : 70 % du marché mondial du cloud est aujourd’hui contrôlé par trois entreprises américaines. Ce monopole n’est pas seulement économique, il est aussi géopolitique. Les gouvernements, les institutions et même les start-ups européennes dépendent de ces infrastructures pour faire tourner leurs modèles. En clair, une panne chez Amazon Web Services, et une partie d’Internet s’effondre.
L’Europe, un contre-pouvoir encore timide
Que faire face à une telle domination ? Pour Whittaker, l’Europe possède déjà une arme efficace : le RGPD, ce règlement sur la protection des données qui, appliqué strictement, pourrait freiner la publicité de surveillance et réduire le pouvoir des géants de la donnée.
Mais, comme elle le souligne avec amertume, la volonté politique manque. « Beaucoup veulent être associés au pouvoir, peu osent réellement s’y opposer. » Or, résister, c’est coûteux : cela signifie parfois perdre des alliances, des financements ou des positions d’influence.
Pourtant, elle plaide pour une coalition d’intérêts communs : gouvernements, ONG, armées et défenseurs des droits numériques devraient unir leurs efforts pour limiter les usages risqués de l’IA dans les infrastructures critiques.
Une sécurité numérique en péril
Les dérives sont déjà là. Des modèles de langage mal entraînés peuvent être manipulés à partir de quelques centaines de documents contaminés, selon une étude d’Anthropic. Pire : des API d’IA sont désormais vendues à des institutions militaires pour automatiser des décisions stratégiques — une pratique que Whittaker juge « déraisonnable et dangereuse ».
Elle alerte aussi sur les fameux « agents intelligents », ces outils capables de réserver un restaurant ou de planifier un voyage en accédant à nos cartes bancaires, navigateurs, historiques et messageries privées. En intégrant ces agents à nos appareils, nous créons des portes dérobées dans nos propres systèmes de sécurité.
« C’est une menace existentielle pour la confidentialité et la cybersécurité mondiale », insiste-t-elle.
Garder la main avant qu’il ne soit trop tard
Pour Meredith Whittaker, la question n’est plus de savoir si la bulle de l’IA éclatera, mais qui en paiera le prix. Si les grandes entreprises chutent, l’État fédéral américain pourrait bien les sauver — comme il l’a déjà fait dans d’autres crises.
Mais pour le reste du monde, il est temps d’ouvrir les yeux. L’IA n’est pas un oracle neutre : c’est un outil de pouvoir, profondément politique, façonné par des intérêts économiques et stratégiques.
Et si nous continuons à la consommer les yeux fermés, prévient-elle, nous pourrions bien découvrir trop tard que le vrai danger n’est pas l’IA elle-même… mais ceux qui la possèdent.


