Alors que l’intelligence artificielle évolue à vitesse grand V, certains de ses créateurs montent au créneau pour alerter sur les dangers potentiels. Leur inquiétude ? Que cette technologie devienne incontrôlable… et qu’on ne soit pas prêt à y faire face.
Une prise de conscience venue d’en haut
Imaginez un instant : vous inventez une technologie révolutionnaire, qui bouleverse la planète… puis vous vous retournez et vous dites : « On a peut-être été trop loin ». C’est exactement ce que vivent aujourd’hui certains des plus grands noms de l’intelligence artificielle.
Geoffrey Hinton, Yoshua Bengio, Stuart Russell, ou encore Steve Wozniak – des figures quasi mythiques dans le monde de la tech – s’accordent sur un point : la superintelligence artificielle pourrait représenter un risque majeur pour l’humanité. Ils réclament un moratoire sur son développement tant qu’aucune régulation claire ni garantie de sécurité n’existe.
Leurs inquiétudes ne sont pas anodines : perte de contrôle, dérives éthiques, désengagement humain face à la responsabilité… Dans le scénario catastrophe qu’ils évoquent, l’IA ne se contente pas de remplacer l’humain dans certaines tâches, elle pourrait le surpasser totalement et devenir, au passage, impossible à contenir.
Pendant ce temps, les géants accélèrent
Le contraste est saisissant. D’un côté, des chercheurs reconnus qui appellent à la prudence. De l’autre, une industrie qui file à toute allure, portée par des milliards de dollars et une course à la puissance.
Sam Altman, PDG d’OpenAI, évoque sans détour l’arrivée d’une superintelligence dans les cinq prochaines années. Et derrière lui, Microsoft, Google, Meta, Anthropic ou encore Nvidia construisent des centres de calculs colossaux, capables de rivaliser avec des infrastructures énergétiques entières.
Le projet Stargate, par exemple, associe OpenAI, Nvidia et SoftBank pour mettre en place une puissance de calcul équivalente à celle de sept réacteurs nucléaires d’ici 2030. En Chine, le plan Dong Shu Xi Suan vise 50 gigawatts de puissance d’ici quelques années. Autrement dit, personne ne freine.
Un débat qui peine à se faire entendre
Il y a comme une dissonance. Ceux qui ont mis au point les fondements de l’IA, notamment les réseaux de neurones profonds, demandent un arrêt stratégique. Et ceux qui exploitent ces découvertes pour bâtir des empires continuent à foncer, parfois sans même regarder dans le rétroviseur.
Le débat n’est pas aussi binaire qu’il n’y paraît. Certains chercheurs, comme Max Tegmark, président du Future of Life Institute, nuancent : oui à une IA utile, médicale, climatique… mais non à une IA qui prendrait le dessus sur l’humain. Le problème ? La frontière entre les deux est floue, mouvante, et mal encadrée.
Même si la liste des signataires de l’appel est éclectique – allant de Richard Branson à Meghan Markle, en passant par des experts en éthique ou des artistes engagés – le message semble peiner à franchir les murs des conseils d’administration ou des salles de marché.
Alors, à qui revient la responsabilité de freiner ? Aux chercheurs ? Aux gouvernements ? Aux citoyens ? L’intelligence artificielle ne cesse de repousser les limites, mais ses pionniers nous rappellent que certaines lignes rouges ne devraient pas être franchies… sans conscience, ni consentement. Et si la vraie innovation, c’était de savoir dire “stop” à temps ?


