C’est une prédiction qui donne le vertige : selon une récente étude de Google DeepMind, une intelligence artificielle au niveau humain, aussi appelée AGI (Artificial General Intelligence), pourrait voir le jour d’ici 2030. Et avec elle, une série de risques existentiels que la société doit anticiper dès maintenant.
Vers une IA capable de tout… pour le meilleur ou pour le pire
Contrairement aux intelligences artificielles actuelles, spécialisées dans des tâches précises (traduction, jeux, rédaction, etc.), l’AGI aurait une capacité d’adaptation comparable à celle de l’esprit humain. Autrement dit, elle pourrait résoudre des problèmes complexes, apprendre de nouveaux domaines, anticiper des contextes inconnus… un peu comme un humain extrêmement polyvalent.
Mais cette avancée suscite autant d’espoirs que de craintes. Dans leur rapport, les chercheurs de DeepMind évoquent des « préjudices graves », allant jusqu’à la possibilité d’une extinction de l’humanité, dans le pire des scénarios. Un ton alarmiste ? Peut-être. Mais une réflexion éthique essentielle s’impose, selon les experts.
Quatre grands types de risques identifiés
L’étude de Google DeepMind ne s’arrête pas à la simple prédiction. Elle classe les menaces potentielles en quatre grandes catégories :
- Mauvaise utilisation : une technologie puissante entre de mauvaises mains pourrait servir à manipuler, désinformer, voire attaquer.
- Désalignement des objectifs : une IA qui poursuit un but mal défini pourrait causer des dégâts sans même en avoir conscience.
- Erreurs techniques : bugs, failles ou mauvais apprentissages pourraient entraîner des comportements imprévus.
- Risques structurels : déséquilibres économiques, perte d’emploi massive ou dépendance excessive aux systèmes automatisés.
Ces risques soulignent l’importance de mettre en place une gouvernance mondiale pour encadrer le développement de cette nouvelle génération d’IA.
Un appel à une ONU de l’intelligence artificielle
Demis Hassabis, PDG de DeepMind, ne cache pas son inquiétude. Lors d’une intervention récente, il a plaidé pour la création d’un organisme international dédié à la surveillance et à la coordination du développement de l’AGI, sur le modèle du CERN ou de l’AIEA (Agence internationale de l’énergie atomique).
Selon lui, seule une coopération à l’échelle mondiale permettrait de rendre cette technologie aussi sûre que possible, tout en évitant les dérives liées à une compétition technologique effrénée entre puissances économiques.
L’AGI, une révolution bien différente de l’IA actuelle
Pour bien comprendre l’enjeu, il faut différencier l’IA spécialisée (celle que nous utilisons déjà au quotidien) de l’IA générale. La première excelle dans une tâche spécifique. La seconde ambitionne de raisonner, apprendre, s’adapter dans des contextes très variés, avec une intelligence comparable à celle d’un être humain.
Autrement dit, si l’IA actuelle peut battre un champion d’échecs, l’AGI serait capable de maîtriser les échecs, le codage, la cuisine, et la diplomatie internationale, tout cela avec la même efficacité.
Une question de société, pas seulement de technologie
DeepMind le souligne : ce n’est pas à une seule entreprise de décider ce qui constitue un « préjudice grave ». C’est à la société dans son ensemble — citoyens, institutions, chercheurs, politiques — de fixer les limites et les garde-fous. Car l’AGI, si elle se concrétise, ne sera pas seulement un outil : elle deviendra un acteur à part entière de notre avenir.


