Selon le PDG de Nvidia, les progrès de ses puces d’IA dépassent la loi de Moore

La loi de Moore, théorisée en 1965 par le co-fondateur d’Intel Gordon Moore, a été un pilier du progrès technologique pendant des décennies. Elle prédisait que le nombre de transistors sur une puce informatique doublerait tous les deux ans, permettant une augmentation exponentielle des performances. Mais, selon Jensen Huang, PDG de Nvidia, ses puces d’intelligence artificielle avancent à un rythme encore plus rapide.

Une progression au-delà des attentes

Lors du CES 2025, Huang a affirmé que les systèmes de Nvidia progressent à un rythme bien supérieur à celui prévu par la loi de Moore. « Nos innovations couvrent toute la chaîne, du design des architectures et des puces aux algorithmes, en passant par les bibliothèques et les systèmes », a-t-il expliqué. Cette approche holistique permet à Nvidia d’accélérer ses avancées, réduisant les coûts tout en améliorant les performances.

Une nouvelle génération de puces

Parmi les dernières innovations présentées, la puce GB200 NVL72 a été mise en avant comme un symbole de cette progression. Selon Nvidia, cette puce est jusqu’à 40 fois plus rapide pour les tâches d’inference IA que la H100, l’une de leurs puces les plus populaires auparavant. Avec ces performances, des modèles IA complexes comme l’o3 d’OpenAI – très gourmands en ressources – pourraient devenir beaucoup plus accessibles.

Jensen Huang, PDG de Nvidia

Réduire les coûts tout en augmentant la performance

L’une des promesses de Nvidia est de réduire le coût des tâches d’inference. Aujourd’hui, ces opérations restent onéreuses, avec des exemples comme OpenAI dépensant 20 dollars par tâche pour atteindre des scores proches de l’intelligence humaine. Toutefois, Huang estime que ces coûts vont diminuer à mesure que la performance des puces s’améliore.

« Plus nos puces sont performantes, moins les coûts seront élevés », a-t-il affirmé. Cette stratégie vise à démocratiser l’accès à des modèles IA avancés tout en répondant à une demande mondiale croissante.

Une réponse aux sceptiques

Certains experts craignent un ralentissement dans les avancées de l’IA, mais Huang rejette cette idée. Selon lui, trois lois de mise à l’échelle sont désormais en jeu :

  • Pré-entraînement : où les modèles apprennent à partir de grandes quantités de données.
  • Post-entraînement : phase de raffinement, souvent à l’aide de retours humains.
  • Test-time compute : où le modèle optimise ses réponses en temps réel.

Ces processus, combinés à des avancées matérielles, permettent à Nvidia de maintenir une cadence impressionnante.

Une évolution sur dix ans

Huang a souligné que les puces actuelles de Nvidia sont 1 000 fois plus performantes que celles fabriquées il y a dix ans. Ce rythme de progression – bien au-delà de la loi de Moore – reflète l’importance croissante de l’IA dans de nombreux secteurs, de la recherche médicale aux technologies grand public.

En somme, Nvidia continue de repousser les limites du possible, transformant le paysage technologique et répondant à des besoins toujours plus exigeants. Avec ces avancées, l’avenir de l’IA s’annonce prometteur – et accessible à un plus grand nombre.

Send this to a friend