Lors de la récente exposition du CES, le PDG de Nvidia, Jensen Huang, a annoncé que la vitesse d'amélioration des performances des puces de l'IA de la société avait dépassé les normes historiques de la loi de Moore. Cette déclaration a attiré une grande attention, en particulier dans le contexte de la stagnation par la communauté technologique des progrès de l'IA.
La loi de Moore a été proposée par le co-fondateur d'Intel, Gordon Moore, en 1965, prédisant que le nombre de transistors sur les puces informatiques doublera à peu près chaque année, doublant ainsi les performances des puces en conséquence. Cependant, ces dernières années, la loi de Moore a considérablement ralenti, ce qui rend la percée de Nvidia encore plus convaincante.

Huang Renxun a souligné que les dernières puces du centre de données de NVIDIA sont plus de 30 fois plus rapides que la génération précédente lors de l'exécution des charges de travail d'inférence AI. "Nous pouvons construire des architectures, des puces, des systèmes, des bibliothèques et des algorithmes en même temps, et si nous pouvons le faire, nous pouvons aller au-delà de la loi de Moore parce que nous pouvons innover tout au long de la pile technologique." Position dans le champ des puces AI.
Actuellement, les principaux laboratoires AI tels que Google, OpenAI et Anthropic utilisent les puces AI de NVIDIA pour former et exécuter des modèles AI. Par conséquent, l'avancement de ces puces affectera directement les capacités des modèles d'IA et favorisera ainsi le développement de l'ensemble de l'industrie de l'IA.
Huang Renxun a également mentionné qu'il existe désormais trois règles d'extension AI actives: le calcul pré-formation, post-formation et temps de test. Il a souligné que la loi de Moore est si importante dans les histoires informatiques car elle entraîne la réduction des coûts de calcul, et l'amélioration des performances du processus d'inférence entraînera également la réduction des coûts d'inférence. Ce point de vue offre une faisabilité économique pour l'application généralisée des modèles d'IA.
Bien que certaines personnes aient exprimé leurs préoccupations quant à savoir si les puces coûteuses de Nvidia peuvent continuer à mener dans le domaine du raisonnement, Huang Renxun a déclaré que la dernière puce GB200NVL72 est de 30 à 40 fois plus rapide que la puce H100 dans les charges de travail d'inférence, ce qui rendra la déférence AI modèle plus économique et abordable. Cette amélioration des performances améliore non seulement la compétitivité du marché de Nvidia, mais offre également plus de possibilités pour la popularisation de la technologie de l'IA.
Huang Renxun a souligné que l'amélioration de la puissance de calcul est un moyen direct et efficace de résoudre les problèmes de performance de calcul et d'abordabilité des coûts dans le raisonnement. Il s'attend à ce qu'avec le progrès continu de la technologie informatique, le coût des modèles d'IA continuera de baisser, bien que certains modèles dans des entreprises tels qu'OpenAI fonctionnent actuellement à un coût plus élevé. Cette prédiction dépeint une image optimiste pour le développement futur de la technologie de l'IA.
Huang Renxun a déclaré que les puces d'IA d'aujourd'hui ont augmenté de 1 000 fois par rapport à il y a dix ans, ce qui est une vitesse de progrès dépassant de loin la loi de Moore, et il pense que cette tendance ne s'arrêtera pas de si tôt. Cette innovation technologique continue apportera plus de percées et d'opportunités à l'industrie de l'IA.
Points clés: le PDG de NVIDIA, Huang Renxun, a déclaré que l'amélioration des performances des puces AI de la société avait dépassé la loi de Moore. Les dernières puces GB200NVL72 sont de 30 à 40 fois plus rapidement sur les charges de travail d'inférence AI que les générations précédentes. Huang Renxun prédit qu'avec l'amélioration de la puissance de calcul, le coût de l'utilisation des modèles d'IA diminuera progressivement. Ces progrès démontrent non seulement la force technologique de Nvidia, mais souligne également la direction du développement futur de la technologie de l'IA.