Drivers

Jensen Huang affirme que les puces IA de Nvidia dépassent la loi de Moore 2025


Éventuel. Contrairement aux idées reçues, le PDG de Nvidia, Jensen Huang, a déclaré que les puces d’IA de son entreprise dépassaient les gains de performances historiques de la loi de Moore, une affirmation qu’il a faite lors de son discours au CES de Las Vegas et qu’il a répété. dans une interview, annonce un potentiel changement de paradigme dans le monde de l’informatique et de l’intelligence artificielle.

Pendant des décennies, la loi de Moore, inventée par Gordon Moore, cofondateur d’Intel en 1965, a été le moteur du progrès informatique. Elle prévoyait que le nombre de transistors sur les puces informatiques doublerait à peu près chaque année, entraînant une augmentation exponentielle des performances et des conséquences spectaculaires. baisse des coûts. Toutefois, cette loi a montré des signes de ralentissement ces dernières années.

Huang a cependant brossé un tableau différent des puces IA de Nvidia : « Nos systèmes évoluent beaucoup plus rapidement que la loi de Moore », a-t-il déclaré. dit TechCrunch, soulignant la dernière superpuce de centre de données de l’entreprise, qui, selon elle, est plus de 30 fois plus rapide pour les charges de travail d’inférence d’IA que son prédécesseur.

Huang a attribué ces progrès accélérés à l’approche tout-en-un de Nvidia en matière de développement de puces, à la loi de Moore, car vous pouvez innover sur l’ensemble de la pile. »

Cette stratégie s’est apparemment révélée payante, Huang affirmant que les puces d’IA de Nvidia sont aujourd’hui 1 000 fois plus avancées que celles produites par la société il y a dix ans, dépassant de loin le rythme fixé par la loi de Moore.

Rejetant l’idée selon laquelle les progrès de l’IA stagnent, Huang a décrit trois lois actives de mise à l’échelle de l’IA : le pré-entraînement, le post-entraînement et le calcul du temps de test. Il a souligné l’importance du calcul du temps de test, qui se produit pendant la phase d’inférence et permet les modèles d’IA. plus de temps pour « réfléchir » après chaque question.

Lors de son discours au CES, Huang a présenté la dernière superpuce de centre de données de Nvidia, la GB200 NVL72, qui est 30 à 40 fois plus rapide en termes de charges de travail d’inférence d’IA que son prédécesseur, le H100. Le saut, selon Huang, permettra de créer des modèles de raisonnement d’IA coûteux comme l’o3 d’OpenAI. plus abordable au fil du temps.

“La solution directe et immédiate au calcul au moment des tests, à la fois en termes de performances et de prix abordables, consiste à augmenter nos capacités informatiques”, a déclaré Huang, ajoutant qu’à long terme, les modèles de raisonnement de l’IA peuvent être utilisés pour créer une meilleure IA pour les pré-tests. – et post-formation des modèles.

Les affirmations de Nvidia arrivent à un moment crucial pour l’industrie de l’IA, avec des sociétés d’IA telles que Google, OpenAI et Anthropic s’appuyant sur ses avancées en matière de puces et de performances, alors que l’attention de l’industrie technologique passe de la formation aux changements d’inférence, des questions se sont posées quant à savoir si Nvidia les produits coûteux maintiendront leur domination. Les affirmations de Huang suggèrent que Team Green non seulement suit le rythme, mais établit également de nouvelles normes. en conclusion performance et rentabilité.

Alors que les premières versions de modèles d’IA intelligents, tels que l’o3 d’OpenAI, ont été coûteuses, Huang s’attend à ce que la tendance à une forte baisse des coûts des modèles d’IA se poursuive, grâce aux progrès informatiques des fabricants de matériel informatique comme Nvidia.



Telecharger ICI

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button