Auf der jüngsten CES -Ausstellung gab NVIDIA -CEO Jensen Huang bekannt, dass die Geschwindigkeit der KI -Chip -Leistungsverbesserung über die historischen Standards von Moore's Law übertroffen hat. Diese Aussage hat weit verbreitete Aufmerksamkeit erregt, insbesondere im Kontext der Stagnation des KI -Fortschritts durch die Tech -Community.
Das Gesetz von Moore wurde 1965 von Intel-Mitbegründer Gordon Moore vorgeschlagen und sagte voraus, dass die Anzahl der Transistoren auf Computerchips ungefähr jedes Jahr verdoppelt wird, was die Chipleistung entsprechend verdoppelt hat. In den letzten Jahren hat sich das Gesetz von Moore jedoch erheblich verlangsamt, was den Durchbruch von Nvidia noch überzeugender gemacht hat.

Huang Renxun wies darauf hin, dass die neuesten Super -Chips von NVIDIA mehr als 30 -mal schneller sind als die vorherige Generation bei der Ausführung von AI -Inferenz -Workloads. "Wir können gleichzeitig Architekturen, Chips, Systeme, Bibliotheken und Algorithmen erstellen, und wenn wir dies tun können, können wir über das Gesetz von Moore hinausgehen, da wir im gesamten Technologiestapel innovativ sind." Position im Bereich der AI -Chips.
Derzeit verwenden führende KI -Labors wie Google, OpenAI und Anthropic die AI -Chips von Nvidia, um KI -Modelle zu trainieren und zu betreiben. Daher wirkt sich die Weiterentwicklung dieser Chips direkt auf die Fähigkeiten von KI -Modellen aus und fördert somit die Entwicklung der gesamten KI -Branche.
Huang Renxun erwähnte außerdem, dass es jetzt drei aktive AI-Expansionsregeln gibt: Vorausbildung, Berechnung nach der Ausbildung und Testzeit. Er betonte, dass das Gesetz von Moore in der Rechenverlauf so wichtig sei, da es die Reduzierung der Rechenkosten fördert und die Leistungsverbesserungen im Inferenzprozess auch zur Reduzierung der Inferenzkosten führen werden. Diese Ansicht bietet wirtschaftliche Machbarkeit für die weit verbreitete Anwendung von KI -Modellen.
Obwohl einige Leute Bedenken darüber äußerten, ob die teuren Chips von Nvidia weiterhin im Bereich der Argumentation führen können Modell wirtschaftlicher und erschwinglicher. Diese Leistungsverbesserung verbessert nicht nur die Wettbewerbsfähigkeit von NVIDIAs Markt, sondern bietet auch mehr Möglichkeiten für die Popularisierung der KI -Technologie.
Huang Renxun betonte, dass die Verbesserung der Rechenleistung ein direkter und effektiver Weg ist, um die Probleme der Rechenleistung und der Erschwinglichkeit der Kosten bei der Argumentation zu lösen. Er geht davon aus, dass mit der kontinuierlichen Weiterentwicklung der Computertechnologie die Kosten für KI -Modelle weiter sinken werden, obwohl einige Modelle in Unternehmen wie OpenAI derzeit zu höheren Kosten laufen. Diese Vorhersage zeichnet ein optimistisches Bild für die zukünftige Entwicklung der AI -Technologie.
Huang Renxun sagte, dass die heutigen KI -Chips im Vergleich zu zehn Jahren um das 1.000 -fache gestiegen sind, was eine Geschwindigkeit des Fortschritts ist, das das Gesetz von Moores weit übersteigt, und er glaubt, dass dieser Trend nicht bald aufhören wird. Diese kontinuierliche technologische Innovation wird der KI -Industrie mehr Durchbrüche und Möglichkeiten bringen.
Wichtige Punkte: Huang Renxun, CEO von NVIDIA, sagte, dass die AI -Chip -Leistungsverbesserung des Unternehmens das Mooresche Gesetz überschritten habe. Die neuesten GB200NVL72 -Chips sind 30- bis 40 -mal schneller bei AI -Inferenz -Workloads als frühere Generationen. Huang Renxun sagt voraus, dass die Kosten für die Verwendung von AI -Modellen mit der Verbesserung der Rechenleistung allmählich abnehmen. Diese Fortschritte zeigen nicht nur die technologische Stärke von Nvidia, sondern weist auch die Richtung für die zukünftige Entwicklung der AI -Technologie auf.