En la reciente exposición del CES, el CEO de NVIDIA, Jensen Huang, anunció que la velocidad de mejora del rendimiento del chip de IA de la compañía ha excedido los estándares históricos de la ley de Moore. Esta declaración ha atraído una atención generalizada, especialmente en el contexto del estancamiento de la comunidad tecnológica del progreso de la IA.
La ley de Moore fue propuesta por el cofundador de Intel, Gordon Moore, en 1965, prediciendo que el número de transistores en chips de computadora se duplicará aproximadamente cada año, duplicó así el rendimiento del chip en consecuencia. Sin embargo, en los últimos años, la ley de Moore se ha ralentizado significativamente, lo que hace que el avance de Nvidia sea aún más convincente.

Huang Renxun señaló que los últimos chips del centro de datos de NVIDIA son más de 30 veces más rápido que la generación anterior al ejecutar cargas de trabajo de inferencia de IA. "Podemos construir arquitecturas, chips, sistemas, bibliotecas y algoritmos al mismo tiempo, y si podemos hacer eso, podemos ir más allá de la ley de Moore porque podemos innovar a lo largo de la pila de tecnología". posición en el campo de las chips AI.
Actualmente, los principales laboratorios de IA como Google, OpenAi y Anthrope están utilizando los chips AI de Nvidia para entrenar y ejecutar modelos AI. Por lo tanto, el avance de estos chips afectará directamente las capacidades de los modelos de IA y, por lo tanto, promoverá el desarrollo de toda la industria de la IA.
Huang Renxun también mencionó que ahora hay tres reglas activas de expansión de IA: previa al entrenamiento, post-entrenamiento y cálculo de tiempo de prueba. Hizo hincapié en que la ley de Moore es tan importante en el historial de computación porque impulsa la reducción de los costos computacionales, y las mejoras de rendimiento en el proceso de inferencia también conducirán a la reducción de los costos de inferencia. Esta opinión proporciona una viabilidad económica para la aplicación generalizada de los modelos de IA.
Aunque algunas personas expresaron su preocupación sobre si los chips caros de Nvidia pueden continuar liderando en el campo del razonamiento, Huang Renxun dijo que el último chip GB200NVL72 es de 30 a 40 veces más rápido que el chip H100 en cargas de trabajo de inferencia, lo que hará la inferencia AI que hará la inferencia AI. modelo más económico y asequible. Esta mejora del rendimiento no solo mejora la competitividad del mercado de NVIDIA, sino que también proporciona más posibilidades para la popularización de la tecnología de IA.
Huang Renxun enfatizó que mejorar la potencia informática es una forma directa y efectiva de resolver los problemas del rendimiento computacional y la asequibilidad de los costos en el razonamiento. Espera que con el avance continuo de la tecnología informática, el costo de los modelos de IA continúe disminuyendo, aunque algunos modelos en compañías como OpenAI actualmente están funcionando a un costo más alto. Esta predicción pinta una imagen optimista para el desarrollo futuro de la tecnología de IA.
Huang Renxun dijo que los chips de IA de hoy han aumentado en 1,000 veces en comparación con hace diez años, lo cual es una velocidad de progreso que supera con creces la ley de Moore, y cree que esta tendencia no se detendrá pronto. Esta innovación tecnológica continua traerá más avances y oportunidades a la industria de la IA.
Puntos clave: el CEO de NVIDIA, Huang Renxun, dijo que la mejora del rendimiento de Chip de AI de la compañía ha superado la ley de Moore. Los últimos chips GB200NVL72 son de 30 a 40 veces más rápidos en las cargas de trabajo de inferencia de IA que las generaciones anteriores. Huang Renxun predice que con la mejora de la potencia informática, el costo de usar modelos de IA disminuirá gradualmente. Este progreso no solo demuestra la fuerza tecnológica de Nvidia, sino que también señala la dirección del desarrollo futuro de la tecnología de IA.