Na recente exposição da CES, Jensen Huang, CEO da NVIDIA, anunciou que a velocidade de melhoria de desempenho da AI da empresa excedeu os padrões históricos da lei de Moore. Esta afirmação atraiu atenção generalizada, especialmente no contexto da estagnação da comunidade de IA pela comunidade tecnológica.
A lei de Moore foi proposta pelo co-fundador da Intel, Gordon Moore, em 1965, prevendo que o número de transistores nos chips de computador dobrará aproximadamente a cada ano, dobrou o desempenho do chip de acordo. No entanto, nos últimos anos, a lei de Moore diminuiu significativamente, tornando ainda mais atraentes a inovação da Nvidia.

Huang Renxun apontou que os mais recentes super chips do Data Center da NVIDIA são mais de 30 vezes mais rápidos que a geração anterior ao executar cargas de trabalho de inferência de IA. "Podemos construir arquiteturas, chips, sistemas, bibliotecas e algoritmos ao mesmo tempo, e se pudermos fazer isso, podemos ir além da lei de Moore, porque podemos inovar em toda a pilha de tecnologia". Posição no campo dos chips AI.
Atualmente, os principais laboratórios de IA, como Google, OpenAI e Anthropic, estão usando os chips de AI da NVIDIA para treinar e administrar modelos de IA. Portanto, o avanço desses chips afetará diretamente as capacidades dos modelos de IA e, assim, promoverá o desenvolvimento de toda a indústria da IA.
Huang Renxun também mencionou que agora existem três regras de expansão de IA ativas: cálculo pré-treinamento, pós-treinamento e tempo de teste. Ele enfatizou que a lei de Moore é tão importante na história da computação, porque gera a redução dos custos computacionais, e as melhorias de desempenho no processo de inferência também levarão à redução dos custos de inferência. Essa visão fornece viabilidade econômica para a aplicação generalizada dos modelos de IA.
Embora algumas pessoas tenham expressado preocupações sobre se os chips caros da Nvidia podem continuar a liderar no campo do raciocínio, Huang Renxun disse que o mais recente chip GB200NVL72 é 30 a 40 vezes mais rápido que o chip H100 em cargas de trabalho de inferência, o que tornará a inferência da IA Modele mais econômico e acessível. Essa melhoria de desempenho não apenas aprimora a competitividade do mercado da Nvidia, mas também oferece mais possibilidades para a popularização da tecnologia de IA.
Huang Renxun enfatizou que melhorar o poder de computação é uma maneira direta e eficaz de resolver os problemas de desempenho computacional e acessibilidade de custo no raciocínio. Ele espera que, com o avanço contínuo da tecnologia de computação, o custo dos modelos de IA continue diminuindo, embora alguns modelos em empresas como o OpenAI estejam atualmente em um custo mais alto. Essa previsão mostra uma imagem otimista para o desenvolvimento futuro da tecnologia de IA.
Huang Renxun disse que os chips de AI de hoje aumentaram 1.000 vezes em comparação com dez anos atrás, o que é uma velocidade de progresso que excede em muito a lei de Moore, e ele acredita que essa tendência não parará em breve. Essa inovação tecnológica contínua trará mais avanços e oportunidades para a indústria de IA.
Pontos -chave: O CEO da NVIDIA, Huang Renxun, disse que a melhoria do desempenho da AI Chip da empresa superou a lei de Moore. Os mais recentes chips GB200NVL72 são 30 a 40 vezes mais rápidos nas cargas de trabalho de inferência da IA do que as gerações anteriores. Huang Renxun prevê que, com a melhoria do poder de computação, o custo do uso de modelos de IA diminuirá gradualmente. Esse progresso não apenas demonstra a força tecnológica da Nvidia, mas também aponta a direção para o desenvolvimento futuro da tecnologia de IA.