Houve muitas boas notícias no campo da IA esta semana, o Google e o Meta lançaram atualizações importantes, respectivamente. O desempenho do modelo Google Gemini foi bastante melhorado e o custo foi reduzido. atraente. Ao mesmo tempo, o projeto AlphaChip do Google DeepMind também fez progressos inovadores, acelerou a eficiência do design de chips e modelos relacionados de código aberto, injetando um forte impulso no desenvolvimento da indústria. O editor de Downcodes explicará em detalhes esses emocionantes desenvolvimentos de IA.
A indústria de IA esteve muito ocupada na semana passada. Tanto o Google quanto o Meta estão lançando novas versões de modelos de IA, atraindo muita atenção. Primeiro, o Google anunciou uma nova atualização para sua série Gemini na terça-feira, lançando dois novos modelos prontos para produção – Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002.

Esta atualização melhorou muito a qualidade geral do modelo, especialmente em matemática, processamento de contexto longo e tarefas de visão. O Google afirma que no teste de benchmark MMLU-Pro, o desempenho melhorou 7% e o desempenho em tarefas relacionadas à matemática melhorou 20%. Se você se preocupa com IA, deve saber que os benchmarks são de importância limitada, mas esses dados ainda são muito interessantes.
Além da melhoria de desempenho do modelo, o Google também reduziu significativamente o custo de uso do Gemini1.5Pro, com taxas de token de entrada e saída caindo 64% e 52%, respectivamente. Essa mudança torna mais econômico para os desenvolvedores usar o Gemini.
Além disso, após a atualização, a velocidade de processamento de solicitações do Gemini-1.5Flash e Pro também foi melhorada. O primeiro pode suportar 2.000 solicitações por minuto e o último pode suportar 1.000 solicitações por minuto. Essas melhorias, sem dúvida, ajudarão os desenvolvedores a criar aplicativos com mais facilidade.

Na quarta-feira, a Meta não ficou parada, lançando o Llama3.2, uma grande atualização para seu modelo de IA de peso aberto. Esta atualização inclui grandes modelos de linguagem com recursos visuais, variando em tamanho de parâmetro de 1,1 bilhão a 9 bilhões, e também lança modelos de texto leves com 100 milhões e 300 milhões de parâmetros projetados para dispositivos móveis.
A Meta afirma que esses modelos visuais são comparáveis aos modelos de código fechado líderes de mercado em reconhecimento de imagem e compreensão visual. Além disso, alguns investigadores de IA testaram novos modelos e os resultados mostram que estes pequenos modelos têm um bom desempenho em muitas tarefas de texto.

Em seguida, na quinta-feira, o Google DeepMind anunciou oficialmente um grande projeto – AlphaChip. O projeto é baseado em pesquisas de 2020 e visa projetar layouts de chips por meio de aprendizado por reforço. O Google afirma que o AlphaChip alcançou velocidades de "layout de chips sobre-humanos" na geração de layouts de chips de alta qualidade em suas últimas três gerações de unidades de processamento de tensores (TPUs). ser reduzido de semanas ou mesmo meses em humanos para horas.
O que vale mais a pena mencionar é que o Google também compartilhou o modelo pré-treinado do AlphaChip com o público no GitHub para que outras empresas de design de chips também possam usar essa tecnologia, e até mesmo empresas como a MediaTek começaram a adotá-la.
Destaque:
** Google lança uma nova versão do modelo Gemini, melhorando o desempenho geral e reduzindo significativamente o preço. **
**Meta lança Llama3.2, um modelo de linguagem pequeno que suporta funções visuais e tem bom desempenho. **
** O AlphaChip do Google acelera o design de chips, melhora significativamente a eficiência do design e compartilha tecnologia. **
Em suma, as inovações desta semana no domínio da IA são entusiasmantes. Estes avanços tecnológicos promoverão a aplicação da inteligência artificial em mais campos e merecem atenção contínua. O editor de Downcodes continuará trazendo mais informações sobre tecnologia de ponta.