Ha habido muchas buenas noticias en el campo de la IA esta semana. Google y Meta han lanzado actualizaciones importantes respectivamente. El rendimiento del modelo Google Gemini ha mejorado enormemente y el costo se ha reducido. Meta Llama 3.2 ha agregado funciones visuales. llamativo. Al mismo tiempo, el proyecto AlphaChip de Google DeepMind también ha logrado grandes avances, ha acelerado la eficiencia del diseño de chips y ha abierto modelos relacionados de código abierto, lo que ha inyectado un fuerte impulso al desarrollo de la industria. El editor de Downcodes explicará en detalle estos interesantes desarrollos de IA.
La industria de la IA ha estado muy ocupada la semana pasada. Tanto Google como Meta están lanzando nuevas versiones de modelos de IA, lo que ha atraído mucha atención. Primero, Google anunció el martes una nueva actualización de su serie Gemini, lanzando dos nuevos modelos listos para producción: Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002.

Esta actualización ha mejorado enormemente la calidad general del modelo, especialmente en matemáticas, procesamiento de contexto largo y tareas de visión. Google afirma que en la prueba comparativa MMLU-Pro, el rendimiento mejoró un 7% y el rendimiento en tareas relacionadas con matemáticas mejoró un 20%. Si le interesa la IA, debe saber que los puntos de referencia tienen una importancia limitada, pero estos datos siguen siendo muy interesantes.
Además de la mejora del rendimiento del modelo, Google también ha reducido significativamente el coste de uso de Gemini1.5Pro, y las tarifas de los tokens de entrada y salida cayeron un 64% y un 52% respectivamente. Este movimiento hace que sea más rentable para los desarrolladores utilizar Gemini.
Además, después de la actualización, también se mejoró la velocidad de procesamiento de solicitudes de Gemini-1.5Flash y Pro. El primero puede admitir 2000 solicitudes por minuto y el segundo puede admitir 1000 solicitudes por minuto. Sin duda, estas mejoras ayudarán a los desarrolladores a crear aplicaciones más fácilmente.

El miércoles, Meta no estuvo inactiva y lanzó Llama3.2, una actualización importante de su modelo de IA de peso abierto. Esta actualización incluye modelos de lenguaje grandes con capacidades visuales, cuyo tamaño de parámetros varía de 1,1 mil millones a 9 mil millones, y también lanza modelos de texto livianos con 100 millones y 300 millones de parámetros diseñados para dispositivos móviles.
Meta afirma que estos modelos visuales son comparables a los modelos de código cerrado líderes en el mercado en reconocimiento de imágenes y comprensión visual. Además, algunos investigadores de IA han probado nuevos modelos y los resultados muestran que estos pequeños modelos funcionan bien en muchas tareas de texto.

A continuación, el jueves, Google DeepMind anunció oficialmente un importante proyecto: AlphaChip. El proyecto se basa en una investigación de 2020 y tiene como objetivo diseñar diseños de chips mediante el aprendizaje por refuerzo. Google dice que AlphaChip ha logrado velocidades de "diseño de chips sobrehumanos" al generar diseños de chips de alta calidad en sus últimas tres generaciones de unidades de procesamiento de tensores (TPU). reducirse de semanas o incluso meses en humanos a horas.
Lo que es más digno de mención es que Google también ha compartido el modelo previamente entrenado de AlphaChip con el público en GitHub para que otras empresas de diseño de chips también puedan utilizar esta tecnología, e incluso empresas como MediaTek han comenzado a adoptarla.
Destacar:
** Google lanza una nueva versión del modelo Gemini, mejorando el rendimiento general y reduciendo significativamente el precio. **
**Meta lanza Llama3.2, un modelo de lenguaje pequeño que admite funciones visuales y funciona bien. **
** AlphaChip de Google acelera el diseño de chips, mejora significativamente la eficiencia del diseño y comparte tecnología. **
En definitiva, las innovaciones de esta semana en el campo de la IA son apasionantes. Estos avances tecnológicos promoverán la aplicación de la inteligencia artificial en más campos y merecen una atención continua. El editor de Downcodes seguirá brindándole más información sobre tecnología de punta.