Google lanza una nueva versión mejorada de la serie de modelos Gemini 1.5, ¡Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002 hacen un debut impactante! El editor de Downcodes se enteró de que esta actualización no sólo trae una mejora significativa en el rendimiento, sino también una reducción significativa de precio, lo que puede describirse como una gran buena noticia en el campo del desarrollo de la IA. La mejora del rendimiento es asombrosa y el costo se reduce a más de la mitad, lo que sin duda resulta muy atractivo para desarrolladores y usuarios empresariales. Echemos un vistazo a las interesantes mejoras que aporta esta actualización.
Google anunció hoy el lanzamiento de una nueva serie de modelos Gemini actualizados, que incluyen Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002. Esta actualización no solo mejora enormemente el rendimiento, sino que también trae sorprendentes descuentos en los precios, lo que sin duda provocará un auge en el círculo de desarrollo de la IA.
En primer lugar, lo más llamativo es la importante rebaja de precio. El coste de uso de la nueva versión del modelo se ha reducido a la mitad, en más del 50%. Al mismo tiempo, el rendimiento ha mejorado significativamente. La velocidad de procesamiento de Gemini1.5Flash se duplica, mientras que la de Gemini1.5Pro casi se triplica. Esto significa que los desarrolladores pueden obtener resultados más rápidos y una latencia más corta a un costo menor, lo que mejora en gran medida la eficiencia del desarrollo.

En términos de rendimiento, el nuevo modelo Gemini muestra importantes mejoras. Especialmente en matemáticas, procesamiento de textos largos y tareas visuales, el progreso es particularmente evidente. Por ejemplo, los modelos ahora pueden procesar fácilmente documentos PDF de más de 1000 páginas, responder preguntas que contienen decenas de miles de líneas de código e incluso extraer información útil de un vídeo de una hora. En la exigente prueba de referencia MMLU-Pro, el nuevo modelo logra una mejora de rendimiento de aproximadamente el 7%. Aún más impresionante es que en los puntos de referencia MATH y HiddenMath, la mejora llega al 20%.

Google también ha optimizado la calidad de respuesta del modelo. La nueva versión proporciona respuestas más útiles y concisas y, al mismo tiempo, mantiene el contenido seguro. En tareas como resúmenes, preguntas y respuestas y extracción de información, la duración de la salida se reduce entre un 5% y un 20% en comparación con antes, lo que no solo mejora la eficiencia sino que también reduce aún más los costos de uso.
Para los usuarios empresariales, las capacidades de procesamiento de textos largos (hasta 2 millones de palabras) y las capacidades multimodales de Gemini1.5Pro abren nuevos escenarios de aplicaciones. A partir del 1 de octubre de 2024, los precios de los tokens de entrada, los tokens de salida y los tokens de caché incrementales se reducirán en un 64%, 52% y 64% respectivamente, lo que sin duda reducirá en gran medida el costo del uso de la IA para las empresas.

Google también ha realizado ajustes importantes en lo que respecta a las restricciones de uso. El límite de tasa de servicio pago de Gemini1.5Flash aumenta a 2000 solicitudes por minuto y 1.5Pro aumenta a 1000 solicitudes, lo que proporciona a los desarrolladores una mayor flexibilidad.
La seguridad siempre ha sido un área de enfoque clave para Google. La nueva versión del modelo mejora aún más la seguridad siguiendo las instrucciones del usuario. Google también ha modificado la configuración predeterminada de los filtros para dar a los desarrolladores más autonomía.
Además, Google también lanzó una versión mejorada del modelo experimental Gemini1.5Flash-8B, que funciona bien en escenarios de aplicaciones multimodales y de texto. Esta versión se lanzó en Google AI Studio y Gemini API, lo que brinda a los desarrolladores más opciones.
Los usuarios de Gemini Advanced pronto podrán experimentar la versión Gemini1.5Pro-002 optimizada para chat.
Referencia: https://developers.googleblog.com/en/updated-production-ready-gemini-models-reduced-15-pro-pricing-increased-rate-limits-and-more/
En general, la actualización de la serie de modelos Gemini 1.5 ha brindado enormes beneficios a los desarrolladores y empresas de IA. Los costos más bajos, las velocidades más rápidas, el rendimiento más potente y la experiencia de uso más conveniente indican el futuro de las aplicaciones de IA. ¡El editor de Downcodes espera ver las maravillosas aplicaciones de la serie Gemini 1.5 en varios campos!