Google lanzó una nueva versión japonesa del modelo Gemma AI en el Día del Desarrollador de Tokio Gemma. Sin duda, este es un gran avance en el campo de la inteligencia artificial. Promover la participación del desarrollador y establecer un bono de competencia de hasta $ 150,000, alentando a los desarrolladores a adaptar los modelos de Gemma a más idiomas locales y promover la comunicación global.
En el Día del Desarrollador de Gemma celebrado recientemente en Tokio, Google lanzó oficialmente una nueva versión japonesa del modelo Gemma AI. El rendimiento de este modelo es comparable al de GPT-3.5, pero sus parámetros son de solo 2 mil millones, que es muy pequeño y adecuado para ejecutarse en dispositivos móviles.

El modelo Gemma lanzado esta vez funciona bien en el procesamiento japonés, al tiempo que mantiene su capacidad en inglés. Esto es especialmente importante para los modelos pequeños, porque al ajustar nuevos idiomas, pueden enfrentar el problema de "olvidar catastróficos" de que el conocimiento recién aprendido cubre la información que han aprendido antes. Pero Gemma supera con éxito este problema y demuestra fuertes capacidades de procesamiento del lenguaje.
Vale la pena mencionar más que Google también lanzó inmediatamente los pesos, los materiales de entrenamiento y los ejemplos del modelo a través de plataformas como Kaggle y abrazando la cara para ayudar a los desarrolladores a comenzar más rápido. Esto significa que los desarrolladores pueden usar fácilmente este modelo para la informática local, especialmente en las aplicaciones de informática de borde, lo que traerá más posibilidades.
Para alentar a más desarrolladores internacionales, Google también lanzó una competencia llamada "Desbloquee las comunicaciones globales y Gemma", con un premio de hasta $ 150,000. Este programa está diseñado para ayudar a los desarrolladores a adaptar los modelos Gemma a los idiomas locales. Actualmente, hay proyectos en árabe, vietnamita y zulú. En India, los desarrolladores están trabajando en el proyecto "Navarasa", que planea optimizar el modelo para admitir 12 idiomas indios, mientras que otro equipo está trabajando para apoyar los dialectos coreanos a través del ajuste.
El lanzamiento del modelo de la serie Gemma2 tiene como objetivo lograr un mayor rendimiento con menos parámetros. En comparación con modelos similares de otras compañías como Meta, Gemma2 funciona igualmente bien. abierto
El modelo GEMMA-2-2B y otros modelos de Gemma se pueden obtener a través de Hugging Face, Google AI Studios y los programas gratuitos de Google Colab, y también se pueden encontrar en el Vertex AI Model Garden.
Entrada oficial del sitio web: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Cara abrazada: https: //huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Puntos clave:
Google lanza un nuevo modelo japonés de IA Gemma con rendimiento comparable a GPT-35 y solo 200 millones de parámetros, adecuados para dispositivos móviles.
Google lanzó la competencia "Desbloquear comunicaciones globales y Gemma" con un premio de $ 150,000, y alentó el desarrollo de versiones de idiomas locales.
Los modelos de la serie GEMMA2 logran un alto rendimiento con un pequeño número de parámetros, e incluso pueden superar modelos más grandes y mejorar el potencial de aplicación de los desarrolladores.
En resumen, el lanzamiento del modelo Gemma AI y la estrategia activa y abierta de Google promoverán en gran medida el desarrollo y la aplicación de la tecnología de inteligencia artificial, especialmente proporcionando nuevas posibilidades para las aplicaciones de computación móviles y de borde, y vale la pena esperar su futuro a nivel mundial. Aplicación generalizada e innovación provocadas.