谷歌在东京Gemma开发者日上发布了新的日语版本Gemma AI模型,其参数量仅为20亿,却拥有与GPT-3.5媲美的性能,并能轻松运行于移动设备。这无疑是人工智能领域的一大突破,它不仅解决了小型模型在多语言训练中容易遇到的“灾难性遗忘”问题,更重要的是,谷歌通过开放模型权重、训练材料和示例,积极推动开发者参与,并设立了高达15万美元的比赛奖金,鼓励开发者将Gemma模型适配到更多本地语言,促进全球沟通。
At the Gemma Developer Day recently held in Tokyo, Google officially launched a new Japanese version of the Gemma AI model. The performance of this model is comparable to that of GPT-3.5, but its parameters are only 2 billion, which is very small and suitable for running on mobile devices.

这次发布的Gemma 模型,在日语处理上表现出色,同时也保持了其在英语上的能力。对于小型模型来说,这一点特别重要,因为在进行新语言的微调时,它们可能会面临“灾难性遗忘” 的问题,即新学到的知识会覆盖之前学到的信息。但是Gemma 成功克服了这个难题,展现了强大的语言处理能力。
更值得一提的是,谷歌还通过Kaggle 和Hugging Face 等平台,立即发布了模型的权重、训练材料和示例,帮助开发者更快入门。这意味着,开发者们可以轻松使用这个模型来进行本地计算,尤其是在边缘计算应用中,将会带来更多的可能性。
为了鼓励更多的国际开发者,谷歌还推出了一项名为“解锁全球沟通与Gemma” 的比赛,奖金高达15万美元。这个计划旨在帮助开发者将Gemma 模型适配到本地语言。目前,已经有阿拉伯语、越南语和祖鲁语的项目在进行中。在印度,开发者们正在进行“Navarasa” 项目,计划将模型优化为支持12种印度语言,而另一个团队则在研究通过微调支持韩语方言。
Gemma2系列模型的推出,旨在用更少的参数实现更高的性能。与Meta 等其他公司的类似模型相比,Gemma2的表现同样优秀,甚至在某些情况下,2亿参数的Gemma2还能够超越一些拥有700亿参数的模型,比如LLaMA-2。 open
发者和研究人员可以通过Hugging Face、谷歌AI 工作室和谷歌Colab 的免费计划获取Gemma-2-2B 模型及其他Gemma 模型,此外,还可以在Vertex AI 模型花园中找到它们。
官网入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face:https://huggingface.co/google
谷歌Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
Key points:
谷歌推出新日语Gemma AI 模型,性能媲美GPT-3.5,参数仅2亿,适合移动设备运行。
谷歌发起“解锁全球沟通与Gemma” 比赛,奖金15万美元,鼓励开发本地语言版本。
Gemma2系列模型以少量参数实现高性能,甚至能超越更大模型,提升开发者的应用潜力。
总之,Gemma AI 模型的发布以及谷歌积极开放的策略,将极大地推动人工智能技术的发展和应用,特别是为移动端和边缘计算应用提供了新的可能性,值得期待其未来在全球范围内的广泛应用以及带来的创新。