谷歌在東京Gemma開發者日上發布了新的日語版本Gemma AI模型,其參數量僅為20億,卻擁有與GPT-3.5媲美的性能,並能輕鬆運行於移動設備。這無疑是人工智能領域的一大突破,它不僅解決了小型模型在多語言訓練中容易遇到的“災難性遺忘”問題,更重要的是,谷歌通過開放模型權重、訓練材料和示例,積極推動開發者參與,並設立了高達15萬美元的比賽獎金,鼓勵開發者將Gemma模型適配到更多本地語言,促進全球溝通。
最近在東京舉辦的Gemma 開發者日上,谷歌正式推出了新的日語版本Gemma AI 模型。這款模型的表現可以與GPT-3.5媲美,但它的參數量只有僅僅20億,非常小巧,適合在移動設備上運行。

這次發布的Gemma 模型,在日語處理上表現出色,同時也保持了其在英語上的能力。對於小型模型來說,這一點特別重要,因為在進行新語言的微調時,它們可能會面臨“災難性遺忘” 的問題,即新學到的知識會覆蓋之前學到的信息。但是Gemma 成功克服了這個難題,展現了強大的語言處理能力。
更值得一提的是,谷歌還通過Kaggle 和Hugging Face 等平台,立即發布了模型的權重、訓練材料和示例,幫助開發者更快入門。這意味著,開發者們可以輕鬆使用這個模型來進行本地計算,尤其是在邊緣計算應用中,將會帶來更多的可能性。
為了鼓勵更多的國際開發者,谷歌還推出了一項名為“解鎖全球溝通與Gemma” 的比賽,獎金高達15萬美元。這個計劃旨在幫助開發者將Gemma 模型適配到本地語言。目前,已經有阿拉伯語、越南語和祖魯語的項目在進行中。在印度,開發者們正在進行“Navarasa” 項目,計劃將模型優化為支持12種印度語言,而另一個團隊則在研究通過微調支持韓語方言。
Gemma2系列模型的推出,旨在用更少的參數實現更高的性能。與Meta 等其他公司的類似模型相比,Gemma2的表現同樣優秀,甚至在某些情況下,2億參數的Gemma2還能夠超越一些擁有700億參數的模型,比如LLaMA-2。開
發者和研究人員可以通過Hugging Face、谷歌AI 工作室和谷歌Colab 的免費計劃獲取Gemma-2-2B 模型及其他Gemma 模型,此外,還可以在Vertex AI 模型花園中找到它們。
官網入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face:https://huggingface.co/google
谷歌Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
劃重點:
谷歌推出新日語Gemma AI 模型,性能媲美GPT-3.5,參數僅2億,適合移動設備運行。
谷歌發起“解鎖全球溝通與Gemma” 比賽,獎金15萬美元,鼓勵開發本地語言版本。
Gemma2系列模型以少量參數實現高性能,甚至能超越更大模型,提升開發者的應用潛力。
總之,Gemma AI 模型的發布以及谷歌積極開放的策略,將極大地推動人工智能技術的發展和應用,特別是為移動端和邊緣計算應用提供了新的可能性,值得期待其未來在全球範圍內的廣泛應用以及帶來的創新。