Googleは、The Tokyo Gemma Developer DayでGemma AIモデルの新しいバージョンをリリースしましたが、そのパラメーターはわずか20億ですが、GPT-3.5に匹敵し、モバイルデバイスで簡単に実行できます。これは間違いなく、人工知能の分野での大きなブレークスルーです。それは、小さなモデルが多言語トレーニングで遭遇する傾向がある「壊滅的な忘却」問題を解決するだけでなく、Googleがオープンモデルの重み、トレーニング資料、および例を積極的に使用しています。開発者の参加を促進し、最大150,000ドルの競争ボーナスを設定し、開発者がGemmaモデルをよりローカルな言語に適応させ、グローバルなコミュニケーションを促進することを奨励しています。
最近東京で開催されたジェマ開発者の日に、GoogleはGemma AIモデルの新しい日本語版を正式に発売しました。このモデルのパフォーマンスはGPT-3.5のパフォーマンスに匹敵しますが、そのパラメーターはわずか20億であり、非常に小さく、モバイルデバイスでの実行に適しています。

今回リリースされたGemmaモデルは、日本の処理でうまく機能し、英語でも能力を維持します。これは、新しい言語を微調整する場合、新しく学んだ知識が以前に学んだ情報をカバーする「壊滅的な忘却」の問題に直面する可能性があるため、小さなモデルにとって特に重要です。しかし、Gemmaはこの問題をうまく克服し、強力な言語処理能力を示しています。
Googleは、KaggleやHugging Faceなどのプラットフォームを介して、開発者がより速く開始できるようにするプラットフォームを介して、モデルのウェイト、トレーニング資料、およびモデルの例をすぐにリリースしたことに言及する価値があります。これは、開発者がこのモデルをローカルコンピューティングに簡単に使用できることを意味します。特にエッジコンピューティングアプリケーションでは、より多くの可能性がもたらされます。
より多くの国際的な開発者を奨励するために、Googleは最大150,000ドルの賞金で「Global CommunicationsとGemmaのロック解除」と呼ばれる競争を開始しました。このプログラムは、開発者がジェマモデルをローカル言語に適応させるのに役立つように設計されています。現在、アラビア語、ベトナム語、ズールーにはプロジェクトがあります。インドでは、開発者は「Navarasa」プロジェクトに取り組んでいます。「Navarasa」プロジェクトは、12のインド言語をサポートするためにモデルを最適化することを計画していますが、別のチームは微調整を通じて韓国方言のサポートに取り組んでいます。
GEMMA2シリーズモデルの発売は、パラメーターが少ないとより高いパフォーマンスを達成することを目的としています。 Metaなどの他の企業の同様のモデルと比較して、Gemma2は同様にうまく機能します。開ける
Gemma-2-2Bモデルおよびその他のGemmaモデルは、Face、Google AI Studios、Google Colabの無料プログラムを抱きしめることで取得できます。また、Vertex AIモデルガーデンにもあります。
公式ウェブサイトの入り口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
抱きしめる顔:https://huggingface.co/google
Google Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
キーポイント:
Googleは、モバイルデバイスに適したGPT-35とわずか2億パラメーターに匹敵するパフォーマンスを備えた新しい日本のGemma AIモデルを起動します。
Googleは、150,000ドルの賞金で「Global CommunicationsとGemmaのロック解除とGemma」競争を開始し、ローカル言語バージョンの開発を奨励しました。
GEMMA2シリーズモデルは、少数のパラメーターで高性能を実現し、より大きなモデルを上回り、開発者のアプリケーションの可能性を高めることさえできます。
要するに、Gemma AIモデルのリリースとGoogleのアクティブでオープンな戦略は、人工知能技術の開発と応用を大いに促進し、特にモバイルコンピューティングアプリケーションの新しい可能性を提供します広範なアプリケーションと革新がもたらしました。