Devaiスペースで物事がどれだけ速く動いているか、大規模な言語モデル(LLM)の助けを借りてソフトウェアを構築する開発者のコミュニティの速記であるため、どのモデルを使用するかを把握するのは難しい場合があります。
Conting Communityの一部としての経験に基づいて、このリポジトリを開始しました。改善を提案し、プルリクエストを開くことで最新の状態に保つのを手伝ってください!
LLMがたくさんあります。私たちは、今使用している人々を見ているものに焦点を当てることにしました:

これらのモデルのすべてとそれらに関する情報をここに含めるCSVを見つけることができます。
通常、最初の選択は、オープンソースまたは商用モデルを使用するかどうかです。
オープンソースLLMを使用することにした場合、次の決定は、ローカルマシンまたはホストされたモデルプロバイダーにモデルを設定するかどうかです。
ここでチームのオープンソースコードLLMを展開する方法に関するガイドを維持しています。
商用LLMを使用することにした場合、通常、APIキーを取得し、比較のために複数のキーを使用します。提案の品質と使用コストの両方が重要な基準になる可能性があります。
これは、2023年10月現在、開発者がコーディング中に使用しているオープンソースLLMのリストであり、最も一般的なものから最も一般的なものに大まかに注文されています。
Code Llamaは、コードを生成および議論するためにMetaによってトレーニングされたLLMです。 Llama 2の上に構築されています。BigCode Models LeaderboardのWizardCoderとPhind-Codellamaの下にありますが、両方の基本モデルです。また、7B、13B、34Bのさまざまなサイズがあり、ホストプロバイダーだけでなくローカルマシンでも使用することが人気になります。この時点で、これはコーディングの最もよく知られているオープンソースベースモデルであり、コーディング有能なLLMを作成するためのオープンソースの取り組みをリードしています。
Creator: Meta
Date released: August 24th, 2023
License: Llama 2 Community
Base model: Llama 2
Parameters: 7B, 13B, 34B
WizardCoderは、WizardLMチームによってコードラマの上に構築されたLLMです。 Evol-Instructメソッドは、コードラマを微調整するために使用されるトレーニングデータセットを作成するためのタスクのコーディングに適合しています。 Code Llama:7b、13b、および34bと同じサイズがあります。その結果、これはこれまでで最も人気のあるオープンソース命令チューニングLLMです。
Creator: WizardLM
Date released: August 26th, 2023
License: Llama 2 Community
Base model: Code Llama
Parameters: 7B, 13B, 34B
Phind-Codellamaは、Phindによってコードラマの上に構築されたLLMです。 〜80kの高品質のプログラミングの問題とソリューションの独自のデータセットを使用して、コードラマを微調整しました。その微調整されたモデルは、さらに1.5Bの追加トークンでさらに微調整されました。現在、Big Code Modelsのリーダーボードにリードしています。ただし、34Bパラメーターモデルとしてのみ利用可能であるため、使用するにはより多くの使用可能なメモリが必要です。
Creator: Phind
Date released: August 28th, 2023
License: Llama 2 Community
Base model: Code Llama
Parameters: 34B
Mistralは、Mistal AIによって訓練された7BパラメーターLLMです。これは、このリストで最近リリースされたモデルであり、9月末にドロップしました。 Mistal AIは、「英語のタスクに優れている間、コードのパフォーマンスに近づいている」と述べています。 1つの小さなサイズでのみ利用可能であるにもかかわらず、人々はリリース後の最初の数週間で非常に興奮しています。それをベースとして使用する最初の微調整されたLLMは、現在出現し始めており、今後さらに進んでいる可能性があります。
Creator: Mistral AI
Date released: September 27th, 2023
License: Apache 2.0
Base model: Mistral
Parameters: 7B
StarCoderは、BigCodeで訓練された15BパラメーターLLMであり、5月にリリースされた時期よりも先でした。オプトアウトリクエストを除外して、スタック(v1.2)から80以上のプログラミング言語でトレーニングされました。それは命令モデルではなく、「平方根を計算する関数を書く」などのコマンドはうまく機能しません。ただし、テクノロジーアシスタントプロンプトを使用することで、より役立つことができます。
Creator: BigCode
Date released: May 4th, 2023
License: OpenRAIL-M
Base model: StarCoder
Parameters: 15B
Deepseek Coderは、2兆トークンでDeepseek AIによって訓練されたLLMです。 80を超えるプログラミング言語で構成されるデータセットを使用すると、このリストの最新モデルであり、さまざまなコーディング関連のベンチマークで非常に高いスコアを獲得することが報告されています。
Creator: DeepSeek AI
Date released: November 3rd, 2023
License: DeepSeek License Agreement
Base model: DeepSeek Coder
Parameters: 1.3B, 6.7B, 33B
Llama 2は、2兆トークンでメタによって訓練されたLLMです。全体的に最も人気のあるオープンソースLLMであるため、コード編集を行う際に上記のモデルの多くではないにもかかわらず、一部の開発者はそれを使用しています。また、コーディングで最も人気のあるLLMであるCode Llamaがその上に構築されており、これがWizardCoderとPhind-Codellamaの基盤であるため、重要です。
Creator: Meta
Date released: July 18th, 2023
License: Llama 2 Community
Base model: Llama 2
Parameters: 7B, 13B, 70B
これは、2023年10月の時点で、開発者がコーディング中に使用している商用LLMのリストであり、最も一般的なものから最も一般的なものに大まかに注文されています。
OpenaiのGPT-4は、一般に、コーディング中に使用するのに最適なLLMであると考えられています。コードを生成して議論するときに非常に役立ちます。ただし、APIを介してOpenAIにコードを送信する必要があり、非常に高価になる可能性があります。それにもかかわらず、それは全体的にコーディングするための最も人気のあるLLMであり、開発者の大半はこの時点でコーディング中にそれを使用しています。 2023年7月6日までに1ドル以上の支払いを成功させたすべてのOpenAI APIユーザーには、GPT-4へのアクセスが与えられ、すぐにすべての開発者へのアクセスを開始する予定です。
OpenaiのGPT-4ターボは、GPT-4よりも安価で高速です。 2023年4月の知識カットオフがあり、128Kコンテキストウィンドウがあります。現在、2023年11月現在、プレビュー中ですが、OpenAI APIアカウントと既存のGPT-4アクセスを持っている人なら誰でも使用できます。
OpenaiのGPT-3.5 Turboは、GPT-4よりも安価で高速です。ただし、その提案はそれほど役に立ちません。また、APIを介してOpenAIにコードを送信する必要があります。これは、これまでで全体的にコーディングするための2番目に人気のあるLLMです。すべての開発者は、OpenAIアカウントにサインアップした後、今すぐ使用できます。
Claude 2は、人類によって訓練されたLLMであり、Claudeの最初のバージョンと比較してコーディングスキルを大幅に改善しました。多くのコンテキストを提供する場合、他のLLMと比較して特に優れています。 APIを介してコードを人類に送信する必要があります。この時点でClaude 2にアクセスするには、申請する必要があります。
Palm 2は、GoogleがトレーニングしたLLMです。試してみるには、MakerSuiteを介してAPIキーを取得した後、Palm APIを介してGoogleにコードを送信する必要があります。どちらも現在公開されています。
モデルが不足しているか、意見を共有したい場合は、PRまたは問題を開くことを歓迎します!コーディングに最も役立つ言語モデルのコミュニティ主導の最新のインデックスを維持したいと考えています。
このブログ投稿が気に入っていて、LLMSの助けを借りてソフトウェアを構築する人々のコミュニティであるDevaiの詳細を読みたい場合は、ここで毎月のニュースレターに参加してください。