privy
v0.2.8
ローカルで動作するGithub Copilotに代わるオープンソース。
まだ行っていない場合は、次のプラットフォームのいずれかを選択して、システムでLLMをローカルで実行してください。
コードの完了とチャット機能のためにLLMを個別に構成する必要があることに注意してください。私たちが推奨する人気のあるLLMのいくつかは次のとおりです。ハードウェア機能に基づいて、モデルのサイズ(1.3b、7b、13b、または34b)を選択してください。
| コードの完了 | チャット | リンク |
|---|---|---|
| deepseek-coder:{1.3bまたは6.7bまたは33b} -base | deepseek-coder:{1.3bまたは6.7bまたは33b} - instruct | オラマタグ、家 |
| Codellama:{7bまたは13bまたは34b} -code | Codellama:{7bまたは13bまたは34b} - instruct | オラマタグ、家 |
| ミストラル:{7b} - インストラクション | オラマタグ、家 |
また、Benchllamaを使用してローカルLLMを評価することにより、モデルを選択することもできます。
Visual Studio Code MarketplaceまたはOpen VSXレジストリからPrivy拡張機能をインストールできます。
Privy Extensionの設定に次のオプションを設定してください。
required ):LLMをローカルで実行するために使用されているプラットフォームを選択します。 OpenAIの使用にはサポートがありますが、これはソリューションのプライバシーの側面に影響します。デフォルトはOllamaです。required ):LLMをローカルで実行するために使用されているプラットフォームのURL。デフォルトはhttp://localhost:11434です。customを選択して、それに応じてprivy.customModelを構成してください。| ショートカット(Mac) | 説明 |
|---|---|
Alt + (Windows/Linux用)またはCmd + (Mac用) | インラインコードの完了をトリガーします |
Ctrl + Alt + c (Windows/Linux用)またはCtrl + Cmd + c (MAC用) | チャットを開始します |
これらの概念を理解することは、あなたが秘密を最大限に活用するのに役立ちます。
ラースグラメル ? ? ? | Iain Majer ? | ニコラス・カルロ ? | ratogbm ? |
ライオネル・オクペイチャ ? | マーカーク ? | lundeen.bryan ? | ducog ? |
SBSTN87 ? | マヌエル ? | Alessandro-Newzoo ? | void&null ? |
ウィッティジンソ ? | エヴァ ? | Alexeylavrentev ? | linshu123 |
マイケル・アダムス ? | Restlessronin |
私たちの貢献ガイドを読んで、開発プロセス、バグフィックスと改善を提案する方法、および変更を構築およびテストする方法について学びます。
足を濡らし、貢献プロセスに慣れるのを助けるために、比較的限られた範囲のものを含む良い最初の問題のリストがあります。これは始めるのに最適な場所です!