privy
v0.2.8
로컬에서 실행되는 Github Copilot에 대한 오픈 소스 대안.
아직 완료하지 않은 경우 다음 플랫폼 중 하나를 선택하여 시스템에서 LLM을 현지에서 실행하십시오.
코드 완료 및 채팅 기능을 위해 LLM을 별도로 구성해야합니다. 우리가 추천하는 인기있는 LLM 중 일부는 다음과 같습니다. 하드웨어 기능을 기반으로 모델의 크기 (예 : 1.3b, 7b, 13b 또는 34b)를 선택하십시오.
| 코드 완료 | 채팅 | 모래밭 |
|---|---|---|
| DeepSeek 코더 : {1.3B 또는 6.7B 또는 33B}-베이스 | DeepSeek-Coder : {1.3B 또는 6.7B 또는 33B}-무인 | 올라마 태그, 집 |
| Codellama : {7B 또는 13B 또는 34B} 코드 | Codellama : {7b 또는 13b 또는 34b}-무인 | 올라마 태그, 집 |
| 미스트랄 : {7b}-비율 | 올라마 태그, 집 |
Benchllama를 사용하여 로컬 LLM을 평가하여 모델을 선택할 수도 있습니다.
Visual Studio Code Marketplace 또는 Open VSX 레지스트리에서 Privy Extension을 설치할 수 있습니다.
Privy Extension 설정 에서 다음 옵션을 설정하십시오.
required ) : LLMS를 로컬로 실행하는 데 사용되는 플랫폼을 선택하십시오. OpenAI 사용에 대한 지원이 있지만 솔루션의 개인 정보 측면에 영향을 미칩니다. 기본값은 Ollama 입니다.required ) : LLMS를 로컬로 실행하는 데 사용되는 플랫폼의 URL. 기본값은 http://localhost:11434 입니다.custom 선택하고 privy.customModel 구성하십시오.| 바로 가기 (Mac) | 설명 |
|---|---|
Alt + (Windows/Linux의 경우) 또는 Cmd + (Mac의 경우) | 인라인 코드 완료를 트리거합니다 |
Ctrl + Alt + c (Windows/Linux의 경우) 또는 Ctrl + Cmd + c (Mac) | 채팅을 시작하십시오 |
이러한 개념을 이해하면 Privy를 최대한 활용하는 데 도움이됩니다.
Lars Grammel ? ? ? | Iain Majer ? | 니콜라스 카를로 ? | RatogBM ? |
리오넬 오페이카 ? | 머서르크 ? | Lundeen.bryan ? | Ducog ? |
SBSTN87 ? | 마누엘 ? | Alessandro-Newzoo ? | void & null ? |
Wittydingo ? | 에바 ? | Alexeylavrentev ? | Linshu123 |
마이클 아담스 ? | 불안한 |
개발 프로세스에 대해 알아 보려면 기고 가이드를 읽으십시오, 버그 수정 및 개선 사항을 제안하는 방법 및 변경 사항을 구축하고 테스트하는 방법.
발을 젖게하고 기여 과정에 익숙해지기 위해, 우리는 비교적 제한된 범위를 가진 물건을 포함하는 좋은 첫 번째 문제 목록이 있습니다. 이것은 시작하기에 좋은 곳입니다!