Une alternative open source à GitHub Copilot qui s'exécute localement.
? Voir-le en action
Achèvement du code en temps réel
Discuter avec l'IA de votre code
Pré-requis
Si vous ne l'avez pas déjà fait, veuillez choisir l'une des plates-formes suivantes pour exécuter LLM de votre choix sur votre système localement .
Olllama (fortement recommandé)
llafile (expérimental)
llama.cpp (expérimental)
? Recommandations LLM
Veuillez noter que vous devez configurer séparément LLM pour l'achèvement du code et le chat. Certains des LLM populaires que nous recommandons sont les suivants. Veuillez choisir la taille (c'est-à-dire 1.3b, 7b, 13b ou 34b) du modèle en fonction de vos capacités matérielles.
Achèvement du code
Chat
Links
CODER DEEPSEEK: {1.3b ou 6.7b ou 33b} -Base
CODER DEEPSEEK: {1.3b ou 6.7b ou 33b} -instruct
Tags olllama, à la maison
Codellama: {7b ou 13b ou 34b} -code
Codellama: {7b ou 13b ou 34b} -instruct
Tags olllama, à la maison
Mistral: {7b} -instruct
Tags olllama, à la maison
Vous pouvez également choisir un modèle en évaluant votre LLMS local à l'aide de Benchllama.
Installation rapide
Vous pouvez installer une extension privée à partir du Visual Studio Code Marketplace ou du registre Open VSX.
Marketplace du code Visual Studio
Registre Open VSX
Options de configuration
Veuillez définir les options suivantes dans les paramètres de l'extension privée.
privy.provider ( required ): choisissez la plate-forme utilisée pour exécuter LLMS localement. Il y a une prise en charge de l'utilisation d'OpenAI, mais cela affectera les aspects de confidentialité de la solution. La valeur par défaut est Ollama .
privy.providerUrl ( required ): L'URL de la plate-forme qui est utilisée pour exécuter LLMS localement. La valeur par défaut est http://localhost:11434 .
privy.AutoComplete.Mode : Utilisez ce paramètre pour activer / désactiver la fonction de complétion automatique.
privy.auto-complete.model : Entrez le nom du modèle local olllay que vous souhaitez utiliser pour l'auto-assurance. Les formats pris en charge sont Deepseek Coder, Llama & Stable Code. Nous avons choisi le coder Deepseek: 1.3b-base car il nécessite le moins de VRAM. Vous pouvez personnaliser en fonction de votre configuration matérielle.
privy.auto-complete.debouncewait : utilisez-le pour définir l'écart de temps avant de déclencher la prochaine réalisation en millisecondes. La valeur par défaut est de 300 ms.
privy.model : sélectionnez le LLM avec lequel vous souhaitez discuter. Actuellement, soutient Deepseek, Mistral et Codellama. Si vous souhaitez utiliser d'autres LLM, veuillez sélectionner custom et configurer privy.customModel en conséquence.
Privy.Customodel : Si vous souhaitez choisir d'autres modèles exécutés sur votre olllama, veuillez saisir son nom.
Caractéristiques clés
? Open source
? Intimité d'abord
Achèvement du code automatique
? Chat de style copilot
Conversations filetées
Prise en charge de l'explication du code, tests unitaires, recherche de bugs, diagnostic d'erreurs, etc.
⌨️ raccourcis clavier
Raccourci (mac)
Description
Alt + (pour Windows / Linux) ou Cmd + (pour Mac)
Déclencher l'achèvement du code en ligne
Ctrl + Alt + c (pour Windows / Linux) ou Ctrl + Cmd + c (pour Mac)
Commencer à discuter
Conseils et astuces
Comprendre ces concepts vous aidera à tirer le meilleur parti du privilège.
Être spécifique . Lorsque vous demandez, par exemple, les modifications de code, incluez des noms concrètes et décrivez le résultat souhaité. Évitez les références vagues.
Fournir un contexte . Vous pouvez inclure le langage de programmation ("en rouille") ou d'autres contextes pertinents pour les questions de base. Vous pouvez sélectionner un extrait de code significatif pour les explications de code et le diagnostic d'erreur.
Ne faites pas confiance aux réponses aveuglément . C'est une grande étape pour que le Privy puisse répondre à vos questions. Il peut répondre avec des réponses inexactes, surtout lorsque vous parlez de sujets moins connus ou lorsque la conversation devient trop détaillée.
Utilisez différents fils de chat pour différents sujets . Des fils plus courts avec des sujets spécifiques aideront à répondre plus précisément au privilège.
? Crédits
Rubberduck AI - Ce projet est fortement inspiré par le travail de Rubberduck AI, et nous leur sommes redevables pour leur construire. Ce qui suit est la liste des contributeurs à ce projet et nous exprimons notre sincère gratitude à tous.
Lars Grammel ? ? ?
Iain Majer ?
Nicolas Carlo ?
Ratogbm ?
Lionel Okpeicha ?
Mercer ?
Lundeen.Bryan ?
Ducog ?
SBSTN87 ?
Manuel ?
Alessandro-Newzoo ?
Vide et null ?
Wittydingo ?
Eva ?
AlexeylavRentev ?
linshu123
Michael Adams ?
agité
? Contributions de code
Guide de contribution
Lisez notre guide de contribution pour en savoir plus sur notre processus de développement, comment proposer des bugfix et des améliorations, et comment créer et tester vos modifications.
Bons premiers problèmes
Pour vous aider à vous mouiller les pieds et à vous familiariser avec notre processus de contribution, nous avons une liste de bons premiers problèmes qui contient des choses avec une portée relativement limitée. C'est un endroit idéal pour commencer!