Una alternativa de código abierto al copiloto de GitHub que se ejecuta localmente.
? Véalo en acción
Finalización del código en tiempo real
Chatea con AI sobre tu código
Requisitos previos
Si aún no lo ha hecho, elija una de las siguientes plataformas para ejecutar LLM de su elección en su sistema localmente .
Ollama (muy recomendable)
LlamaFile (experimental)
llama.cpp (experimental)
? Recomendaciones de LLM
Tenga en cuenta que necesita configurar LLM para la finalización del código y la función de chat por separado . Algunos de los LLM populares que recomendamos son los siguientes. Elija el tamaño (es decir, 1.3b, 7b, 13b o 34b) del modelo basado en sus capacidades de hardware.
Finalización del código
Charlar
Campo de golf
Deepseek-coder: {1.3b o 6.7b o 33b} -base
Deepseek-coder: {1.3b o 6.7b o 33b} -instructa
Etiquetas Ollama, Inicio
Codellama: {7b o 13b o 34b} -code
Codellama: {7b o 13b o 34b} -Instructo
Etiquetas Ollama, Inicio
Mistral: {7B} -Instructo
Etiquetas Ollama, Inicio
También puede elegir un modelo evaluando sus LLM locales usando benchllama.
Instalación rápida
Puede instalar Privy Extension desde el mercado de código de Visual Studio o desde el registro Open VSX.
Visual Studio Code Marketplace
Registro VSX abierto
Opciones de configuración
Establezca las siguientes opciones en la configuración para Privy Extension.
Privy.Provider ( required ): elija la plataforma que se está utilizando para ejecutar LLM localmente. Hay apoyo para usar OpenAI, pero esto afectará los aspectos de privacidad de la solución. El valor predeterminado es Ollama .
privy.providerUrl ( required ): la URL de la plataforma que se está utilizando para ejecutar LLM localmente. El valor predeterminado es http://localhost:11434 .
privy.autocomplete.mode : use esta configuración para habilitar/deshabilitar la función de autocompleto.
privy.autocomplete.model : ingrese el nombre del modelo Ollama local que desea usar para Autocompletión. Los formatos compatibles son Coder de Deepseek, LLAMA y Código estable. Hemos elegido Deepseek-coder: 1.3b-base, ya que requiere una menor cantidad de VRAM. Puede personalizar según la configuración de su hardware.
privy.autocomplete.debouncewait : use esto para establecer la brecha de tiempo antes de activar la próxima finalización en milisegundos. El valor predeterminado es de 300 ms.
privy.model : seleccione el LLM con el que desea chatear. Actualmente, apoya a Deepseek, Mistral y Codellama. Si desea utilizar otros LLM, seleccione custom y configure privy.customModel en consecuencia.
Privy.CustOmmodel : si desea elegir cualquier otro modelo que se ejecute en su Ollama, ingrese su nombre.
Características clave
? Código abierto
? Privacidad primero
Finalización del código automático
? Chat de estilo de copiloto
Conversaciones enhebradas
Soporte para la explicación del código, las pruebas unitarias, la búsqueda de errores, el diagnóstico de errores, etc.
⌨️ Teclas de teclado
Atajo (Mac)
Descripción
Alt + (para Windows/Linux) o Cmd + (para Mac)
Activar la finalización del código en línea
Ctrl + Alt + c (para Windows/Linux) o Ctrl + Cmd + c (para Mac)
Iniciar chat
Consejos y trucos
Comprender estos conceptos lo ayudará a aprovechar al máximo el privilegio.
Ser específico . Cuando solicite, por ejemplo, cambios en el código, incluya nombres concretos y describe el resultado deseado. Evite referencias vagas.
Proporcionar contexto . Puede incluir el lenguaje de programación ("en óxido") u otros contextos relevantes para preguntas básicas. Puede seleccionar un fragmento de código significativo para las explicaciones del código y el diagnóstico de errores.
No confíe en las respuestas a ciegas . Es un gran paso para privado de poder responder a sus preguntas. Puede responder con respuestas inexactas, especialmente cuando se habla de temas menos conocidos o cuando la conversación se detallan demasiado.
Use diferentes hilos de chat para diferentes temas . Los hilos más cortos con temas específicos ayudarán a privarse a responder con mayor precisión.
? Créditos
Rubberduck AI: este proyecto está fuertemente inspirado en el trabajo de Rubbanduck Ai, y estamos en deuda con ellos por construir sobre él. La siguiente es la lista de contribuyentes a este proyecto y extendemos nuestra sincera gratitud a todos ellos.
Lars Grammel ? ? ?
Iain Majer ?
Nicolas Carlo ?
Ratogbm ?
Lionel Okpeicha ?
Mercerk ?
Lundeen.Bryan ?
Ducog ?
SBSTN87 ?
Manuel ?
Alessandro-Newzoo ?
Vacío y nulo ?
Ingenio ?
Eva ?
Alexeylavrentev ?
Linshu123
Michael Adams ?
inquieto
? Contribuciones de código
Guía contribuyente
Lea nuestra guía contribuyente para aprender sobre nuestro proceso de desarrollo, cómo proponer las correcciones de errores y las mejoras, y cómo construir y probar sus cambios.
Buenos primeros problemas
Para ayudarlo a humedecer los pies y familiarizarse con nuestro proceso de contribución, tenemos una lista de buenos primeros problemas que contienen cosas con un alcance relativamente limitado. ¡Este es un gran lugar para comenzar!