Альтернатива с открытым исходным кодом Github Copilot, который работает локально.
? Увидеть это в действии
Завершение кода в реальном времени
Общайтесь с ИИ о вашем коде
Предварительные условия
Если вы еще не сделали, пожалуйста, выберите одну из следующих платформ, чтобы запустить LLM по вашему выбору в вашей системе локально .
Оллама (настоятельно рекомендуется)
ламафил (экспериментальный)
llama.cpp (экспериментальный)
? Рекомендации LLM
Обратите внимание, что вам нужно настроить LLM для завершения кода и функции чата отдельно . Некоторые из популярных LLM, которые мы рекомендуем, заключаются в следующем. Пожалуйста, выберите размер (т.е. 1,3b, 7b, 13b или 34b) модели на основе ваших аппаратных возможностей.
Завершение кода
Чат
Ссылки
DeepSeek-Coder: {1,3b или 6,7b или 33b} -Base
DeepSeek-Coder: {1.3b или 6,7b или 33b} -instruct
Оллама теги, дом
Codellama: {7b или 13b или 34b} -code
Codellama: {7b или 13b или 34b} -instruct
Оллама теги, дом
MISTRAL: {7b} -instruct
Оллама теги, дом
Вы также можете выбрать модель, оценив ваши локальные LLM с использованием Benchllama.
Быстрая установка
Вы можете установить собственное расширение с рынка кодов Visual Studio или в реестре Open VSX.
Рынок кода Visual Studio
Открытый реестр VSX
Параметры конфигурации
Пожалуйста, установите следующие параметры в настройках для личного расширения.
painty.provider ( required ): выберите платформу, которая используется для запуска LLMS локально. Существует поддержка для использования OpenAI, но это повлияет на аспекты конфиденциальности решения. По умолчанию Ollama .
painty.providerurl ( required ): URL -адрес платформы, которая используется для запуска LLM на локальном уровне. По умолчанию http://localhost:11434 .
paity.autocomplete.mode : Используйте этот настройка для включения/отключения функции автозаполнения.
pates.autocomplete.model : введите имя локальной модели Ollama, которую вы хотите использовать для автозаполнения. Поддерживаемые форматы являются DeepSeek Coder, Llama и стабильный код. Мы выбрали DeepSeek-Coder: 1,3B-база, поскольку для этого требуется наименьшее количество VRAM. Вы можете настроить на основе своей настройки оборудования.
tavy.autocomplete.debouncewait : Используйте это для установки разрыва во времени, прежде чем запустить следующее завершение в миллисекундах. По умолчанию 300 мс.
tavy.model : выберите LLM, с которым вы хотите поговорить. В настоящее время поддерживает Deepseek, Mistral и Codellama. Если вы хотите использовать другие LLMS, выберите custom и настройте privy.customModel соответственно.
painty.customdel : если вы хотите выбрать любые другие модели, работающие на вашей Ollama, введите их имя.
Ключевые функции
? Открытый исходный код
? Конфиденциальность сначала
По завершении автоматического кода
? Чат в стиле
Резьбовые разговоры
Поддержка объяснения кода, модульных тестов, поиска ошибок, диагностики ошибок и т. Д.
⌨ Комплекты клавиш
Ярлык (Mac)
Описание
Alt + (для Windows/Linux) или Cmd + (для Mac)
Запустить встроенное завершение кода
Ctrl + Alt + c (для Windows/Linux) или Ctrl + Cmd + c (для Mac)
Начать чат
Советы и хитрости
Понимание этих концепций поможет вам получить максимальную отдачу от собственной.
Быть конкретным . Когда вы просите, например, изменения кода, включите конкретные названия и опишите желаемый результат. Избегайте смутных ссылок.
Обеспечить контекст . Вы можете включить язык программирования («в ржавчине») или другие соответствующие контексты для основных вопросов. Вы можете выбрать значимый фрагмент кода для объяснений кода и диагностики ошибок.
Не доверяйте ответам слепо . Это большой шаг для того, чтобы иметь возможность иметь возможность ответить на ваши вопросы. Это может ответить неточными ответами, особенно когда рассказывают о менее известных темах или когда разговор становится слишком подробным.
Используйте разные потоки чата для разных тем . Более короткие темы с конкретными темами помогут отлично реагировать более точно.
? Кредиты
RubberDuck AI - Этот проект сильно вдохновлен работой RubberDuck AI, и мы обязаны им за то, что он строился на вершине. Ниже приведен список участников этого проекта, и мы выражаем нашу искреннюю благодарность всем им.
Ларс Граммел ? ? ?
Iain Majer ?
Николас Карло ?
RATOGBM ?
Лайонел Окпейча ?
Меркерк ?
Lundeen.bryan ?
Ducog ?
SBSTN87 ?
Мануэль ?
Alessandro-Newzoo ?
Void & null ?
Wittydingo ?
Ева ?
Алексилаврентв ?
Linshu123
Майкл Адамс ?
Беспокойный
? Кодовые взносы
Способный гид
Прочитайте наше руководство по вклад, чтобы узнать о нашем процессе разработки, о том, как предложить ошибки и улучшения, а также о том, как создавать и проверить ваши изменения.
Хорошие первые проблемы
Чтобы помочь вам промокнуть ноги и познакомиться с нашим процессом вклада, у нас есть список хороших первых проблем, которые содержат вещи с относительно ограниченным объемом. Это отличное место, чтобы начать!