Важный
В настоящее время это работа, ожидайте, что все будет сломано!
LLM-LS -это LSP-сервер, использующий LLMS, чтобы сделать ваш опыт разработки более плавным и более эффективным.
Цель LLM-LS-обеспечить общую платформу для настройки расширений IDE. LLM-LS заботится о тяжелой работе в отношении взаимодействия с LLMS, так что код расширения может быть максимально легким.
Использует текущий файл в качестве контекста для генерации подсказки. Может использовать «заполнить среднюю» или не в зависимости от ваших потребностей.
Это также гарантирует, что вы находитесь в контекстном окне модели, ориентируясь на подсказку.
Собирает информацию о запросах и завершениях, которые могут позволить переподготовку.
Обратите внимание, что LLM-LS нигде не экспортирует данные (кроме установки пользовательского агента при запросе модели API), все хранится в файле журнала ( ~/.cache/llm_ls/llm-ls.log ), если вы установите Журнал Уровень до info .
LLM-LS анализирует AST кода, чтобы определить, должны ли завершения быть многострочными, одной линией или пустыми (без завершения).
LLM-LS совместим с API вывода «Объятие лица», «Объятие», совместимое с API-интерфейсом ollama и OpenAI, такие как привязки сервера Python llama.cpp.
suffix_percent , которая определяет соотношение # токенов для префикса по сравнению с суффиксом в приглашенииmax_tokens