Используйте Navamai, чтобы перегружать свою производительность и рабочий процесс с помощью личного, быстрого и качественного ИИ. Превратите свой терминал в настраиваемое, интерактивное и ненавязчивое личное приложение ИИ. Мощность 15 LLMS и 7 провайдеров на кончиках пальцев. Пара с рабочими процессами в Markdown, VS Code, Obsidian и Github. Получите продуктивность с тремя простыми командами.
Команда - это все, что вам нужно: Итак, фанаты науки LLM получат каламбур в нашем слогане. Это пьеса на знаменитой статье, которая представила мир архитектуре модели трансформатора - внимание - все, что вам нужно. С Навамаи простая команда через ваш любимый терминал или оболочку - это все, что вам нужно, чтобы сгибать большую или маленькую языковую модель в ваши пожелания. Навамаи предоставляет богатый пользовательский интерфейс прямо в вашей командной строке. Нет вкладок браузера, чтобы открыть, нет приложений для установки, нет переключения контекста ... просто чистый, простой, быстрый рабочий процесс. Попробуйте его с простой командой, такой как ask "create a table of planets" и посмотрите, как ваш терминал входит в жизнь так же, как пользовательский интерфейс чата, с быстрыми потоковыми ответами, таблицами форматированной маркировки и даже кодовыми блоками с цветными выделениями, если ваша подсказка требует кода в ответ! Навамай выпустил 14 команд, чтобы помочь настроить ваш личный рабочий процесс искусственного интеллекта.
Лучшие модели и поставщики: вы можете легко переключить частные модели или размещенные Frontier LLMS. Навамай поставляется с настраиваемой поддержкой для более чем 15 ведущих моделей (GPT 4O, Sonnet 3.5, Gemini 1.5 Pro, Mistral Nemo, Sonar Llama 3.1 ...) от 7 провайдеров (Ollama, Antropic, Openai, Groq, Google, Bendrock и Perploxity).
Рабочие процессы Markdown: Navamai работает с контентом Markdown (текстовые файлы с простыми командами форматирования). Таким образом, вы можете использовать его со многими популярными инструментами, такими как VS Code и Obsidian, чтобы быстро и плавно разработать пользовательский рабочий процесс, который улучшает ваше ремесло.
Сделайте больше с меньшими затратами: Навамай очень прост в использовании из коробки, когда вы изучаете его горстку мощных команд. По мере того, как вы чувствуете себя комфортно, вы можете настроить команды Navamai, просто изменив один файл конфигурации и выровняйте навамай в соответствии с вашим рабочим процессом. Все в Навамаи имеет разумные значения по умолчанию, чтобы начать быстро.
Сделайте это своим собственным: когда вы готовы, все настраивается и расширяется, включая команды, модели, поставщики, подсказки, параметры модели, папки и типы документов. Еще одна волшебная вещь происходит, когда интерфейс к вашему генеративному ИИ - скромная командная строка. Вы испытаете чувство контроля. Контролируя ваш рабочий процесс, ваш конфиденциальность, ваши намерения и ваши артефакты. Вы полностью контролируете свой личный рабочий процесс искусственного интеллекта с Навамаи.
Перейдите в папку, где вы хотите инициализировать Навамай. Это может быть ваша папка проекта VC Code, или даже пустая папка.
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model Вам нужно будет настроить ключи-модели. Редактировать конфигурацию вашей среды ~/.zshrc как SO.
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api Если вы не хотите использовать какую-либо из модели model-mapping то все provider-model-mapping что вам нужно сделать, это удалить соответствующие записи из navamai.yml . Также убедитесь, что другие конфигурации модели относятся только к доступным моделям.
Для местных моделей установите Ollama и загрузите новейшие модели, которые вы хотите запустить.
Теперь вы готовы проверить все модели и поставщиков.
navamai test ask
navamai test visionПропустите этот раздел, если у вас уже работает среда Python.
Во -первых, вы должны запустить последний Python в вашей системе с Manager пакета Python, обновленным до последнего.
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv .Сначала измените каталог на рабочую область VS -кода, Vobsidian Vault или папку, где вы хотите установить Navamai. Затем создайте виртуальную среду.
python -m venv env Теперь вы можете активировать свою виртуальную среду так. Вы заметите, что каталог префикс (env) чтобы указать, что вы сейчас работаете в виртуальной среде.
. env/bin/activate Оставить виртуальную среду, используя команду deactivate . Повторно введите, используя ту же команду, что и раньше.
Теперь вы готовы установить навамай.
*Обратите внимание, что navamai , ask , image и refer представляют собой четыре команды верхнего уровня, доступные для вас при установке Навамай.
| Командование | Пример и описание |
|---|---|
| * просить | ask "your prompt"Приведите LLM для быстрого, хрустящего (по умолчанию до 300 слов), Ответ с одним поворотом askПроизводит папку настроенных подсказок, перечисляет шаблоны приглашения для запуска пользователя. |
| аудитор | navamai auditПроанализируйте свое собственное использование Навамаи с течением времени с помощью проницательной панели управления командной линией и отчета об отметках. |
| конфигурация | navamai config ask save trueРедактировать конфигурацию файла navamai.yml из командной строки |
| собирать | navamai gather "webpage url"Чистое соскребь статью с веб -страницы, без меню, боковой панели, нижнего колонтитула. Включает изображения. Сохраняет как форматированную марку, аналогично источнику HTML. См. Содержимое скребной отметки с помощью команды refer gather .Используйте видение на сокраренных изображениях, используя команду navamai vision . |
| * ссылаться | refer text-to-extractПросмотрите набор необработанных текстовых файлов и запустите пользовательские подсказки для извлечения нового структурированного контента. refer inline-prompts-to-runЗапустите подсказка встроенного встроенного в тексте для расширения, изменения и конвертации существующих документов. refer intentsРасширить набор намерений и подсказок в шаблоне намерения refer your-commandВы можете настроить свои собственные расширения для указания команды, просто копируя и изменяя любую из существующих конфигураций refer-existing модели. |
| бегать | navamai runПросмотрите папку Code для файлов Markdown с помощью кодовых блоков, создавать, настройку и запустить приложение в одной команде!Файлы разметки Code папки с кодовыми блоками создаются с использованием команды ask Create Vite App.md |
| идентификатор | navamai idОпределяет текущий провайдер и модель для команды asknavamai id section-nameОпределяет поставщик и модель, определенную в конкретном разделе |
| * изображение | imageВыберите шаблон приглашения для создания изображения. image "Prompt for image to generate"Подсказка для создания изображения. |
| инициатор | navamai initИнициализировать навамай в любой папке. Копирует конфигурацию navamai.yml . Проверяет перед перезаписью. Используйте -опция для заставления файлов и папок перезаписать. |
| намерения | navamai intents "Financial Analysis"Интерактивно выбирать из списка намерений в шаблоне для обозначения встроенных контентов |
| слияние | navamai merge "Source File"Находит Source File updated с помощью тегов заполнителей [merge here] или как пользовательский определенный в конфигурации merge , затем объединяет два файла в Source File merged . Используйте вместе с refer inline-prompts-to-run чтобы уменьшить количество токенов, обрабатываемых при редактировании длинного текста для контекста, но обновите только раздел. |
| расколоть | navamai split "Large File"Используйте эту команду, чтобы разделить большой файл на куски в пределах указанного соотношения контекста целевой модели. Вы можете настроить целевую модель и соотношение в разделении split конфигурации. Оригинальный файл остается нетронутым, и созданы новые файлы с тем же именем и part # суффикс. |
| тест | navamai test askТестирует команду Навамай с использованием всех поставщиков и моделей, определенных в конфигурации navamai.yml .navamai test visionТестовые модели зрения. |
| тенденции | navamai trendsВизуализируйте тенденции задержки и длины токена на основе navamai test для команд ask и vision в разных моделях и поставщиках. Вы можете тенденции в течение периода дней, используя вариант команды --days 7 . |
| проверять | navamai validate "Financial Analysis"Утверждает предварительные сгенерированные вставки, работающие с другой моделью и сообщают о процентной разнице между проверенным и исходным содержанием. |
| зрение | navamai vision -p path/to/image.png "Describe this image"Запускает модели зрения на изображениях с локального пути (-p), URL (-u) или камеры (-c) и отвечает на основе приглашения. |
Используя Навамай с небольшим количеством простых команд в вашем терминале, вы можете создать простой, но мощный личный диспетчер контентов ИИ с вашим выбранным инструментом Markdown, такими как Obsidian или VS -код. Например, вы можете написать частичные посты в блогах, написать свои идеи семян, начать со списка намерений и подсказок или запечатлеть частичные заметки из лекции, где вы были немного отвлечены.
Затем вы можете использовать команду refer в сочетании с пользовательскими конфигурациями refer-section в navamai.yml для расширения этого частичного, неполного или семянного контента на полные посты, примечания, статьи, быстрые шаблоны и даже хорошо изученные статьи. Вы можете экспериментировать с выбором моделей и поставщиков, настроить настройки модели в конфигурационном типе документа, определить пользовательские папки для вашего контента и указать подсказки для конкретных документов для получения точно того результата, который вы желаете, на основе типа документа. Вы просто должны вспомнить одну простую команду, refer , что вы все настроены.
В качестве бытового примера, ознакомьтесь с папкой Posts с образцом частично написанного сообщения о стратегиях роста стартапа. Теперь просмотрите соответствующий раздел конфигурации в navamai.yml для расширения сообщений.
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5 Обратите внимание, что для краткости мы не перечисляем полную системную подсказку здесь. Вы можете изменить его в соответствии с вашим рабочим процессом. На данный момент, просто запустите команду refer post-to-update "startup-growth-hacking" в рабочей папке, где вы инициализировали навамай. Вскоре отклик модели начинает транслироваться в ваш терминал. Расширенный пост сохраняется в папке Posts с updated префиксом, так что вы можете сравнить с оригиналом.
Чтобы создать новый тип документа, такие как исследовательские статьи, заметки классов, рецепты приготовления пищи или что-то еще, все, что вам нужно сделать, это скопировать и настроить один из разделов refer-post-to-update или refer-intents-to-expand в нечто вроде вашего пользовательского раздела refer-notes-to-summarize . Затем вы можете запустить пользовательскую команду на своем новом типе документа, например refer notes-to-summarize "your-notes-file" и достичь тех же результатов.
В сочетании с другими командами Навамаи этот рабочий процесс может стать еще более мощным. В качестве примера, начните с определения шаблона вашего документа для набора намерений и подсказок как простой отметки. Например, Financial Analysis или Product Management показаны здесь. Затем добавьте несколько намерений в качестве заголовков, как Macro Factors Impact Stocks или Top Companies by ROCE и так далее. Затем добавьте простые подсказки в соответствии с этими намерениями для создания контента. Теперь вы можете использовать Navamai для расширения набора намерений и подсказок в шаблоне вашего документа с помощью команды refer intents-to-expand "Financial Analysis" , и модель будет мозговой штурмой более связанных с этим намерений и подсказот для использования.
Теперь navamai intents-to-expand "Financial Analysis" , и выберите в числе списка намерений, чтобы генерировать в качестве контента. Ответ автоматически сохраняется под папкой Embeds , а встроенный встроен в шаблоне вашего документа мгновенно. Промойте, повторите.
Этот рабочий процесс может стать очень полезным очень быстро. Поскольку каждый шаблон имеет связанные вставки, представление графика ubsidian можно использовать для визуализации ссылок. Вы можете проявить креативные шаблоны и связанные с ссылкой или даже улучшить сгенерированные вставки с большими намерениями. Конечно, это также означает, что вы можете использовать все великие плагины обсидиана для генерации веб -сайтов, PDF -файлов и многого другого. Ваше творчество + obsidian + навамай = магия!
Навамай поставляется с настраиваемой поддержкой для более чем 15 ведущих моделей из пяти поставщиков (Ollama, Anpropic, Openai, Groq, Google). Команда navamai test может использоваться для запуска каждой из команд Навамаи по всем комбинациям поставщиков и моделей и ответа с кратким изложением результатов тестирования моделей и оценки. Используйте это, чтобы быстро сравнить модели и поставщиков, а также при добавлении или удалении новой модели или поставщика в конфигурации.
Эта команда очень полезна при сравнении времени отклика модели (задержка), качества ответа (она следует за системой и инструкциями по запросу), точность ответа и длина токена (стоимость) для той же приглашения. Вы можете настроить тестовые подсказки в test navamai.yml .
Вот пример запуска команды navamai test vision и полученного резюме для испытаний. I Эта подсказка по умолчанию и изображение мы разделяем изображение около 150-160 человек, стоящих в непосредственной близости в кругу и просит модель подсчитать количество людей. Правильное число составляет от 150 до 150. Это может быть использовано для расчета относительной точности каждой модели на основе ответа. Насколько близко отклик следует за подсказкой системы, и пользовательские подсказки указывают на качество ответа.
Вы также можете заметить, что время отклика кажется пропорциональным размеру модели. Для Клода, Opus> Сонет> Хайку. Для Близнецов, Pro> Flash. Для Openai, GPT-4O> GPT-4-Mini.
Аналогичным образом вы можете запустить команду navamai test ask , чтобы проверить все модели и поставщиков. В этом забеге вы можете обнаружить, что Groq является одним из самых быстрых поставщиков, когда дело доходит до времени отклика.
Конечно, вам может потребоваться несколько тестовых прогонов, чтобы улучшить интуицию времени отклика, так как существует несколько факторов, которые задержки эффекта, отличные от размера модели или архитектуры, такие как задержка сети, которые могут измениться в рамках нескольких тестов.
Каждая команда navamai test сохраняет резюме тестовых данных в папке Metrics от TimeStamp и поставщика-модели. Со временем вы можете визуализировать тенденции задержки и метрик подсчета токенов, чтобы увидеть, работают ли модели последовательно. Запустите команду navamai trends , чтобы просмотреть тенденции в течение 7 дней (по умолчанию).
Визуализация использует Sparklines, чтобы показать тенденции данных с течением времени. Используйте это, чтобы решить, когда/если переключать модели на основе тенденций производительности.
Хотите сравнить несколько моделей рядом? Все, что вам нужно сделать, это открыть несколько раковинов или экземпляров терминала. Теперь в каждом из них, один за другим, измените модель, запустите одинаковое ask "prompt" и сравните результаты рядом. Простой!
Поскольку команды Навамаи используют конфигурацию navamai.yml . Таким образом, вы можете выполнять несколько долгих задач на локальной модели в одной папке и терминале. Пока вы делаете свой повседневный рабочий процесс в другом. И так далее.
В вашей командной строке нет поведенческого маркетинга или взлома роста, которое бизнес может сделать. Вы направляете свой рабочий процесс так, как вы чувствуете себя подходящим. Запустите самый быстрый поставщик моделей (GROQ с Llama 3.1) или наиболее способную модель прямо сейчас (Sonnet 3.5 или GPT-4O), или последнюю небольшую модель на вашем ноутбуке (Mistral Nemo) или модель с наибольшим контекстом (Gemini 1.5 Flash), вы решите. Запустите с быстрым Wi-Fi или No-WiFi (с использованием локальных моделей), без ограничений. Мгновенно ищите, исследуйте, Q & A, чтобы узнать что -то или генерировать набор артефактов, которые можно сэкономить на потом. Переход на любой из этих рабочих процессов - пара изменений в файле конфигурации или несколько простых для запоминания команд на вашем терминале.
Вы также можете настроить пользовательские имена модели на фактическое отображение версии модели для упрощения команд переключения модели. С помощью следующего отображения команды для моделей переключения - это navamai config ask model llama или navamai config intents model haiku и так далее.
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash Вы решаете, какой модели и поставщика вы доверяете, или даже решите запустить LLM на локальном уровне на вашем ноутбуке. Вы контролируете, насколько частны ваши данные и предпочтения остаются. Навамаи поддерживает современные модели из Антрии, Openai, Google и Meta. Вы можете выбрать хостингового поставщика или Ollama в качестве местного поставщика моделей на вашем ноутбуке. Переключайте между моделями и поставщиками, используя простую команду, такую как navamai config ask model llama чтобы переключиться из текущей модели.
Вы также можете загрузить пользовательские наборы конфигурации модели, отображаемые по каждой команде. Настройте их в файле navamai.yml . Вот пример ограничения того, как navamai ask и navamai intents ведут себя по -разному, используя локальные и размещенные поставщики моделей.
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 Навамай сохраняет след команд, подсказок, шаблонов, папков поиска и сохраненных файлов в файле trail.yml . Вы можете визуализировать это в любое время, используя команду navamai audit чтобы с течением времени получить представление о использовании вашего навамаи.
Ваши намерения - это задачи, которые вы хотите выполнить, цели, которые вы хотите достичь, планы, которые вы хотите реализовать, решения, которые вы хотите принимать, или вопросы, на которые вы хотите ответить. Вы контролируете весь свой опыт Навамаи со своими намерениями. Вы можете сохранить свои намерения как простой схемы задач в текстовом файле. Вы можете вспомнить их, когда вам нужно. Вы можете запустить модели на своих намерениях, поскольку вы чувствуете себя подходящим. Вы можете сохранить результаты на основе ваших намерений.
Вы можете проверить контент, сгенерированный одним LLM с проверкой из другой модели. Убедитесь, что вы запустили команду Validate только после того, как вы запустили команду refer intents , чтобы сгенерировать первое проход Enceds. Используйте navamai validate "Financial Analysis" или любой шаблон намерения, который вы создали. Рабочий процесс для проверки аналогичен расширению. Только в этом случае конфигурация модели Validate решает, какую модель и поставщик использовать. Вы также можете изменить подсказку проверки для проверки любых конкретных вещей, имеющих отношение к вашему варианту использования. DIFF рассчитывается на исходном и проверенном тексту, удаляющем любые новички, пробел или форматирование разметки при проведении сравнения DIFF с использованием сходства. Используйте это для автоматизации проверки качества сгенерированного контента.