Navamai를 사용하여 개인적이고 빠르고 품질의 AI로 생산성과 워크 플로를과 충전하십시오. 터미널을 구성 가능하고 대화식 및 눈에 잘 띄지 않는 개인 AI 앱으로 전환하십시오. 손가락 끝에 15 LLM 및 7 개의 공급 업체의 전력. Markdown, vs Code, Obsidian 및 Github의 워크 플로와 짝을 이룹니다. 세 가지 간단한 명령으로 생산적으로 빨리 얻으십시오.
명령은 필요한 전부입니다. 따라서 LLM Science 팬들은 우리의 태그 라인에서 pun을 얻을 것입니다. 트랜스포머 모델 아키텍처에 대한 세계를 소개 한 유명한 논문의 연극입니다.주의가 필요한 전부입니다. Navamai를 사용하면 좋아하는 터미널 또는 껍질을 통한 간단한 명령은 크고 작은 언어 모델을 소원에 구부리기 위해 필요한 모든 것입니다. Navamai는 명령 프롬프트 내에서 바로 풍부한 UI를 제공합니다. 브라우저 탭이 열리고 설치할 앱이없고 컨텍스트 전환이 없습니다 ... 순수하고 단순하고 빠른 워크 플로. ask "create a table of planets" 와 같은 간단한 명령으로 시도하고 빠른 스트리밍 응답, 마크 다운 포맷 테이블 및 색상 하이라이트가있는 코드 블록이있는 채팅 UI처럼 터미널이 생생한 것을보십시오. Navamai는 개인 AI 워크 플로우를 사용자 정의하는 데 도움이되는 14 개의 명령을 발표했습니다.
최고 모델 및 제공 업체 : 개인 모델을 전환하거나 호스팅 된 프론티어 LLM을 쉽게 전환 할 수 있습니다. Navamai는 7 개의 제공 업체 (Ollama, Anthropic, Openai, Groq, Google, Bedrock 및 Inersplexity)의 15 개 이상의 주요 모델 (GPT 4O, Sonnet 3.5, Gemini 1.5 Pro, Mistral Nemo, Mistral Nemo, Sonar Llama 3.1 ...)에 대한 구성 가능한 지원을 제공합니다.
Markdown Workflows : Navamai는 Markdown 컨텐츠 (간단한 서식 명령을 가진 텍스트 파일)에서 작동합니다. 따라서 VS Code 및 Obsidian과 같은 많은 인기있는 도구와 함께 사용하여 공예를 향상시키는 맞춤형 워크 플로우를 빠르고 원활하게 설계 할 수 있습니다.
더 적게하십시오 : Navamai는 소수의 강력한 명령을 배우면서 상자에서 사용하는 것이 매우 간단합니다. 편안 해지면 하나의 구성 파일을 변경하고 워크 플로에 맞게 Navamai를 정렬하여 Navamai 명령을 사용자 정의 할 수 있습니다. Navamai의 모든 것은 신속하게 시작할 수있는 합리적인 불이행이 있습니다.
직접 만들기 : 준비가되면 명령, 모델, 제공자, 프롬프트, 모델 매개 변수, 폴더 및 문서 유형을 포함하여 모든 것이 구성 가능하고 확장 가능합니다. 또 다른 마법의 일은 생성 AI의 인터페이스가 겸손한 명령 프롬프트 일 때 발생합니다. 당신은 통제력이 있다는 느낌을 경험할 것입니다. 워크 플로, 프라이버시, 의도 및 유물을 제어합니다. 당신은 Navamai와의 개인 AI 워크 플로를 완전히 제어하고 있습니다.
Navamai를 초기화하려는 폴더로 이동하십시오. Obsidian Vault 또는 VC Code Project 폴더 또는 빈 폴더 일 수 있습니다.
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model 모델 제공자 키를 설정해야합니다. 환경 구성 ~/.zshrc 를 편집하십시오.
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api 모델 provider-model-mapping 사용하지 않으려면 model-mapping 에서 navamai.yml 에서 해당 항목을 제거하기 만하면됩니다. 또한 다른 모델 구성이 사용 가능한 모델 만 참조하십시오.
로컬 모델의 경우 Ollama를 설치하고 실행하려는 최신 모델을 다운로드하십시오.
이제 모든 모델과 공급자를 테스트 할 준비가되었습니다.
navamai test ask
navamai test vision파이썬 환경이 이미 작동하는 경우이 섹션을 건너 뛰십시오.
먼저 Python 패키지 관리자가 최신으로 업그레이드 된 시스템에서 최신 Python을 실행해야합니다.
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv 버전 관리자를 설정하십시오.첫 번째 디렉토리를 VS Code Workspace, Obsidian Vault 또는 Navamai를 설치하려는 폴더로 변경하십시오. 다음으로 가상 환경을 만듭니다.
python -m venv env 이제와 같은 가상 환경을 활성화 할 수 있습니다. 가상 환경에서 실행 중임을 나타 내기 위해 (env) 와 접두사가 접두어가 표시됩니다.
. env/bin/activate deactivate 명령을 사용하여 가상 환경을 떠나기 위해. 이전과 동일한 명령을 사용하여 다시 입력하십시오.
이제 Navamai를 설치할 준비가되었습니다.
* navamai , ask , image 및 refer Navamai를 설치할 때 사용할 수있는 4 가지 최상위 명령입니다.
| 명령 | 예와 설명 |
|---|---|
| * 묻다 | ask "your prompt"LLM에 빠르고 바삭 바삭한 (기본값 최대 300 단어), 단일 회전 응답으로 프롬프트 ask구성된 프롬프트 폴더를 검색하고 사용자를 실행할 프롬프트 템플릿을 나열합니다. |
| 심사 | navamai audit통찰력있는 Command Line Dashboard 및 Markdown 보고서로 시간이 지남에 따라 Navamai의 자신의 사용을 분석하십시오. |
| 구성 | navamai config ask save true명령 줄에서 navamai.yml 파일 구성 편집 |
| 모으다 | navamai gather "webpage url"메뉴, 사이드 바, 바닥 글없이 웹 페이지에서 기사를 깨끗하게 긁어 모으십시오. 이미지 포함. HTML 소스와 유사한 Markdown으로 저장됩니다. refer gather 명령을 사용하여 긁힌 마크 다운 컨텐츠를 참조하십시오.navamai vision 명령을 사용하여 긁힌 이미지에 비전을 사용하십시오. |
| * 나타내다 | refer text-to-extract원시 텍스트 파일 세트를 탐색하고 새로운 구조화 된 컨텐츠를 추출하기 위해 사용자 정의 프롬프트를 실행하십시오. refer inline-prompts-to-run기존 문서를 확장, 변경 및 변환하기 위해 텍스트 내에 내장 된 프롬프트를 실행합니다. refer intents의도 템플릿 내에서 의도 및 프롬프트 세트를 확장 refer your-command기존 refer-existing 모델 구성을 간단히 복사하고 변경하여 명령을 참조하도록 자체 확장자를 구성 할 수 있습니다. |
| 달리다 | navamai run코드 블록을 사용하여 Markdown 파일의 Code 폴더를 찾아, 하나의 단일 명령으로 앱을 생성, 설정 및 실행하십시오!코드 블록이있는 Code 폴더 마크 다운 파일은 ask 명령을 사용하여 생성 Create Vite App.md 사용하여 생성됩니다. |
| ID | navamai idask 명령에 대한 현재 제공자 및 모델을 식별합니다navamai id section-name특정 섹션에 정의 된 제공자 및 모델을 식별합니다 |
| * 이미지 | image이미지를 생성하려면 프롬프트 템플릿을 선택하십시오. image "Prompt for image to generate"이미지를 생성하라는 프롬프트. |
| 이니 | navamai init모든 폴더에서 Navamai를 초기화하십시오. navamai.yml 기본 구성 및 빠른 시작 아트 및 폴더 및 파일을 포함시킵니다. 덮어 쓰기 전에 확인합니다. -포스 옵션을 사용하여 파일과 폴더를 덮어 쓰십시오. |
| 의도 | navamai intents "Financial Analysis"컨텐츠 임베드를 참조 할 템플릿 내 의도 목록 중에서 대화식으로 선택하십시오. |
| 병합 | navamai merge "Source File"자리 표시 자 태그 [merge here] 또는 merge Config에서 정의 된 사용자 정의로 Source File updated 찾은 다음 두 파일을 Source File merged 로 병합합니다. 컨텍스트를 위해 긴 텍스트를 편집 할 때 처리 된 토큰 수를 줄이고 섹션 만 업데이트 할 때 처리 된 토큰 수를 줄이기 위해 refer inline-prompts-to-run 하십시오. |
| 나뉘다 | navamai split "Large File"이 명령을 사용하여 대상 모델 컨텍스트의 지정된 비율 내에서 큰 파일을 청크로 분할하십시오. 구성의 split 섹션에서 대상 모델과 비율을 구성 할 수 있습니다. 원본 파일은 그대로 유지되며 이름이 같은 이름과 part # 접미사가 생성됩니다. |
| 시험 | navamai test asknavamai.yml 구성에 정의 된 모든 공급자 및 모델을 사용하여 Navamai 명령을 테스트하고 테스트 요약을 제공합니다.navamai test vision테스트 비전 모델. |
| 트렌드 | navamai trendsnavamai test 기반으로 대기 시간 및 토큰 길이 추세를 시각화하면 모델 및 제공 업체의 ask 및 vision 명령을 실행합니다. --days 7 명령 옵션을 사용하여 일정 기간 동안 트렌드를 동행 할 수 있습니다. |
| 검증 | navamai validate "Financial Analysis"다른 모델을 실행하는 사전 생성 된 임베드를 확인하고 검증 된 컨텐츠와 원래 컨텐츠의 비율 차이를보고합니다. |
| 비전 | navamai vision -p path/to/image.png "Describe this image"로컬 경로 (-p), URL (-u) 또는 카메라 (-c)의 이미지에서 비전 모델을 실행하고 프롬프트에 따라 응답합니다. |
터미널에 간단한 명령이 거의없는 Navamai를 사용하면 Obsidian 또는 VS 코드와 같은 Markdown 도구를 사용하여 간단하면서도 강력한 개인 AI 컨텐츠 관리자를 만들 수 있습니다. 예를 들어, 부분 블로그 게시물을 작성하고, 시드 아이디어를 작성하고, 의도 및 프롬프트 목록으로 시작하거나, 약간 산만 한 강의에서 부분 노트를 캡처 할 수 있습니다.
그런 다음 navamai.yml 내의 사용자 정의 refer-section 구성과 함께 refer 명령을 사용 하여이 부분, 불완전한 또는 종자 컨텐츠를 전체 게시물, 메모, 기사, 프롬프트 템플릿 및 잘 연구 된 논문으로 확장 할 수 있습니다. 모델 및 공급자 선택을 실험하고, 문서 유형별로 구성에서 모델 설정을 조정하고, 컨텐츠의 사용자 정의 폴더를 정의하며, 문서 유형에 따라 원하는 결과를 얻기 위해 문서 특정 시스템 프롬프트를 지정할 수 있습니다. 당신은 단지 하나의 간단한 명령 refer 기억해야하며 당신은 모두 설정되어 있습니다.
간단한 예로, 시작 성장 전략에 대한 샘플 부분 작성된 게시물이있는 Posts 폴더를 확인하십시오. 이제 게시물을 확장하려면 navamai.yml 의 관련 구성 섹션을보십시오.
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5 간결성에 대해서는 전체 시스템 프롬프트가 여기에 나열되지 않습니다. 워크 플로에 맞게 분명히 변경할 수 있습니다. 현재로서는 Navamai를 초기화 한 작업 폴더 내에서 refer post-to-update "startup-growth-hacking" 하십시오. 곧 모델 응답이 터미널로 스트리밍되기 시작합니다. 확장 된 게시물은 updated 접두사가있는 Posts 폴더에 저장되어 원본과 비교할 수 있습니다.
리서치 논문, 수업 노트, 요리 레시피 등과 같은 새로운 문서 유형을 만들려면, refer-post-to-update 또는 refer-intents-to-expand 섹션 중 하나를 사용자 정의 refer-notes-to-summarize 섹션과 같은 것으로 복사하고 사용자 정의하기 만하면됩니다. 그런 다음 refer notes-to-summarize "your-notes-file" 과 같은 새 문서 유형에서 사용자 정의 명령을 실행하고 동일한 결과를 얻을 수 있습니다.
다른 Navamai 명령과 결합하면이 워크 플로우는 더욱 강력해질 수 있습니다. 예를 들어, 간단한 마크 다운으로서의 의도와 프롬프트 세트에 대한 문서 템플릿을 정의하여 시작하십시오. 예를 들어 Financial Analysis 또는 Product Management 여기에 표시됩니다. 그런 다음 Macro Factors Impact Stocks Top Companies by ROCE 영향을 미치는 제목과 같은 몇 가지 의도를 추가합니다. 그런 다음 이러한 의도하에 간단한 프롬프트를 추가하여 컨텐츠를 생성하십시오. 이제 Navamai를 사용하여 문서 템플릿의 의도와 프롬프트 세트를 확장 할 수 있으며 명령 refer intents-to-expand "Financial Analysis" 참조하십시오.
이제 navamai intents-to-expand "Financial Analysis" 실행하고 컨텐츠 임베드로 생성 할 의도 목록 중 하나를 선택하십시오. 응답은 Embeds 폴더에 자동으로 저장되며 포함은 문서 템플릿에 즉시 연결됩니다. 린스, 반복하십시오.
이 워크 플로우는 매우 빠르게 유용 할 수 있습니다. 각 템플릿에는 링크 된 임베드가 있으므로 Obsidian 그래프보기를 사용하여 링크를 시각화 할 수 있습니다. 창의적이고 관련 템플릿을 링크하거나 더 많은 의도로 생성 된 임베드를 향상시킬 수 있습니다. 물론 이것은 또한 모든 위대한 Obsidian 플러그인을 사용하여 웹 사이트, PDF 등을 생성 할 수 있음을 의미합니다. 당신의 창의성 + Obsidian + Navamai = 마술!
Navamai는 5 개의 제공 업체 (Ollama, Anthropic, Openai, Groq, Google)의 15 개 이상의 주요 모델에 대한 구성 가능한 지원을 제공합니다. navamai test 명령은 모든 제공 업체 및 모델 조합을 통해 각 Navamai 명령을 실행하는 데 사용될 수 있으며 모델 테스트 및 평가 결과 요약으로 응답 할 수 있습니다. 이를 사용하여 모델과 제공 업체뿐만 아니라 구성에서 새 모델 또는 제공자를 추가하거나 제거 할 때 신속하게 비교하십시오.
이 명령은 모델 응답 시간 (대기 시간), 응답 품질 (시스템 및 프롬프트 지침), 응답 정확도 및 토큰 길이 (비용)를 비교할 때 매우 유용합니다. test 섹션에서 navamai.yml 내에서 테스트 프롬프트를 구성 할 수 있습니다.
다음은 navamai test vision 명령을 실행하고 결과 테스트 요약의 예입니다. 나는이 기본 프롬프트와 이미지 우리가 원에 가까이 서있는 약 150-160 명의 사람들의 이미지를 공유하고 있으며, 모델에 사람들의 수를 계산하도록 요청합니다. 올바른 숫자는 150-160입니다. 이것은 응답에 따라 각 모델의 상대적 정확도를 계산하는 데 사용될 수 있습니다. 응답이 시스템 프롬프트에 얼마나 밀접하게 따라야 하는가, 사용자 프롬프트는 응답 품질을 나타냅니다.
응답 시간이 모델 크기에 비례하는 것처럼 보일 수도 있습니다. Claude의 경우 Opus> Sonnet> Haiku. Gemini의 경우 Pro> Flash. Openai의 경우, GPT-4O> GPT-4-MINI.
navamai test ask 명령을 유사하게 실행하여 모든 모델과 제공 업체에서 테스트 할 수 있습니다. 이 실행에서 Groq는 응답 시간과 관련하여 가장 빠른 제공 업체 중 하나 일 수 있습니다.
물론, 여러 테스트 시간에 따라 모델 크기 나 아키텍처 이외의 대기 시간에 영향을 미치는 여러 요소가 있기 때문에 응답 시간을 더 잘 직관하기 위해 여러 테스트 실행이 필요할 수 있습니다.
각 navamai test Command Run은 Timestamp 및 Provider-Model을 통해 Metrics 폴더의 테스트 요약 데이터를 저장합니다. 시간이 지남에 따라 대기 시간 및 토큰 카운트 메트릭 추세를 시각화하여 모델이 일관되게 수행되는지 확인할 수 있습니다. navamai trends 명령을 실행하여 7 일 동안 트렌드를 볼 수 있습니다 (기본값).
시각화는 스파크 라인을 사용하여 시간이 지남에 따라 데이터 트렌드를 보여줍니다. 이를 사용하여 성능 추세를 기반으로 모델을 전환 할시기를 결정하십시오.
여러 모델을 나란히 비교하고 싶습니까? 여러 쉘 또는 터미널 인스턴스를 열면됩니다. 이제이 각각에서 모델을 하나씩 변경하고 동일한 ask "prompt" 실행하고 결과를 나란히 비교하십시오. 단순한!
Navamai 명령은 실행할 때마다 현재 폴더에서 navamai.yml 구성을 사용하므로 구성 파일을 여러 폴더에 복사하고 실행중인 명령을 간단히 복사하여보다 복잡한 병렬 실행, 멀티 모델 및 크로스 프로비더 워크 플로우를 생성 할 수 있습니다. 이렇게하면 한 폴더와 터미널의 로컬 모델에서 장기 실행 작업을 실행할 수 있습니다. 당신이 다른 곳에서 일상적인 워크 플로우를하는 동안. 등.
행동 마케팅이나 성장은 명령 프롬프트 내에서 비즈니스를 수행 할 수있는 성장이 없습니다. 당신은 당신이 건강하다고 느끼는 방식으로 워크 플로를 안내합니다. 가장 빠른 모델 제공 업체 (LLAMA 3.1을 사용한 Groq) 또는 현재 가장 유능한 모델 (Sonnet 3.5 또는 GPT-4O) 또는 랩톱의 최신 작은 모델 (Mistral Nemo) 또는 가장 큰 컨텍스트 (Gemini 1.5 Flash)를 실행하십시오. 빠른 Wi-Fi 또는 No-WiFi (로컬 모델 사용)로 제약 조건이 없습니다. 즉시 검색, 연구, Q & A를 배우거나 나중에 절약 할 수있는 유물 세트를 생성합니다. 이러한 워크 플로로 전환하는 것은 구성 파일의 몇 가지 변경 사항이거나 터미널에서 기억하기 쉬운 몇 가지 명령입니다.
모델 스위칭 명령을 단순화하기 위해 실제 모델 버전 매핑에 맞춤형 모델 이름을 구성 할 수도 있습니다. 다음과 같은 매핑 모델을 스위치 모델로 표시하면 navamai config ask model llama 또는 navamai config intents model haiku 등이 있습니다.
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash 신뢰할 수있는 모델과 제공자를 결정하거나 노트북에서 LLM을 로컬로 실행하도록 선택합니다. 귀하는 귀하의 데이터와 선호도가 남아있는 방식을 제어하고 있습니다. Navamai는 Anthropic, Openai, Google 및 Meta의 최첨단 예술 모델을 지원합니다. 호스팅 제공자 또는 Ollama를 노트북의 로컬 모델 제공 업체로 선택할 수 있습니다. navamai config ask model llama .
각 명령에 매핑 된 사용자 정의 모델 구성 세트를로드 할 수도 있습니다. navamai.yml 파일로 구성하십시오. 다음은 navamai ask 및 navamai intents 명령이 로컬 및 호스팅 된 모델 제공 업체를 사용하여 다르게 행동하는 방법을 제한하는 예입니다.
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 Navamai는 trail.yml 파일에 명령, 프롬프트, 템플릿, 조회 폴더 및 저장된 파일의 흔적을 저장합니다. navamai audit 명령을 사용하여 언제든지이를 시각화하여 시간이 지남에 따라 Navamai 사용에 대한 통찰력을 얻을 수 있습니다.
의도는 실행하려는 작업, 달성하고자하는 목표, 실현하고자하는 계획, 결정하고자하는 결정 또는 답변하고자하는 질문입니다. 당신은 당신의 의도에 대한 전체 Navamai 경험을 제어합니다. 의도를 텍스트 파일의 간단한 작업 개요로 저장할 수 있습니다. 필요할 때 기억할 수 있습니다. 당신은 당신이 건강하다고 느끼면 의도에서 모델을 실행할 수 있습니다. 의도에 따라 결과를 저장할 수 있습니다.
다른 모델의 유효성 검사를 통해 One LLM에서 생성 된 컨텐츠를 확인할 수 있습니다. refer intents 실행 한 후 유효성 검사 명령 만 실행해야합니다. navamai validate "Financial Analysis" . 유효성 검사를위한 워크 플로는 확장 의도와 유사합니다. 이 경우에만 Validate 모델 구성은 사용할 모델과 제공자를 결정합니다. 유효성 검사 프롬프트를 수정하여 사용 사례와 관련된 특정 사항을 확인할 수도 있습니다. DIFF는 유사성 스코어링을 사용하여 DIFF 비교를 할 때 최신 및 검증 된 텍스트를 제거하는 원본 및 검증 된 텍스트에서 계산됩니다. 이를 사용하여 생성 된 컨텐츠의 품질 검증을 자동화하십시오.