Gunakan Navamai untuk menambah produktivitas dan alur kerja Anda dengan AI pribadi, cepat, dan berkualitas. Ubah terminal Anda menjadi aplikasi AI pribadi yang dapat dikonfigurasi, interaktif, dan tidak mencolok. Kekuatan 15 llms dan 7 penyedia di ujung jari Anda. Pasangkan dengan alur kerja di Markdown, Vs Code, Obsidian, dan GitHub. Dapatkan cepat produktif dengan tiga perintah sederhana.
Perintah adalah semua yang Anda butuhkan: Jadi, penggemar LLM Science akan mendapatkan permainan kata -kata dalam tagline kami. Ini adalah permainan di atas kertas terkenal yang memperkenalkan dunia ke arsitektur model transformator - hanya perhatian yang Anda butuhkan. Dengan Navamai perintah sederhana melalui terminal atau shell favorit Anda adalah semua yang Anda butuhkan untuk menekuk model bahasa besar atau kecil sesuai keinginan Anda. Navamai menyediakan UI yang kaya di sana di dalam prompt perintah Anda. Tidak ada tab browser yang harus dibuka, tidak ada aplikasi untuk diinstal, tidak ada switching konteks ... hanya alur kerja yang murni, sederhana, dan cepat. Cobalah dengan perintah sederhana seperti ask "create a table of planets" dan lihat terminal Anda hidup seperti UI obrolan dengan respons streaming cepat, tabel markdown yang diformat, dan bahkan blok kode dengan sorotan warna jika prompt Anda memerlukan kode sebagai tanggapan! Navamai telah merilis 14 perintah untuk membantu menyesuaikan alur kerja AI pribadi Anda.
Model dan Penyedia Top: Anda dapat beralih model pribadi atau dihosting Frontier LLMS dengan mudah. Navamai hadir dengan dukungan yang dapat dikonfigurasi untuk lebih dari 15 model terkemuka (GPT 4O, Sonnet 3.5, Gemini 1.5 Pro, Mistral Nemo, Sonar Llama 3.1 ...) dari 7 penyedia (Ollama, Antropik, Openai, Groq, Google, Bedrock, dan Perplexity).
Alur kerja Markdown: Navamai bekerja dengan konten Markdown (file teks dengan perintah pemformatan sederhana). Jadi, Anda dapat menggunakannya dengan banyak alat populer seperti VS Code dan Obsidian untuk merancang alur kerja khusus dengan cepat dan mulus yang meningkatkan kerajinan Anda.
Lakukan lebih banyak dengan Less: Navamai sangat mudah digunakan di luar kotak saat Anda mempelajari beberapa perintah yang kuat. Saat Anda merasa nyaman, Anda dapat menyesuaikan perintah Navamai hanya dengan mengubah satu file konfigurasi dan menyelaraskan Navamai agar sesuai dengan alur kerja Anda. Segala sesuatu di Navamai memiliki default yang masuk akal untuk memulai dengan cepat.
Jadikan milik Anda sendiri: Ketika Anda siap, semuanya dapat dikonfigurasi dan diperluas termasuk perintah, model, penyedia, petunjuk, parameter model, folder, dan jenis dokumen. Hal ajaib lainnya terjadi ketika antarmuka ke AI generatif Anda adalah prompt perintah yang sederhana. Anda akan mengalami rasa terkendali. Kontrol alur kerja Anda, privasi Anda, niat Anda, dan artefak Anda. Anda benar -benar mengendalikan alur kerja AI pribadi Anda dengan Navamai.
Pergi ke folder tempat Anda ingin menginisialisasi Navamai. Ini bisa berupa lemari besi obsidian Anda atau folder proyek kode VC atau bahkan folder kosong.
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model Anda perlu menyiapkan kunci model penyedia. Edit Lingkungan Anda Konfigurasi ~/.zshrc seperti itu.
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api Jika Anda tidak ingin menggunakan salah satu model maka yang perlu Anda lakukan adalah menghapus entri yang sesuai dari navamai.yml di model-mapping dan bagian provider-model-mapping . Pastikan juga bahwa model lain hanya mengacu pada model yang tersedia.
Untuk model lokal menginstal ollama dan unduh model terbaru yang ingin Anda jalankan.
Sekarang Anda siap menguji semua model dan penyedia.
navamai test ask
navamai test visionLewati bagian ini jika Anda memiliki lingkungan Python Anda sudah berfungsi.
Pertama, Anda harus menjalankan python terbaru di sistem Anda dengan Python Package Manager yang ditingkatkan ke yang terbaru.
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv .Perubahan pertama ke direktori ke ruang kerja VS Code Anda, Obsidian Vault, atau folder tempat Anda ingin menginstal Navamai. Selanjutnya ciptakan lingkungan virtual.
python -m venv env Sekarang Anda dapat mengaktifkan lingkungan virtual Anda seperti itu. Anda akan melihat bahwa direktori diawali dengan (env) untuk menunjukkan bahwa Anda sekarang berjalan di lingkungan virtual.
. env/bin/activate Untuk meninggalkan lingkungan virtual menggunakan perintah deactivate . Masuk kembali menggunakan perintah yang sama seperti sebelumnya.
Sekarang Anda siap menginstal Navamai.
*Perhatikan bahwa navamai , ask , image dan refer adalah empat perintah tingkat atas yang tersedia untuk Anda saat Anda menginstal Navamai.
| Memerintah | Contoh dan deskripsi |
|---|---|
| * bertanya | ask "your prompt"Singkirkan LLM untuk cepat, renyah (default hingga 300 kata), respons belokan tunggal askJelajahi folder prompt yang dikonfigurasi, daftar templat prompt untuk dijalankan pengguna. |
| audit | navamai auditAnalisis penggunaan Navamai Anda sendiri dari waktu ke waktu dengan dasbor baris perintah dan laporan Markdown yang mendalam. |
| konfigurasi | navamai config ask save trueEdit navamai.yml File Config dari baris perintah |
| mengumpulkan | navamai gather "webpage url"Mengikis dengan bersih artikel dari halaman web, tanpa menu, bilah samping, footer. Termasuk gambar. Menghemat saat penurunan harga yang diformat mirip dengan sumber HTML. Rujuk konten Markdown yang dikikis menggunakan perintah refer gather .Gunakan visi pada gambar yang dikikis menggunakan perintah navamai vision . |
| * merujuk | refer text-to-extractTelusuri satu set file teks mentah dan jalankan prompt khusus untuk mengekstrak konten terstruktur baru. refer inline-prompts-to-runJalankan permintaan tertanam inline dalam teks untuk memperluas, mengubah, dan mengonversi dokumen yang ada. refer intentsPerluas satu set maksud dan permintaan dalam template niat refer your-commandAnda dapat mengonfigurasi ekstensi Anda sendiri untuk merujuk perintah dengan hanya menyalin dan mengubah konfigurasi model yang refer-existing . |
| berlari | navamai runTelusuri Folder Code untuk File Markdown dengan Blok Kode, Buat, Mengatur, dan Jalankan Aplikasi Dalam satu perintah tunggal!File Markdown Folder Code dengan Blok Kode dibuat menggunakan perintah ask Create Vite App.md |
| pengenal | navamai idMengidentifikasi penyedia dan model saat ini untuk perintah asknavamai id section-nameMengidentifikasi penyedia dan model yang ditentukan dalam bagian tertentu |
| * gambar | imagePilih template prompt untuk menghasilkan gambar. image "Prompt for image to generate"Meminta untuk menghasilkan gambar. |
| init | navamai initInisialisasi Navamai di folder apa pun. Menyalin navamai.yml konfigurasi default dan niat mulai cepat dan menyematkan folder dan file. Cek sebelum menimpa. Gunakan -Force Option untuk memaksa file dan folder yang menimpa. |
| maksud | navamai intents "Financial Analysis"Pilih secara interaktif dari daftar maksud dalam templat untuk merujuk ke embed konten |
| menggabungkan | navamai merge "Source File"Temukan Source File updated dengan tag placeholder [merge here] atau seperti yang didefinisikan dalam konfigurasi merge , kemudian menggabungkan dua file ke dalam Source File merged . Gunakan bersama dengan perintah refer inline-prompts-to-run untuk mengurangi jumlah token yang diproses saat mengedit teks panjang untuk konteks tetapi hanya memperbarui bagian. |
| membelah | navamai split "Large File"Gunakan perintah ini untuk membagi file besar menjadi potongan -potongan dalam rasio tertentu dari konteks model target. Anda dapat mengonfigurasi model dan rasio target di bagian split konfigurasi. File asli tetap tidak tersentuh dan file baru dengan nama yang sama dan part # suffix dibuat. |
| tes | navamai test askUji perintah Navamai menggunakan semua penyedia dan model yang ditentukan dalam konfigurasi navamai.yml dan memberikan ringkasan uji.navamai test visionTest Vision Model. |
| tren | navamai trendsVisualisasikan tren latensi dan panjang token berdasarkan navamai test berjalan untuk perintah ask dan vision di seluruh model dan penyedia. Anda dapat tren selama beberapa hari menggunakan opsi perintah --days 7 . |
| mengesahkan | navamai validate "Financial Analysis"Memvalidasi semak yang dihasilkan sebelumnya menjalankan model lain dan melaporkan perbedaan persentase antara konten yang divalidasi dan asli. |
| penglihatan | navamai vision -p path/to/image.png "Describe this image"Menjalankan model visi pada gambar dari jalur lokal (-p), url (-u), atau kamera (-c) dan merespons berdasarkan prompt. |
Menggunakan Navamai dengan beberapa perintah sederhana di terminal Anda, Anda dapat membuat Manajer Konten AI pribadi yang sederhana namun kuat dengan alat Markdown pilihan Anda seperti Obsidian atau VS Code. Misalnya, Anda dapat menulis posting blog parsial, menulis ide benih Anda, mulai dengan daftar maksud dan petunjuk, atau menangkap catatan parsial dari kuliah di mana Anda sedikit terganggu.
Kemudian Anda dapat menggunakan perintah refer bersama dengan konfigurasi refer-section khusus di dalam navamai.yml untuk memperluas konten parsial, tidak lengkap, atau benih ini ke dalam posting, catatan, artikel, templat yang cepat, dan bahkan makalah yang diteliti dengan baik. Anda dapat bereksperimen dengan pilihan model dan penyedia, Tune Model Pengaturan di Konfigurasi berdasarkan Jenis Dokumen, Tentukan Folder Kustom untuk Konten Anda, dan Tentukan Dokumen Permintaan Sistem Khusus untuk mendapatkan hasil yang Anda inginkan berdasarkan jenis dokumen. Anda hanya perlu mengingat satu refer sederhana dan Anda siap.
Sebagai contoh cepat, lihat folder Posts dengan sampel posting tertulis sebagian pada strategi pertumbuhan startup. Sekarang lihat bagian konfigurasi terkait dalam navamai.yml untuk memperluas posting.
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5 Harap dicatat bahwa untuk singkatnya kami tidak mencantumkan prompt sistem lengkap di sini. Anda jelas dapat mengubahnya sesuai dengan alur kerja Anda. Untuk saat ini, cukup jalankan refer post-to-update "startup-growth-hacking" dalam folder kerja di mana Anda menginisialisasi Navamai. Segera respons model mulai mengalir ke terminal Anda. Posting yang diperluas disimpan di folder Posts dengan awalan updated sehingga Anda dapat membandingkan dengan aslinya.
Untuk membuat jenis dokumen baru seperti makalah penelitian, catatan kelas, resep memasak, atau apa pun, yang perlu Anda lakukan hanyalah menyalin dan menyesuaikan salah satu bagian refer-post-to-update atau refer-intents-to-expand ke dalam sesuatu seperti bagian refer-notes-to-summarize kustom Anda. Kemudian Anda dapat menjalankan perintah khusus pada jenis dokumen baru Anda seperti refer notes-to-summarize "your-notes-file" dan mencapai hasil yang sama.
Ketika dikombinasikan dengan perintah Navamai lainnya, alur kerja ini bisa menjadi lebih kuat. Sebagai contoh, mulailah dengan mendefinisikan templat dokumen Anda untuk serangkaian maksud dan diminta sebagai penurunan harga yang sederhana. Misalnya Financial Analysis atau Product Management ditampilkan di sini. Selanjutnya tambahkan beberapa niat seperti judul, Macro Factors Impact Stocks atau Top Companies by ROCE dan sebagainya. Kemudian tambahkan prompt sederhana di bawah maksud ini untuk menghasilkan konten. Anda sekarang dapat menggunakan Navamai untuk memperluas pada serangkaian maksud dan meminta dalam templat dokumen Anda dengan perintah refer intents-to-expand "Financial Analysis" dan model akan melakukan brainstorm lebih banyak maksud dan diminta untuk Anda gunakan.
Sekarang jalankan navamai intents-to-expand "Financial Analysis" dan pilih di antara daftar niat untuk menghasilkan sebagai konten embeds. Respons disimpan di bawah folder Embeds secara otomatis dan embed dihubungkan dalam templat dokumen Anda secara instan. Bilas, ulangi.
Alur kerja ini bisa menjadi sangat berguna dengan sangat cepat. Karena setiap template telah menghubungkan embed, tampilan grafik obsidian dapat digunakan untuk memvisualisasikan tautan. Anda bisa mendapatkan kreatif dan menghubungkan templat terkait atau bahkan meningkatkan embed yang dihasilkan dengan lebih banyak niat. Tentu saja ini juga berarti Anda dapat menggunakan semua plugin Obsidian yang hebat untuk menghasilkan situs web, PDF, dan banyak lagi. Kreativitas Anda + Obsidian + Navamai = Magic!
Navamai hadir dengan dukungan yang dapat dikonfigurasi untuk lebih dari 15 model terkemuka dari lima penyedia (Ollama, Anthropic, Openai, Groq, Google). Perintah navamai test dapat digunakan untuk menjalankan masing -masing perintah Navamai atas semua kombinasi penyedia dan model dan merespons dengan ringkasan hasil uji model dan evaluasi. Gunakan ini untuk membandingkan model dan penyedia dengan cepat serta ketika Anda menambahkan atau menghapus model atau penyedia baru di konfigurasi.
Perintah ini sangat berguna ketika membandingkan waktu respons model (latensi), kualitas respons (apakah mengikuti sistem dan instruksi cepat), akurasi respons, dan panjang token (biaya) untuk prompt yang sama. Anda dapat mengonfigurasi prompt tes di dalam navamai.yml di bagian test .
Berikut adalah contoh menjalankan perintah navamai test vision dan ringkasan uji yang dihasilkan. I Prompt dan gambar default ini kami berbagi gambar sekitar 150-160 orang berdiri di dekat lingkaran dan meminta model untuk menghitung jumlah orang. Angka yang tepat adalah antara 150-160. Ini dapat digunakan untuk menghitung akurasi relatif dari masing -masing model berdasarkan respons. Seberapa dekat respons mengikuti prompt sistem dan permintaan pengguna menunjukkan kualitas respons.
Anda juga dapat melihat waktu respons tampak sebanding dengan ukuran model. Untuk Claude, Opus> Sonnet> Haiku. Untuk Gemini, pro> flash. Untuk Openai, GPT-4O> GPT-4-Mini.
Anda juga dapat menjalankan perintah navamai test ask untuk menguji semua model dan penyedia. Dalam menjalankan ini Anda mungkin menemukan Groq adalah salah satu penyedia tercepat dalam hal waktu respons.
Tentu saja, Anda mungkin memerlukan beberapa tes berjalan untuk mendapatkan intuisi waktu respons yang lebih baik karena ada beberapa faktor yang mempengaruhi latensi selain ukuran model atau arsitektur, seperti latensi jaringan, yang dapat berubah di beberapa uji run.
Setiap navamai test Command Run menyimpan data ringkasan uji dalam folder Metrics berdasarkan stempel waktu dan model penyedia. Seiring waktu Anda dapat memvisualisasikan tren latensi dan metrik jumlah token untuk melihat apakah model berkinerja secara konsisten. Jalankan perintah navamai trends untuk melihat tren selama 7 hari (default).
Visualisasi menggunakan Sparkline untuk menunjukkan tren data dari waktu ke waktu. Gunakan ini untuk memutuskan kapan/jika untuk mengganti model berdasarkan tren kinerja.
Ingin membandingkan beberapa model berdampingan? Yang perlu Anda lakukan adalah membuka beberapa cangkang atau instance terminal. Sekarang di masing -masing, satu per satu, ubah model, jalankan ask "prompt" yang sama dan bandingkan hasilnya berdampingan. Sederhana!
Karena perintah Navamai menggunakan konfigurasi navamai.yml di folder saat ini setiap kali mereka berjalan, Anda dapat membuat alur kerja yang lebih kompleks paralel, multi-model dan cross-provider alur kerja dengan hanya menyalin file konfigurasi ke beberapa folder dan menjalankan perintah di sana. Dengan cara ini Anda dapat menjalankan beberapa tugas yang berjalan lama pada model lokal dalam satu folder dan terminal. Saat Anda melakukan alur kerja sehari -hari di tempat lain. Dan sebagainya.
Tidak ada pemasaran perilaku atau pertumbuhan peretasan yang dapat dilakukan oleh bisnis dalam perintah Anda. Anda memandu alur kerja Anda dengan cara yang Anda rasakan. Jalankan penyedia model tercepat (GROQ dengan LLAMA 3.1), atau model yang paling mampu saat ini (Sonnet 3.5 atau GPT-4O), atau model kecil terbaru di laptop Anda (Mistral Nemo), atau model dengan konteks terbesar (Gemini 1.5 Flash), Anda memutuskan. Jalankan dengan WiFi cepat atau no-wifi (menggunakan model lokal), tidak ada kendala. Cari, riset, tanya jawab secara instan untuk mempelajari sesuatu atau menghasilkan serangkaian artefak untuk disimpan nanti. Beralih ke salah satu dari alur kerja ini adalah beberapa perubahan dalam file konfigurasi atau beberapa perintah yang mudah diingat di terminal Anda.
Anda juga dapat mengonfigurasi nama model khusus untuk pemetaan versi model aktual untuk menyederhanakan perintah switching model. Dengan pemetaan berikut, perintah untuk beralih model adalah navamai config ask model llama atau navamai config intents model haiku dan sebagainya.
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash Anda memutuskan model dan penyedia mana yang Anda percayai, atau bahkan memilih untuk menjalankan LLM secara lokal di laptop Anda. Anda mengendalikan seberapa pribadi data dan preferensi Anda tetap ada. Navamai mendukung model seni canggih dari Anthropic, Openai, Google, dan Meta. Anda dapat memilih penyedia atau ollama yang di -host sebagai penyedia model lokal di laptop Anda. Beralih antara model dan penyedia menggunakan perintah sederhana seperti navamai config ask model llama untuk beralih dari model saat ini.
Anda juga dapat memuat set konfigurasi model khusus yang dipetakan ke setiap perintah. Konfigurasikan ini di file navamai.yml . Berikut adalah contoh membatasi bagaimana navamai ask dan navamai intents perintah berperilaku berbeda menggunakan penyedia model lokal dan host.
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 Navamai menyimpan jejak perintah, permintaan, templat, folder pencarian, dan file menyimpan dalam file trail.yml . Anda dapat memvisualisasikan ini kapan saja menggunakan perintah navamai audit untuk mendapatkan wawasan penggunaan Navamai Anda dari waktu ke waktu.
Niat Anda adalah tugas yang ingin Anda jalankan, tujuan yang ingin Anda capai, rencana yang ingin Anda sadari, keputusan yang ingin Anda buat, atau pertanyaan yang ingin Anda jawab. Anda mengontrol seluruh pengalaman Navamai Anda dengan maksud Anda. Anda dapat menyimpan niat Anda sebagai garis besar tugas sederhana dalam file teks. Anda dapat mengingatnya saat Anda membutuhkan. Anda dapat menjalankan model dengan maksud Anda saat Anda merasa bugar. Anda dapat menyimpan hasil berdasarkan niat Anda.
Anda dapat memverifikasi konten yang dihasilkan oleh satu LLM dengan validasi dari model lain. Pastikan Anda hanya menjalankan perintah validasi setelah Anda menjalankan perintah refer intents untuk menghasilkan umpan pertama dari embeds. Gunakan navamai validate "Financial Analysis" atau templat niat apa pun yang telah Anda buat. Alur kerja untuk validasi mirip dengan niat memperluas. Hanya dalam hal ini, konfigurasi model validasi memutuskan model dan penyedia mana yang akan digunakan. Anda juga dapat memodifikasi prompt validasi untuk memeriksa hal -hal spesifik apa pun yang relevan untuk kasus penggunaan Anda. Diff dihitung pada teks asli dan divalidasi menghapus setiap Newline, ruang putih, atau pemformatan penurunan harga saat membuat perbandingan diff menggunakan penilaian kesamaan. Gunakan ini untuk mengotomatiskan validasi kualitas konten yang dihasilkan.