AI untuk baris perintah, dibangun untuk pipa.
Model Bahasa Besar (LLM) AI berguna untuk mencerna output perintah dan format menghasilkan markdown, JSON, dan format berbasis teks lainnya. Mods adalah alat untuk menambahkan taburan AI di baris perintah Anda dan membuat pipa Anda secara artifisial cerdas.
Ini bekerja sangat baik dengan LLMS berjalan secara lokal melalui localai. Anda juga dapat menggunakan OpenAi, Cohere, Groq, atau Azure Openai.
Gunakan manajer paket:
# MacOS atau LinuxBrew Instal Charmbracelet/Tap/Mods# Windows (dengan Winget) Winget Instal Charmbracelet.mods# Arch Linux (BTW) Yay -S Mods# Nixnix -Shell -P Mods
sudo mkdir -p/etc/apt/keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg ---dearmor -o /etc/apt/keyrings/charm.gpgecho "deb [ditandatangani-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * * | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt install mods
echo '[charm] name = charmbaseUrl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgkey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yum instal mods
Atau, unduh:
Paket tersedia dalam format Debian dan RPM
Binari tersedia untuk Linux, MacOS, dan Windows
Atau, pasang saja dengan go :
Pergi instal github.com/charmbracelet/mods@latest
Semua paket dan arsip dilengkapi dengan file penyelesaian yang dihasilkan sebelumnya untuk Bash, Zsh, Fish, dan PowerShell.
Jika Anda membangunnya dari sumber, Anda dapat menghasilkannya dengan:
mod penyelesaian mods -h mod penyelesaian zsh -h mod penyelesaian ikan -h mod penyelesaian PowerShell -h
Jika Anda menggunakan paket (seperti homebrew, debs, dll), penyelesaian harus diatur secara otomatis, mengingat shell Anda dikonfigurasi dengan benar.
Mod bekerja dengan membaca standar masuk dan mengukuhkannya dengan prompt yang disediakan dalam argumen mods . Ini mengirimkan teks input ke LLM dan mencetak hasilnya, secara opsional meminta LLM untuk memformat respons sebagai penurunan harga. Ini memberi Anda cara untuk "mempertanyakan" output dari suatu perintah. Mod juga akan bekerja pada standar atau argumen yang disediakan dengan cepat secara individual.
Pastikan untuk memeriksa contoh dan daftar semua fitur.
Mod bekerja dengan titik akhir yang kompatibel dengan openai. Secara default, MOD dikonfigurasi untuk mendukung API resmi OpenAI dan instalasi LocalAi yang berjalan di port 8080. Anda dapat mengonfigurasi titik akhir tambahan dalam file pengaturan Anda dengan menjalankan mods --settings .
Percakapan disimpan secara lokal secara default. Setiap percakapan memiliki pengidentifikasi SHA-1 dan judul (seperti git !).
Periksa ./features.md untuk lebih jelasnya.
-m , --model : Tentukan model bahasa besar untuk digunakan.
-f , --format : Minta LLM untuk memformat respons dalam format yang diberikan.
--format-as : Tentukan format untuk output (digunakan dengan --format ).
-P , --prompt : Prompt harus mencakup stdin dan args.
-p , --prompt-args : Prompt hanya boleh termasuk args.
-q , --quiet : Hanya kesalahan output ke ERR standar.
-r , --raw : Cetak respons mentah tanpa sorotan sintaks.
--settings : Pengaturan Buka.
-x , --http-proxy : Gunakan proxy http untuk terhubung ke titik akhir API.
--max-retries : Jumlah maksimum retries.
--max-tokens : Tentukan token maksimum yang dapat ditanggapi.
--no-limit : Jangan membatasi token respons.
--role : Tentukan peran yang akan digunakan (lihat peran khusus).
--word-wrap : Bungkus output dengan lebar (default ke 80)
--reset-settings : Kembalikan pengaturan ke default.
-t , --title : Tetapkan judul untuk percakapan.
-l , --list : Daftar percakapan yang disimpan.
-c , --continue : Lanjutkan dari respons terakhir atau judul spesifik atau SHA-1.
-C , --continue-last : Lanjutkan percakapan terakhir.
-s , --show : Tampilkan percakapan yang disimpan untuk judul yang diberikan atau SHA-1.
-S , --show-last : Tunjukkan percakapan sebelumnya.
--delete-older-than=<duration> : Menghapus percakapan yang lebih tua dari durasi yang diberikan ( 10d , 1mo ).
--delete : Menghapus percakapan yang disimpan untuk judul yang diberikan atau SHA-1.
--no-cache : Jangan simpan percakapan.
--fanciness : Tingkat keenungan.
--temp : Suhu pengambilan sampel.
--topp : Nilai P teratas.
--topk : Nilai Kop K.
Peran memungkinkan Anda untuk mengatur petunjuk sistem. Berikut adalah contoh peran shell :
Peran: Shell:
- Anda adalah seorang ahli shell- Anda tidak menjelaskan apa pun- Anda cukup mengeluarkan satu liner untuk menyelesaikan masalah yang Anda minta- Anda tidak memberikan penjelasan apa pun, hanya perintahnya Kemudian, gunakan peran khusus dalam mods :
Mods - -role Daftar file di direktori saat ini
Mod menggunakan GPT-4 secara default. Ini akan kembali ke GPT-3.5 Turbo.
Atur variabel lingkungan OPENAI_API_KEY . Jika Anda belum memilikinya, Anda dapat mengambilnya di situs web Openai.
Atau, atur variabel lingkungan [ AZURE_OPENAI_KEY ] untuk menggunakan azure openai. Ambil kunci dari Azure.
Cohere menyediakan model yang dioptimalkan oleh perusahaan.
Atur variabel lingkungan COHERE_API_KEY . Jika Anda belum memilikinya, Anda bisa mendapatkannya dari dasbor cohere.
AI lokal memungkinkan Anda menjalankan model secara lokal. Mods berfungsi dengan model GPT4ALL-J sebagai pengaturan dalam tutorial ini.
GroQ menyediakan model yang ditenagai oleh mesin inferensi LPU mereka.
Atur variabel lingkungan GROQ_API_KEY . Jika Anda belum memilikinya, Anda bisa mendapatkannya dari konsol GROQ.
Kami ingin mendengar pendapat Anda tentang proyek ini. Jangan ragu untuk memberi kami catatan.
The Fediverse
Perselisihan
Mit
Bagian dari pesona.
Pesona 热爱开源 • Pesona menyukai open source