AI สำหรับบรรทัดคำสั่งที่สร้างขึ้นสำหรับท่อ
AI แบบจำลองภาษาขนาดใหญ่ (LLM) มีประโยชน์ในการรับเอาต์พุตคำสั่งและรูปแบบผลลัพธ์ใน markdown, JSON และรูปแบบข้อความอื่น ๆ Mods เป็นเครื่องมือในการเพิ่ม AI โรยในบรรทัดคำสั่งของคุณและทำให้ท่อของคุณอัจฉริยะเทียม
มันใช้งานได้ดีกับ LLM ที่ทำงานในพื้นที่ผ่าน Localai นอกจากนี้คุณยังสามารถใช้ Openai, Cohere, Groq หรือ Azure Openai
ใช้แพ็คเกจผู้จัดการ:
# macOS หรือ linuxbrew ติดตั้ง charmbracelet/tap/mods# windows (พร้อมปีก) winget ติดตั้ง charmbracelet.mods# arch linux (btw) yay -s mods# nixnix -shell -p mods
sudo mkdir -p/etc/apt/keyrings Curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg ---dearmor -o /etc/apt/keyrings/charm.gpgecho "deb [signed-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * * *" | sudo tee /etc/apt/sources.list.d/charm.list Sudo Apt Update && sudo apt ติดตั้ง mods
echo '[Charm] name = charmbaseurl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgkey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yum ติดตั้ง mods
หรือดาวน์โหลด:
แพ็คเกจมีอยู่ในรูปแบบ Debian และ RPM
ไบนารีมีให้สำหรับ Linux, MacOS และ Windows
หรือเพียงแค่ติดตั้งด้วย go :
ไปติดตั้ง github.com/charmbracelet/mods@latest
แพ็คเกจและคลังเก็บทั้งหมดมาพร้อมกับไฟล์ที่สร้างไว้ล่วงหน้าล่วงหน้าสำหรับ Bash, ZSH, Fish และ PowerShell
หากคุณสร้างจากแหล่งที่มาคุณสามารถสร้างได้ด้วย:
Mods เสร็จสมบูรณ์ bash -h mods เสร็จสมบูรณ์ zsh -h Mods เสร็จปลา -H Mods เสร็จสมบูรณ์ PowerShell -H
หากคุณใช้แพ็คเกจ (เช่น Homebrew, Debs ฯลฯ ) ควรตั้งค่าความสำเร็จโดยอัตโนมัติเนื่องจากเชลล์ของคุณได้รับการกำหนดค่าอย่างถูกต้อง
mods ทำงานโดยการอ่านมาตรฐานในและนำหน้าด้วยคำแนะนำที่ให้มาในอาร์กิวเมนต์ mods มันส่งข้อความอินพุตไปยัง LLM และพิมพ์ผลลัพธ์โดยเลือกขอให้ LLM จัดรูปแบบการตอบกลับเป็น markdown สิ่งนี้ช่วยให้คุณ "คำถาม" เอาต์พุตของคำสั่ง mods จะทำงานกับมาตรฐานในหรืออาร์กิวเมนต์ที่ให้มาเป็นรายบุคคล
อย่าลืมตรวจสอบตัวอย่างและรายการคุณสมบัติทั้งหมด
Mods ทำงานร่วมกับจุดสิ้นสุดที่เข้ากันได้ของ OpenAI โดยค่าเริ่มต้น MODS ได้รับการกำหนดค่าให้รองรับ API อย่างเป็นทางการของ OpenAI และการติดตั้ง LocalAI ที่ทำงานบนพอร์ต 8080 คุณสามารถกำหนดค่าจุดสิ้นสุดเพิ่มเติมในไฟล์การตั้งค่าของคุณโดยเรียกใช้ mods --settings
การสนทนาจะถูกบันทึกไว้ในเครื่องโดยค่าเริ่มต้น การสนทนาแต่ละครั้งมีตัวระบุ SHA-1 และชื่อ (เช่น git !)
ตรวจสอบ ./features.md สำหรับรายละเอียดเพิ่มเติม
-m , --model : ระบุรูปแบบภาษาขนาดใหญ่ที่จะใช้
-f , --format : ขอให้ LLM จัดรูปแบบการตอบกลับในรูปแบบที่กำหนด
--format-as : ระบุรูปแบบสำหรับเอาต์พุต (ใช้กับ --format )
-P , --prompt : พรอมต์ควรรวมถึง stdin และ args
-p , --prompt-args : พรอมต์ควรรวมเฉพาะ args
-q , --quiet : เฉพาะข้อผิดพลาดในการส่งออกไปยัง ERR มาตรฐาน
-r , --raw : พิมพ์การตอบสนองแบบดิบโดยไม่ต้องเน้นไวยากรณ์
--settings : เปิดการตั้งค่า
-x , --http-proxy : ใช้ HTTP Proxy เพื่อเชื่อมต่อกับจุดสิ้นสุด API
--max-retries : จำนวนการลองใหม่สูงสุด
--max-tokens : ระบุโทเค็นสูงสุดที่จะตอบกลับ
--no-limit : อย่า จำกัด โทเค็นการตอบสนอง
--role : ระบุบทบาทที่จะใช้ (ดูบทบาทที่กำหนดเอง)
--word-wrap : ห่อเอาต์พุตที่ความกว้าง (ค่าเริ่มต้นถึง 80)
--reset-settings : คืนค่าการตั้งค่าเป็นค่าเริ่มต้น
-t , --title : ตั้งชื่อสำหรับการสนทนา
-l , --list : รายการที่บันทึกการสนทนา
-c , --continue : ดำเนินการต่อจากการตอบกลับล่าสุดหรือชื่อเฉพาะหรือ sha-1
-C , --continue-last : ต่อการสนทนาครั้งสุดท้าย
-s , --show : แสดงการสนทนาที่บันทึกไว้สำหรับชื่อที่กำหนดหรือ sha-1
-S , --show-last : แสดงการสนทนาก่อนหน้า
--delete-older-than=<duration> : ลบการสนทนาที่เก่ากว่าระยะเวลาที่กำหนด ( 10d , 1mo )
--delete : ลบการสนทนาที่บันทึกไว้สำหรับชื่อที่กำหนดหรือ sha-1
--no-cache : อย่าบันทึกการสนทนา
--fanciness : ระดับของความน่าเชื่อถือ
--temp : อุณหภูมิการสุ่มตัวอย่าง
--topp : ค่า P ด้านบน
--topk : ค่า K TOP
บทบาทอนุญาตให้คุณตั้งค่าระบบแจ้ง นี่คือตัวอย่างของบทบาท shell :
บทบาท: เชลล์:
- คุณเป็นผู้เชี่ยวชาญเชลล์- คุณไม่ได้อธิบายอะไรเลย- คุณเพียงแค่ส่งออกตอร์ปิโดหนึ่งใบเพื่อแก้ปัญหาที่คุณถาม- คุณไม่ได้ให้คำอธิบายใด ๆ ใด ๆ จากนั้นใช้บทบาทที่กำหนดเองใน mods :
mods -ไฟล์รายการเชลล์บทบาทในไดเรกทอรีปัจจุบัน
mods ใช้ GPT-4 โดยค่าเริ่มต้น มันจะกลับไปที่ GPT-3.5 Turbo
ตั้งค่าตัวแปรสภาพแวดล้อม OPENAI_API_KEY หากคุณยังไม่มีคุณสามารถคว้าเว็บไซต์ OpenAI ได้
อีกทางเลือกหนึ่งตั้งค่าตัวแปรสภาพแวดล้อม [ AZURE_OPENAI_KEY ] เพื่อใช้ Azure Openai คว้ากุญแจจาก Azure
Cohere จัดเตรียมโมเดลที่ดีที่สุดขององค์กร
ตั้งค่าตัวแปรสภาพแวดล้อม COHERE_API_KEY หากคุณยังไม่มีคุณสามารถรับได้จากแผงควบคุม Cohere
AI ท้องถิ่นช่วยให้คุณใช้งานรุ่นในพื้นที่ Mods ทำงานร่วมกับรุ่น GPT4ALL-J เป็นการตั้งค่าในบทช่วยสอนนี้
GROQ จัดทำโมเดลที่ขับเคลื่อนด้วยเอ็นจิ้นการอนุมาน LPU
ตั้งค่าตัวแปรสภาพแวดล้อม GROQ_API_KEY หากคุณยังไม่มีคุณสามารถรับได้จากคอนโซล Groq
เราชอบที่จะได้ยินความคิดของคุณเกี่ยวกับโครงการนี้ อย่าลังเลที่จะส่งข้อความถึงเรา
Fediverse
ความไม่ลงรอยกัน
มิกซ์
ส่วนหนึ่งของเสน่ห์
เสน่ห์热爱开源•เสน่ห์ชอบโอเพ่นซอร์ส