RSLLM เป็นท่อ AI 100% ในการเกิดสนิมสำหรับรหัสหม้อแปลง/เทนเซอร์ที่ใช้ประโยชน์จากกรอบเทียนจาก HuggingFace มันแสดงถึงวิธีการเขียนโปรแกรมการเขียนโปรแกรมระบบเพื่อการโต้ตอบแบบจำลอง AI และการวิเคราะห์สตรีม มันสามารถทำงานได้ในพื้นที่บน GPUs มันมุ่งเน้นไปที่การสนับสนุนอุปกรณ์ MacOS ที่ติดตั้ง GPU แขน M1/M2/M3 ไปป์ไลน์ AI นี้ได้รับการออกแบบมาสำหรับนักพัฒนาและนักวิจัยที่มีเป้าหมายที่จะรวมโมเดลภาษาขนาดใหญ่ในท้องถิ่น (LLMs) เข้ากับสนิมข้ามความต้องการการพึ่งพาภายนอกและรหัส Python สำหรับแชทบอทและโปรแกรม AI อื่น ๆ ที่สำคัญของมัน RSLLM เน้นการใช้ประโยชน์จาก LLM ในท้องถิ่นสำหรับการสร้างข้อความรูปภาพและการพูดภายในสภาพแวดล้อมที่เป็นสนิมซึ่งนำเสนอชุดคุณสมบัติที่แข็งแกร่งสำหรับการวิเคราะห์สตรีมข้อมูลแบบเรียลไทม์และการสร้างเนื้อหาที่ขับเคลื่อนด้วย AI RSLLM สามารถเรียกใช้บอตแชท Twitch Channell และ NDI Video/Audio พร้อมภาพการแพร่กระจายที่เสถียรและเอาต์พุตคำพูด TTS ผ่านซอฟต์แวร์ที่เข้ากันได้กับ NDI คุณสามารถตั้งค่า OBS เพื่อใช้ฟีด NDI และตั้งค่าช่อง Twitch ของคุณจากนั้นมีการแชทเต็มรูปแบบและการพูด/การสร้างช่องสัญญาณ Twitch ที่ปรับแต่งได้ AI ขับเคลื่อนอย่างเต็มที่คุณสามารถทำให้ลำแสง Twitch ค่อนข้างอัตโนมัติ นอกจากนี้คุณสามารถวิเคราะห์ MPEGTS สตรีมหรือสถิติระบบระบบปฏิบัติการได้เช่นกันหากต้องการคุณสามารถรวมทั้งสองและให้ผู้ใช้แชทแสดงความคิดเห็นและสอบถามสตรีมที่วิเคราะห์ได้อย่างมีประสิทธิภาพ
Candle โครงการโดย HuggingFace นำเสนอ LLM ที่เป็นสนิมเช่น Mistral และ Gemma ซึ่งได้รับการปรับให้เหมาะสมสำหรับ GPU โลหะบน MacOS การรวมนี้ช่วยอำนวยความสะดวกในการดำเนินการ LLM ในท้องถิ่นเพื่อให้มั่นใจว่ามีประสิทธิภาพสูงและเวลาแฝงต่ำในการโต้ตอบแบบจำลอง AI
ในขณะที่การมุ่งเน้นหลักของ RSLLM คือการใช้งาน LLM ในท้องถิ่น แต่ยังให้การสนับสนุน OpenAI API ทำให้ผู้ใช้สามารถใช้ประโยชน์จากโมเดล AI ภายนอกเมื่อจำเป็น คุณลักษณะนี้ช่วยให้มั่นใจได้ว่าจะมีความหลากหลายและการบังคับใช้ในวงกว้างในโครงการที่ขับเคลื่อนด้วย AI ต่างๆโดยใช้โมเดลที่กำหนดเอง
RSLLM เก่งในการวิเคราะห์สตรีมข้อมูลแบบเรียลไทม์และสร้างเนื้อหาที่ขับเคลื่อนด้วย AI รวมถึงข้อความรูปภาพและคำพูด มันมีจุดมุ่งหมายเพื่อสร้างแบบจำลองการโต้ตอบแบบไดนามิกที่สามารถแปลงเสียงด้วยเสียงเป็นคำสั่งข้อความสำหรับ LLM และเอาต์พุตที่สร้างขึ้นสามารถสตรีมกลับเป็นเนื้อหาเสียงหรือเนื้อหาภาพ
โคลนที่เก็บ :
git clone https://github.com/groovybits/rsllm.gitนำทางไปยังไดเรกทอรีโครงการ :
cd rsllmรวบรวมด้วยการสนับสนุน Metal GPU และการสนับสนุน NDI SDK :
./scripts/compile.sh # Script handles NDI SDK dependency and DYLD_LIBRARY_PATH.env.example เป็น .env และปรับแต่งการตั้งค่ารวมถึงคีย์ OpenAI API หากตั้งใจจะใช้โมเดล AI ภายนอก RSLLM ได้รับการออกแบบมาเพื่ออำนวยความสะดวกในการดำเนินงานที่ขับเคลื่อนด้วย AI ที่หลากหลายตั้งแต่การสร้างเนื้อหาที่ใช้ข้อความไปจนถึงการวิเคราะห์สตรีมเครือข่ายและการประมวลผลอินพุตภาพและเสียง คุณสมบัติขั้นสูงเช่นเอาท์พุทเสียง NDI และการประมวลผลอินพุตด้วยเสียงด้วยเสียงอยู่ในการพัฒนาโดยมีวัตถุประสงค์เพื่อเพิ่มความสามารถในการโต้ตอบของชุดเครื่องมือ
ใช้สคริปต์ในไดเรกทอรี./scripts
./scripts/compile.sh # Build RsLLM
./scripts/broadcast_personality.sh # Full command line shown for most features (use personalities in ./personalities dir as an arg)
./scripts/mpeg_analyzer.sh # Experimental MpegTS Analyzer mode (WIP)
./scripts/mpeg_poetry.sh # Fun poetry about MpegTS Broadcasting with stream input prompt injection
./scripts/system_health.sh # System health status from OS Stats prompt injection ออกอากาศไปยัง OBS ด้วย NDI พร้อมท่อเต็ม :
./scripts/broadcast_personality.sh buddhaการทำงานด้วยสถิติเทียนและระบบปฏิบัติการสำหรับการวิเคราะห์ระบบ AI :
cargo run --release --features fonts,ndi,mps,metavoice,audioplayer --
--candle_llm gemma
--model-id " 2b-it "
--max-tokens 800
--temperature 0.8
--ai-os-stats
--sd-image
--ndi-images
--ndi-audio
--system-prompt " You create image prompts from OS system stats health state. "
--query " How is my system doing? Create a report on the system health as visual image descriptions. " RSLLM กำลังเพิ่มขีดความสามารถในการส่งออกเพื่อรวมการรองรับ NDI (อุปกรณ์เชื่อมต่ออุปกรณ์เครือข่าย) สำหรับภาพและเสียง TTS (ข้อความเป็นคำพูด) ซึ่งอำนวยความสะดวกในการสตรีมวิดีโอคุณภาพสูงและความล่าช้าผ่านเครือข่าย IP
--features ndi ไปยังคำสั่ง Build Cargo เพื่อรวมการสนับสนุน NDI ในงานสร้างของคุณscripts/compile.sh ซึ่งจะดึง libndi.dylib ที่ทำงานได้ดีที่สุดสำหรับ macOScargo --features=ndi ตั้งค่าตัวแปรสภาพแวดล้อม DYLD_LIBRARY_PATH : export DYLD_LIBRARY_PATH= ` pwd ` : $DYLD_LIBRARY_PATHhuggingface-cli login เพื่อตรวจสอบสิทธิ์เทียน, กรอบการเกิดสนิมหลักของเราสำหรับการโต้ตอบ LLM ตอนนี้รวมถึง Metavoice, เทคโนโลยีการพูดแบบข้อความเป็นคำพูดที่ก้าวล้ำ (TTS) เมื่อคุณลักษณะนี้ดีขึ้นมันจะช่วยให้ LLM ที่ใช้สนิมบริสุทธิ์, TTI (ข้อความต่อภาพ) และฟังก์ชัน TTS รวมเข้ากับการเพิ่มประสิทธิภาพ GPU โลหะสำหรับ MacOS อย่างราบรื่น
ภารกิจของ RSLLM คือการวิจัยและสำรวจการใช้งานชุดเครื่องมือที่มีประสิทธิภาพสูงและมีประสิทธิภาพสูงสำหรับการสร้างเนื้อหาและการวิเคราะห์ที่ขับเคลื่อนด้วย AI บน MacOS ใช้ประโยชน์จากศักยภาพของ GPU โลหะและประสิทธิภาพของ Rust
การบริจาคได้รับการต้อนรับอย่างอบอุ่นโดยเฉพาะอย่างยิ่งในด้านต่าง ๆ เช่นการพัฒนาคุณลักษณะการเพิ่มประสิทธิภาพประสิทธิภาพและเอกสาร ความเชี่ยวชาญของคุณสามารถเพิ่มขีดความสามารถและประสบการณ์ของผู้ใช้อย่างมีนัยสำคัญ
โครงการนี้ได้รับใบอนุญาตภายใต้ใบอนุญาต MIT ดูไฟล์ใบอนุญาตสำหรับข้อมูลโดยละเอียด
Chris Kennedy นำการพัฒนาโซลูชั่น AI ที่เป็นนวัตกรรมด้วยชุดเครื่องมือ MacOS Metal GPU Rust LLM กุมภาพันธ์ 2567
เรามุ่งมั่นที่จะผลักดันขอบเขตของการรวม AI ด้วยเทคโนโลยีวิดีโอและอินพุต/เอาต์พุตหลายรูปแบบบนซีพียู MacOS ARM ใน Pure Rust ทำให้มั่นใจได้ว่านักพัฒนาสื่อและนักวิจัยสามารถเข้าถึงเครื่องมือที่มีประสิทธิภาพมีประสิทธิภาพและหลากหลายสำหรับโครงการ AI ที่ขับเคลื่อนด้วย