โมเดลภาษาขนาดใหญ่ (LLM)
หนังสืออ้างอิง: การเรียนรู้รูปแบบภาษาขนาดใหญ่ [Google Preview] [GitHub Link]
รหัสคำอธิบาย: ลิงก์
สารบัญ
แบบจำลองตามกฎ
- การแยกหมายเลขโทรศัพท์โดยใช้นิพจน์ทั่วไป
- การจับคู่รูปแบบโดยใช้ชิ้นส่วนของแท็กคำพูด
- การจับคู่โทเค็นเฉพาะกับคุณลักษณะเฉพาะ
รูปแบบภาษาสถิติ
- การใช้แบบจำลองภาษา Bigram อย่างง่าย
- Ngrams ของประโยค
การประมวลผลข้อมูลล่วงหน้า
- การทำความสะอาดข้อมูลพื้นฐาน
- การตรวจจับเอนทิตี
- การไม่เปิดเผยตัวตน
- ตัวอย่างการประมวลผลข้อความล่วงหน้า
- แท็กส่วนหนึ่งของคำพูด (POS)
- การแยกวิเคราะห์การพึ่งพา
เครือข่ายประสาท
- เครือข่ายประสาทไปข้างหน้าเพื่อแก้ปัญหา xnor
- LSTM สำหรับการจัดหมวดหมู่การตรวจสอบภาพยนตร์ IMDB
- GRU สำหรับการจำแนกความเชื่อมั่นในภาพยนตร์ IMDB
- RNN แบบสองทิศทางสำหรับ IMDB Movie Review การจำแนกความเชื่อมั่น
- สถาปัตยกรรมแบบจำลองภาษาที่ใช้ CNN
โมเดลที่ใช้หม้อแปลง
- การสร้างภาพด้วยตนเอง
- การเข้ารหัสตำแหน่ง
การฝึกอบรมแบบจำลองภาษาขนาดใหญ่
- การออกแบบ LLM เล็ก ๆ สำหรับการสร้างข้อความ
- การออกแบบรูปแบบการสร้างข้อความระดับตัวละคร
- การออกแบบรูปแบบการสร้างข้อความระดับคำ
- การออกแบบรูปแบบการสร้างข้อความระดับคำพร้อมชุดข้อมูลขนาดใหญ่
- โมเดลการสร้างข้อความโดยใช้ T5
การปรับแต่งแบบจำลองภาษาขนาดใหญ่
- ปรับแต่ง Gemma 2 2b-it จากการกอดใบหน้า
บทนำสู่ Ollama
- การอนุมาน LLAMA 3.2 รุ่นโดยใช้ Ollama Python Library
- การอนุมาน Gemma 2 รุ่นโดยใช้ Ollama Python Library
- การอนุมานแบบจำลอง LLAVA โดยใช้ Ollama Python Library
รู้เบื้องต้นเกี่ยวกับ Langchain
- การอนุมาน Llama 3.2 แบบจำลองโดยใช้ Langchain และ Ollama
- การอนุมานแบบจำลอง Llava โดยใช้ Langchain และ Ollama
Generation Retrieval-Augmented (RAG)
- การออกแบบไปป์ไลน์การดึง (RAG) การดึงข้อมูลโดยใช้ llamainedex และ Ollama
- การออกแบบท่อส่ง (RAG) Retrieval-Augmented (RAG) สำหรับรุ่น Gemma 2
วิศวกรรมที่รวดเร็ว