llama dfdx
1.0.0
repo นี้มีรูปแบบภาษา Llama 7B ยอดนิยมนำไปใช้อย่างเต็มที่ในภาษาการเขียนโปรแกรมสนิม!
ใช้ DFDX Tensors และ CUDA Acceleration
สิ่งนี้ดำเนินการ Llama โดยตรงใน F16 ซึ่งหมายความว่าไม่มีการเร่งความเร็วฮาร์ดแวร์ใน CPU ขอแนะนำให้ใช้ CUDA อย่างหนัก
นี่คือรุ่น 7B ที่ทำงานบน A10 GPU:

sudo apt install git-lfsgit lfs installgit clone https://huggingface.co/decapoda-research/llama-7b-hfgit clone https://huggingface.co/decapoda-research/llama-13b-hfgit clone https://huggingface.co/decapoda-research/llama-65b-hfpython3.x -m venv <my_env_name> เพื่อสร้างสภาพแวดล้อมเสมือนจริงของ Python โดยที่ x เป็นรุ่น Python ที่คุณต้องการsource <my_env_name>binactivate (หรือ <my_env_name>Scriptsactivate ถ้าบน windows) เพื่อเปิดใช้งานสภาพแวดล้อมpip install numpy torchpython convert.py เพื่อแปลงน้ำหนักแบบจำลองเป็นรูปแบบที่เข้าใจได้เป็นสนิม: LLAMA 7B: python convert.py b. llama 13b: python convert.py llama-13b-hf c. Llama 65b: python convert.py llama-65b-hf คุณสามารถรวบรวมด้วยคำสั่งสนิมปกติ:
กับ Cuda:
cargo build --release -F cudaไม่มี cuda:
cargo build --releaseด้วยค่าเริ่มต้น args:
./target/release/llama-dfdx --model < model-dir > generate " <prompt> "
./target/release/llama-dfdx --model < model-dir > chat
./target/release/llama-dfdx --model < model-dir > file < path to prompt file >หากต้องการดูคำสั่ง/args ที่กำหนดเองที่คุณสามารถใช้:
./target/release/llama-dfdx --help