
ตัวสร้างข้อความเป็นระบบสำหรับ;
ตัวสร้างข้อความสามารถใช้งานผ่าน API หรือโฮสต์ด้วยตนเอง
ตัวสร้างข้อความสร้างสมดุลระหว่างรุ่น 7B หลายรุ่นเพื่อสร้างข้อความ
ตัวสร้างข้อความยังเพิ่มประสิทธิภาพการเชื่อมโยงเว็บด้วยบทสรุปข้อความ
หากพรอมต์มีลิงก์ไปยังรูปภาพพวกเขาจะถูกแปลงเป็นข้อความโดยใช้คำบรรยายภาพและหากจำเป็น OCR
โปรดสนับสนุนเรา!
คุณสามารถสนับสนุนเราได้โดยการซื้อโทเค็น NetW ซึ่งจะเป็นสกุลเงินที่รองรับภายในแอพ
เช็คเอาท์ aiard-generator.art และ netwrck.com
เร็วๆ นี้:
ตัวสร้างข้อความนั้นเข้ากันได้กับ API กับ OpenAI (แต่ยังไม่ได้เป็น API CHATGPT)
นอกจากนี้ยังมีการควบคุมการสร้างข้อความผ่าน API ตัวสร้างข้อความซึ่งรวมถึง;
ตัวสร้างข้อความยังมีเส้นทางสำหรับการพูดไปยังการสร้างข้อความและการพูด
ดู https://text-generator.io/docs
cd
mkdir code
cd code
git clone 20-questionsenv vars:
GOOGLE_APPLICATION_CREDENTIALS= $HOME /code/20-questions/secrets/google-credentials.json ;
PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFAsudo apt install -y ffmpeg
sudo apt install -y tesseract-ocr
sudo apt install -y python3.9-distutilspip install -r requirements.txt
pip install -r questions/inference_server/model-requirements.txt
pip install -r dev-requirements.txtการใช้ CUDA เป็นสิ่งสำคัญในการเพิ่มความเร็วในการอนุมาน
python -m nltk.downloader punktตั้งค่าตัวแปรสภาพแวดล้อมบางอย่างในไฟล์นี้ (ของปลอมไม่เป็นไรสำหรับ dev local)
mv sellerinfo_faked.py sellerinfo.pyดาวน์โหลดรุ่นจาก HuggingFace
huggingface-cli download HuggingFaceTB/SmolLM-1.7B --local-dir models/SmolLM-1.7Bรุ่นตัวสร้างข้อความยังไม่โอเพ่นซอร์ส
โปรดสนับสนุนเราเพื่อรับแบบจำลอง
ดาวน์โหลดรุ่นและวางไว้ในโฟลเดอร์โมเดล
ควรมีสามรุ่นที่วางไว้:
Models/TG โมเดลทั่วไปที่สามารถเข้าถึงได้ด้วย model = multilingual models/tgz แบบจำลองที่สามารถเข้าถึงได้ด้วย model = cruster models/tgc A โมเดลแชทที่สามารถเข้าถึงได้ด้วย model = chat
Model = Best ได้รับการกำหนดค่าให้คิดว่ารุ่นใดที่จะใช้ตามพรอมต์ที่ได้รับคะแนนตามความงุนงงของแต่ละรุ่น
สิ่งนี้ต้องการการปรับแต่งสำหรับการเบี่ยงเบน AVG และ STD ของความงุนงงเนื่องจากแต่ละรุ่นมีแนวคิดที่แตกต่างกันเกี่ยวกับความมั่นใจว่าเป็นอย่างไร โมเดลที่ได้รับการฝึกฝนนั้นมีความมั่นใจมากขึ้นเกี่ยวกับข้อความทั้งหมดที่อยู่ในชุดข้อมูล (มีแนวโน้มที่จะสร้างข้อความคำต่อคำจากชุดข้อมูล)
แบบจำลองสามารถชี้ไปที่การใช้ตัวแปรสภาพแวดล้อมเช่นการใช้แบบจำลองจาก Hugginface แทนการทดสอบ
WEIGHTS_PATH_TGZ=bigscience/bloomz
WEIGHTS_PATH_TGC=decapoda-research/llama-7b-hf
WEIGHTS_PATH=bigscience/bloom
โมเดลการฝังเป็นรุ่นที่เล็กกว่า
cd models
git clone https://huggingface.co/distilbert-base-uncasedรุ่น Whisper และ STT จะถูกโหลดตามความต้องการและวางไว้ในแคช HuggingFace
เรียกใช้ UI
uvicorn main:app --reload --workers=1
# or
uvicorn -k uvicorn.workers.UvicornWorker -b :3004 main:app --timeout 60000 -w 1หรือ
SERVER_SOFTWARE=Development/dev gunicorn -k uvicorn.workers.UvicornWorker -b :3004 main:app --timeout 60000 -w 1เครื่องกำเนิดข้อความสามารถวิ่งได้ในพื้นที่โดยไม่ต้องเทียบท่า
ติดตั้ง nvidia-docker2
sudo apt-get install nvidia-docker2ตัวสร้างข้อความถูกสร้างขึ้นด้วย buildx
DOCKER_BUILDKIT=1 docker buildx build . -t questionssudo docker run -v $( pwd ) /models:/models -p 9000:8080 questionsสนามเด็กเล่น Frontend API มีให้บริการที่ https://text-generator.io และเขียนขึ้นสำหรับ Google App Engine
เรียกใช้ในพื้นที่:
gunicorn -k uvicorn.workers.UvicornWorker -b :3030 main:app
PYTHONPATH=$(pwd):$PYTHONPATH:$(pwd)/OFA gunicorn -k uvicorn.workers.UvicornWorker -b :3030 questions.inference_server.inference_server:app
PYTHONPATH= $( pwd ) : $( pwd ) /OFA GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 questions.inference_server.inference_server:app --timeout 180000 --workers 1
PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFA: $HOME /code/20-questions/OFA/fairseq GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 questions.inference_server.inference_server:app --timeout 180000 --workers 1จากนั้นไปที่ LocalHost: 9080/เอกสารเพื่อใช้ API
เพียงแค่คำพูดกระซิบไปยังส่วนข้อความ สิ่งนี้ไม่จำเป็นเนื่องจากเซิร์ฟเวอร์การอนุมานจะทำให้คำขอเหล่านี้สมดุลโดยอัตโนมัติ
PYTHONPATH= $( pwd ) : $( pwd ) /OFA GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 audio_server.audio_server:app --timeout 180000 --workers 1 GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json ; PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFA pytestDocker Container .tar ดาวน์โหลด
curl https://static.text-generator.io/static/resources/download_container.sh | bash
หลังจากดาวน์โหลดคอนเทนเนอร์ด้วยวิธีใดวิธีหนึ่งให้ทำตามคำแนะนำโฮสต์ด้วยตนเองที่มีให้สำหรับ Kubernetes, Docker
ดู https://text-generator.io/self-hosting
ตรวจสอบให้แน่ใจว่านักเทียบท่าที่ผ่านการทดสอบในพื้นที่/สร้าง
คุณสามารถตั้งค่า Kubernetes ในพื้นที่ด้วยชนิดหากทำการพัฒนา Kubernetes ในท้องถิ่น
k delete -f kuber/prod/deployment-gpu.yaml
k apply -f kuber/prod/deployment-gpu.yaml
k get podsเรียกใช้เชลล์ในคอนเทนเนอร์ Docker
docker run -i -t -u root -v $( pwd ) /models:/models --entrypoint=/bin/bash questions -c /bin/bash ; โคลนจาก HuggingFace
cd models
git clone https://huggingface.co/distilbert-base-uncased
PYTHONPATH= $( pwd ) : $( pwd ) /OFA python questions/disbot/disbot.pyใช้ UV PIP เพื่อรวบรวมการพึ่งพา
uv pip compile questions/inference_server/model-requirements.in --universal -o questions/inference_server/model-requirements.txtuv pip sync questions/inference_server/model-requirements.txtยืดร่างกายของคุณทุก ๆ 30 นาทีด้วยคำสั่งพูด ...
watch -n 1800 ' echo "stretch your body" | espeak -s 120 '