
Текстовый генератор - это система;
Текстовый генератор можно использовать с помощью API или самостоятельного размещения.
Генератор текста уравновешивает несколько моделей 7b для генерации текста.
Текстовый генератор также обогащает веб -ссылки с резюме текста.
Если подсказка содержит ссылки на изображения, они преобразуются в текст с использованием подписания и при необходимости OCR.
Пожалуйста, поддержите нас!
Вы можете поддержать нас, купив токены NetW, которые будут поддерживаемой валютой в приложении.
Также проверка Aiart-Generator.art и Netwrck.com
Вскоре:
Текстовый генератор совместим с OpenAI (но еще не API CHATGPT)
Также есть больше управления генерацией текста через API текста-генератора, это включает в себя;
Текстовый генератор также имеет маршруты для речи к текстовым и речевым поколению.
Смотрите https://text-generator.io/docs
cd
mkdir code
cd code
git clone 20-questionsEnv vars:
GOOGLE_APPLICATION_CREDENTIALS= $HOME /code/20-questions/secrets/google-credentials.json ;
PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFAsudo apt install -y ffmpeg
sudo apt install -y tesseract-ocr
sudo apt install -y python3.9-distutilspip install -r requirements.txt
pip install -r questions/inference_server/model-requirements.txt
pip install -r dev-requirements.txtИспользование CUDA важно для ускорения вывода.
python -m nltk.downloader punktУстановите некоторые переменные среды в этом файле (поддельные для Local Dev в порядке)
mv sellerinfo_faked.py sellerinfo.pyСкачать модели с Huggingface.
huggingface-cli download HuggingFaceTB/SmolLM-1.7B --local-dir models/SmolLM-1.7BМодели текстовых генераторов еще не открыты.
Пожалуйста, поддержите нас, чтобы получить модели
Загрузите модели и поместите их в папку моделей.
должно быть три модели:
Модели/TG Общая модель, доступная с моделью = многоязычные модели/TGZ.
Model = Best настроен, чтобы выяснить, какую модель использовать на основе оценки подсказки на основе недоумения каждой модели.
Это требует настройки для AVG и STD отклонения недоумения, так как у каждой модели есть разные представления о том, насколько это конфиденто. Спроектированные модели более уверены в том, что весь текст находится в наборе данных (имеет тенденцию генерировать текстовый дослов из набора данных).
Модели могут быть указаны на использование переменных среды, например, с использованием моделей от Hugginface вместо этого для тестирования
WEIGHTS_PATH_TGZ=bigscience/bloomz
WEIGHTS_PATH_TGC=decapoda-research/llama-7b-hf
WEIGHTS_PATH=bigscience/bloom
Модель встраивания - меньшая модель.
cd models
git clone https://huggingface.co/distilbert-base-uncasedМодели Whisper и STT будут загружены по требованию и помещены в кеш HuggingFace.
запустить пользовательский интерфейс
uvicorn main:app --reload --workers=1
# or
uvicorn -k uvicorn.workers.UvicornWorker -b :3004 main:app --timeout 60000 -w 1В качестве альтернативы:
SERVER_SOFTWARE=Development/dev gunicorn -k uvicorn.workers.UvicornWorker -b :3004 main:app --timeout 60000 -w 1Текстовый генератор может работать локально без докера.
Установите nvidia-docker2
sudo apt-get install nvidia-docker2Текстовый генератор построен с BuildX
DOCKER_BUILDKIT=1 docker buildx build . -t questionssudo docker run -v $( pwd ) /models:/models -p 9000:8080 questionsFrontend API Playground доступна по адресу https://text-generator.io и написана для Google App Engine.
Бежать на местном уровне:
gunicorn -k uvicorn.workers.UvicornWorker -b :3030 main:app
PYTHONPATH=$(pwd):$PYTHONPATH:$(pwd)/OFA gunicorn -k uvicorn.workers.UvicornWorker -b :3030 questions.inference_server.inference_server:app
PYTHONPATH= $( pwd ) : $( pwd ) /OFA GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 questions.inference_server.inference_server:app --timeout 180000 --workers 1
PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFA: $HOME /code/20-questions/OFA/fairseq GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 questions.inference_server.inference_server:app --timeout 180000 --workers 1Затем перейдите в Localhost: 9080/DOCS, чтобы использовать API
Просто шепота речи к текстовой части. Это не требуется, так как сервер вывода автоматически уравновешивает эти запросы
PYTHONPATH= $( pwd ) : $( pwd ) /OFA GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 audio_server.audio_server:app --timeout 180000 --workers 1 GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json ; PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFA pytestDocker Container .tar скачать
curl https://static.text-generator.io/static/resources/download_container.sh | bash
После загрузки контейнера с любым методом, приступите к следовать инструкциям по самостоятельному ходу, доступным для Kubernetes, Docker
См
Обеспечить протестированный Docker локально/построенный один
Вы можете настроить Kubernetes на местном уровне, если вы делаете локальные разработки Kubernetes.
k delete -f kuber/prod/deployment-gpu.yaml
k apply -f kuber/prod/deployment-gpu.yaml
k get podsЗапустите оболочку в контейнере Docker
docker run -i -t -u root -v $( pwd ) /models:/models --entrypoint=/bin/bash questions -c /bin/bash ; Клон от Huggingface
cd models
git clone https://huggingface.co/distilbert-base-uncased
PYTHONPATH= $( pwd ) : $( pwd ) /OFA python questions/disbot/disbot.pyИспользуйте UV PIP для компиляции зависимостей
uv pip compile questions/inference_server/model-requirements.in --universal -o questions/inference_server/model-requirements.txtuv pip sync questions/inference_server/model-requirements.txtРастягивайте свое тело каждые 30 минут с помощью команды SAIT ...
watch -n 1800 ' echo "stretch your body" | espeak -s 120 '