
テキストジェネレーターはシステムです。
テキストジェネレーターは、APIまたはセルフホストを介して使用できます。
テキストジェネレーターは複数の7Bモデルのバランスを取り、テキストを生成します。
テキストジェネレーターは、テキストの要約でWebリンクを濃縮します。
プロンプトに画像へのリンクが含まれている場合、キャプションを使用してテキストに変換され、必要に応じてOCRがあります。
サポートしてください!
アプリ内でサポートされている通貨となるNetwトークンを購入することで、私たちをサポートできます。
また、aiart-generator.artおよびnetwrck.comをチェックアウトします
近日公開:
テキストジェネレーターはOpenaiとAPI互換性があります(ただし、ChatGPT APIではありません)
また、テキストジェネレーターAPIを介してテキスト生成のより多くの制御があります。これには次のものが含まれます。
テキストジェネレーターには、テキストや音声生成への音声もあります。
https://text-generator.io/docsを参照してください
cd
mkdir code
cd code
git clone 20-questionsEnv vars:
GOOGLE_APPLICATION_CREDENTIALS= $HOME /code/20-questions/secrets/google-credentials.json ;
PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFAsudo apt install -y ffmpeg
sudo apt install -y tesseract-ocr
sudo apt install -y python3.9-distutilspip install -r requirements.txt
pip install -r questions/inference_server/model-requirements.txt
pip install -r dev-requirements.txtCUDAを使用することは、推論を高速化するために重要です。
python -m nltk.downloader punktこのファイルにいくつかの環境変数をセットアップします(偽のものはローカル開発では問題ありません)
mv sellerinfo_faked.py sellerinfo.pyHuggingfaceからモデルをダウンロードします。
huggingface-cli download HuggingFaceTB/SmolLM-1.7B --local-dir models/SmolLM-1.7Bテキストジェネレーターモデルはまだオープンソースではありません。
モデルを取得するために私たちをサポートしてください
モデルをダウンロードして、モデルフォルダーに配置します。
3つのモデルを配置する必要があります。
モデル/TGモデルでアクセス可能な一般的なモデル=多言語モデル/TGZモデルでアクセス可能な指示モデル=指示モデル/TGCモデル=チャットでアクセス可能なチャットモデル
Model = Bestは、各モデルの困惑に基づいてスコアリングされるプロンプトに基づいて使用するモデルを把握するように構成されています。
これには、各モデルには自信があるかについて異なるアイデアがあるため、AVGおよびSTD偏差の調整が必要です。訓練されたモデルは、すべてのテキストがデータセットにあることについてより自信を持っています(データセットからテキストの逐語を生成する傾向があります)。
モデルは、環境変数を使用することを指摘できます。たとえば、テストのために代わりにHugginfaceのモデルを使用する
WEIGHTS_PATH_TGZ=bigscience/bloomz
WEIGHTS_PATH_TGC=decapoda-research/llama-7b-hf
WEIGHTS_PATH=bigscience/bloom
埋め込みモデルは小さなモデルです。
cd models
git clone https://huggingface.co/distilbert-base-uncasedWhisperモデルとSTTモデルはオンデマンドでロードされ、ハギングフェイスキャッシュに配置されます。
UIを実行します
uvicorn main:app --reload --workers=1
# or
uvicorn -k uvicorn.workers.UvicornWorker -b :3004 main:app --timeout 60000 -w 1または、
SERVER_SOFTWARE=Development/dev gunicorn -k uvicorn.workers.UvicornWorker -b :3004 main:app --timeout 60000 -w 1テキストジェネレーターは、Dockerなしでローカルに実行できます。
nvidia-docker2をインストールします
sudo apt-get install nvidia-docker2テキストジェネレーターはBuildXで構築されています
DOCKER_BUILDKIT=1 docker buildx build . -t questionssudo docker run -v $( pwd ) /models:/models -p 9000:8080 questionsFrontEnd APIプレイグラウンドは、https://text-generator.ioで入手でき、Google App Engine向けに書かれています。
ローカルで実行:
gunicorn -k uvicorn.workers.UvicornWorker -b :3030 main:app
PYTHONPATH=$(pwd):$PYTHONPATH:$(pwd)/OFA gunicorn -k uvicorn.workers.UvicornWorker -b :3030 questions.inference_server.inference_server:app
PYTHONPATH= $( pwd ) : $( pwd ) /OFA GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 questions.inference_server.inference_server:app --timeout 180000 --workers 1
PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFA: $HOME /code/20-questions/OFA/fairseq GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 questions.inference_server.inference_server:app --timeout 180000 --workers 1次に、APIを使用するためにLocalHost:9080/docsに移動します
ささやきのスピーチだけでテキスト部分。推論サーバーはこれらの要求を自動的にバランスさせるため、これは必要ありません
PYTHONPATH= $( pwd ) : $( pwd ) /OFA GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json gunicorn -k uvicorn.workers.UvicornWorker -b :9080 audio_server.audio_server:app --timeout 180000 --workers 1 GOOGLE_APPLICATION_CREDENTIALS=secrets/google-credentials.json ; PYTHONPATH= $HOME /code/20-questions: $HOME /code/20-questions/OFA pytestDockerコンテナ.tarダウンロード
curl https://static.text-generator.io/static/resources/download_container.sh | bash
いずれかの方法でコンテナをダウンロードした後、Kubernetesで利用可能なセルフホストの指示に従って、Docker
https://text-generator.io/ self-hostingを参照してください
テスト済みのDockerがローカル/構築されたものを確認してください
地元のKubernetes開発を行う場合、Kubernetesを地元で地元でセットアップできます。
k delete -f kuber/prod/deployment-gpu.yaml
k apply -f kuber/prod/deployment-gpu.yaml
k get podsDockerコンテナでシェルを実行します
docker run -i -t -u root -v $( pwd ) /models:/models --entrypoint=/bin/bash questions -c /bin/bash ; Huggingfaceからのクローン
cd models
git clone https://huggingface.co/distilbert-base-uncased
PYTHONPATH= $( pwd ) : $( pwd ) /OFA python questions/disbot/disbot.pyUV PIPを使用して、依存関係をコンパイルします
uv pip compile questions/inference_server/model-requirements.in --universal -o questions/inference_server/model-requirements.txtuv pip sync questions/inference_server/model-requirements.txtSay Commandで30分ごとに体を伸ばしてください...
watch -n 1800 ' echo "stretch your body" | espeak -s 120 '