ospeak
0.3
CLI工具,用於通過OpenAI文本運行文本到語音API並說話或保存結果
有關此項目的背景,請參見Ospeak:用於通過OpenAI在終端中說文本的CLI工具。
使用pipx安裝此工具:
pipx install ospeak請注意,在MacOS上,Python 3.12的依賴性破裂,因此可以運行:
pipx install --python /path/to/python3.11 ospeak該工具還取決於ffmpeg 。您可以使用這樣的自製在MacOS上安裝它:
brew install ffmpeg請注意, ospeak具有當前與LLM不兼容的依賴關係(請參閱此問題),因此需要在不同的虛擬環境中安裝兩個工具,因此建議使用PIPX。
要讓您的計算機說些什麼,請運行:
ospeak " Hello there "您將需要一個OpenAI API密鑰。您可以將其設置為環境變量:
export OPENAI_API_KEY= " ... "或者,您可以使用--token :
ospeak --token " ... " " Hello there "您可以將內容輸送到工具中:
echo " Hello there " | ospeak使用-v/--voice VOICE選擇聲音。默認值是alloy 。其他選項是:
echofableonyxnovashimmer您可以通過-v all聽到所有聲音,每個聲音都以首先說的聲音名稱。
ospeak " This is my voice " -v all -m/--model選項可用於選擇其他模型。默認值為tts-1 。使用-m tts-1-hd用於更高質量的模型,該模型需要更長的時間來生成音頻:
ospeak " This is higher quality " -m tts-1-hd要調整速度,請通過-x/--speed ,值在0.25和4之間(默認值為1.0):
ospeak " This is my fast voice " -x 2要將音頻寫入文件,請以.mp3或.wav結尾的文件名傳遞-o/--output :
ospeak " This is my voice " -o voice.mp3這不會大聲說出來。如果您還要說話,請添加-s/--speak選項:
ospeak " This is my voice " -o voice.mp3 -s Usage: ospeak [OPTIONS] [TEXT]
CLI tool for running text through OpenAI Text to speech
Set the OPENAI_API_KEY environment variable to your OpenAI API key to avoid
using the --token option every time.
Example usage:
ospeak "Everyone deserves a pelican" --voice alloy -x 1.5
Options:
--version Show the version and exit.
-v, --voice [alloy|echo|fable|onyx|nova|shimmer|all]
Voice to use
-m, --model TEXT Model to use - defaults to tts-1
-o, --output FILE Save audio to this file on disk
-x, --speed FLOAT RANGE Speed of the voice [0.25<=x<=4.0]
-s, --speak Speak the text even when saving to a file
--token TEXT OpenAI API key
--help Show this message and exit.
為了為此工具做出貢獻,請首先檢查代碼。然後創建一個新的虛擬環境:
cd ospeak
python -m venv venv
source venv/bin/activate現在安裝依賴項和測試依賴項:
pip install -e ' .[test] '進行測試:
pytest