這是一個基於Python的Telegram聊天機器人,它使用帶有GPT-3.5-Turbo-*模型的OpenAI API,以對話框上下文感知方式向用戶提供對話響應。
您可以使用models.yml文件輕鬆地為聊天機器人配置OpenAI模型的參數。這種方法可以快速調整模型設置,例如temperature , max_tokens , voice等,而無需更改代碼。只需編輯models.yml文件即可根據需要更改聊天機器人的行為和響應樣式。
克隆或下載存儲庫。
git clone [email protected]:welel/dialog-chat-bot.git
在GPT-3.5-Turbo分支上結帳。
git checkout gpt-3.5-turbo
創建虛擬環境並激活它並安裝依賴項。
python -m venv env
source env/bin/activate
pip install --upgrade pip && pip install -r requirements.txt
要使用語音消息,請安裝FFMPEG。
# on Ubuntu or Debian
sudo apt update && sudo apt install ffmpeg
# on Arch Linux
sudo pacman -S ffmpeg
# on MacOS using Homebrew (https://brew.sh/)
brew install ffmpeg
# on Windows using Chocolatey (https://chocolatey.org/)
choco install ffmpeg
# on Windows using Scoop (https://scoop.sh/)
scoop install ffmpeg
複製/inname .env.dist為.env並填充數據。
cp .env.dist .env
設置電報機器人並獲取機器人令牌(請參閱https://medium.com/geekculture/generate-telegram-telegram-token-for-bot-api-api-d26faf9bf064)。
設置一個OpenAI帳戶並獲取API密鑰(請參閱https://beta.openai.com/docs/quickstart有關說明)。
運行機器人。
python bot.py
安裝Docker和Docker組成(如果您不知道如何鏈接)。
複製/inname .env.dist為.env並填充數據。
cp .env.dist .env
現在,只需構建圖像並使用Docker組成:
docker compose build
docker compose up -d
要開始與機器人進行交互,將任何消息發送給電報機器人。
聊天機器人使用models.yml文件來量身定制其響應。該文件允許對OpenAI模型參數進行詳細的自定義,從而根據不同的需求或上下文提供靈活性來調整機器人行為。
models.yml項目目錄中的models.yml文件包含不同模型或方案的配置。這是配置它的方法:
選擇一個模型:在models密鑰下,您可以定義多個配置。
每種配置都可以指定不同的OpenAI模型。例如, default配置使用gpt-3.5-turbo , max_tokens限制為100。您需要在環境變量型MODEL_CONFIG_NAME中設置模型配置名稱以選擇配置。
配置OpenAI聊天模型( chat_model部分) :
gpt-3.5-turbo模型,每個版本都具有不同的功能和上下文窗口尺寸。配置聊天機器人行為( chatbot部分) :
max_context_len參數定義單個對話窗口中考慮的令牌總數(用戶輸入和bot響應)。調整此功能有助於管理對話歷史記錄的細節,並可能影響計算要求和計費。配置機器人的語音( voice部分) :
alloy , echo , fable , onyx , nova和shimmer 。每個聲音都有獨特的音調和風格。