QnA With RAG
1.0.0
QNA-With-rag是一個全堆棧應用程序,它將文本文檔轉換為大型語言模型(LLMS)的上下文,以參考聊天期間。您可以輕鬆添加,刪除文檔並創建多個知識庫。
該項目旨在使用OpenAI API創建一個可以生產的聊天機器人。它結合了VectordB和Langsmith以增強其功能。

在此處觀看應用程序的演示。
未來更新將包括:
克隆存儲庫
git clone [email protected]:Ja-yy/QnA-With-RAG.git設置環境變量
創建一個帶有以下內容的.env文件:
OPENAI_API_KEY='<your_open_ai_key>'
EMBEDDING_MODEL='text-embedding-ada-002'
CHAT_MODEL='gpt-3.5-turbo'
TEMPERATURE=0
MAX_RETRIES=2
REQUEST_TIMEOUT=15
CHROMADB_HOST="chromadb"
CHROMADB_PORT="8000"
CHROMA_SERVER_AUTH_CREDENTIALS="<test-token>"
CHROMA_SERVER_AUTH_CREDENTIALS_PROVIDER="chromadb.auth.token.TokenConfigServerAuthCredentialsProvider"
CHROMA_SERVER_AUTH_PROVIDER="chromadb.auth.token.TokenAuthServerProvider"
CHROMA_SERVER_AUTH_TOKEN_TRANSPORT_HEADER="AUTHORIZATION"
構建並運行應用程序
執行以下命令:
docker-compose up -d --build訪問應用程序
打開您的Web瀏覽器,然後轉到Localhost開始使用該應用程序。
NGINX配置
nginx目錄中正確設置您的NGINX配置文件,以獲得最佳性能。 如果我遇到問題,該怎麼辦?
docker-compose logs檢查日誌是否有故障排除。我該如何貢獻?
喜歡使用該應用! :)