llmapi server
1.0.0
Server LLMAPI yang menjadi tuan rumah sendiri
中文文档
LLMAPI-Server adalah backend abstrak yang merangkum berbagai model bahasa besar (LLM, seperti ChatGPT, GPT-3, GPT-4, dll.), Dan menyediakan layanan akses sederhana melalui OpenAPI
? Jika bermanfaat bagi Anda, silakan bintangi?
grafik lr
Server Subgraph llmapi
OpenAPI -> Sesi
OpenAPI -> Pre_post
Subgraph Backend
Style Backend Fill:#f9f
pre_post-> chatgpt
pre_post-> dall-e
Pre_post-> llama
pre_post-> ...
akhir
akhir
Teks-> OpenAPI
Gambar-> OpenAPI
Embedding-> Openapi
Lainnya-> Openapi
chatgpt : Antarmuka ChatGpt resmi Openai gpt3 : Antarmuka resmi GPT-3 Openai gpt-embedding : Antarmuka embedding resmi Openai dall-e : Antarmuka Dall Resmi Openai · E welm : Antarmuka LLM WeChat newbing : pencarian Bing baru berdasarkan chatgpt (tidak resmi) # python >= 3.8
python3 -m pip install -r requirements.txt
python3 run_api_server.py./build_docker.sh
./start_docker.shcurl untuk mengakses: # 1. Start a new session
curl -X POST -H " Content-Type: application/json " -d ' {"bot_type":"mock"} ' http://127.0.0.1:5050/v1/chat/start
# response sample: {"code":0,"msg":"Success","session":"123456"}
# 2. chat with LLMs
curl -X POST -H " Content-Type: application/json " -d ' {"session":"123456","content":"hello"} ' http://127.0.0.1:5050/v1/chat/ask
# response sample: {"code":0,"msg":"Success","reply":"Text mock reply for your prompt:hello","timestamp":1678865301.0842562}
# 3. Close the session and end chat
curl -X POST -H " Content-Type: application/json " -d ' {"session":"123456"} ' http://127.0.0.1:5050/v1/chat/end
# response: {"code":0,"msg":"Success"}llmapi_cli --host= " http://127.0.0.1:5050 " --bot=mock from llmapi_cli import LLMClient
client = LLMClient ( host = "http://127.0.0.1:5050" , bot = "mock" )
rep = client . ask ( "hello" )
print ( rep )newllm ), Anda dapat langsung cp -r mock newllmmock , ubah nama backend menjadi newllmnewllm , tambahkan dependensi yang diperlukan, dan semua pengembangan terkait terikat pada direktori ininewllm di backend.py