llmapi server
1.0.0
Servidor LLMAPI de auto-host
中文文档
O LLMapi-Server é um back-end abstrato que encapsula uma variedade de modelos de idiomas grandes (LLM, como ChatGPT, GPT-3, GPT-4, etc.) e fornece serviços de acesso simples por meio de OpenAPI
? Se for útil para você, por favor, estrela?
Gráfico LR
Servidor Subgraph LLMapi
OpenApi -> Sessão
OpenApi -> pré_post
back -end do subgraf
Preenchimento de back -end de estilo:#f9f
pre_post-> chatgpt
pré_post-> Dall-e
pré_post-> llama
pré_post-> ...
fim
fim
Texto-> OpenApi
Imagem-> OpenApi
Incorporação-> Openapi
Outros-> Openapi
chatgpt : interface chatgpt oficial do OpenAI gpt3 : interface oficial do Openai GPT-3 gpt-embedding : interface oficial de incorporação do OpenAI dall-e : interface oficial do Openai welm : interface LLM do WeChat newbing : nova pesquisa de bing com base no chatgpt (não oficial) # python >= 3.8
python3 -m pip install -r requirements.txt
python3 run_api_server.py./build_docker.sh
./start_docker.shcurl para acessar: # 1. Start a new session
curl -X POST -H " Content-Type: application/json " -d ' {"bot_type":"mock"} ' http://127.0.0.1:5050/v1/chat/start
# response sample: {"code":0,"msg":"Success","session":"123456"}
# 2. chat with LLMs
curl -X POST -H " Content-Type: application/json " -d ' {"session":"123456","content":"hello"} ' http://127.0.0.1:5050/v1/chat/ask
# response sample: {"code":0,"msg":"Success","reply":"Text mock reply for your prompt:hello","timestamp":1678865301.0842562}
# 3. Close the session and end chat
curl -X POST -H " Content-Type: application/json " -d ' {"session":"123456"} ' http://127.0.0.1:5050/v1/chat/end
# response: {"code":0,"msg":"Success"}llmapi_cli --host= " http://127.0.0.1:5050 " --bot=mock from llmapi_cli import LLMClient
client = LLMClient ( host = "http://127.0.0.1:5050" , bot = "mock" )
rep = client . ask ( "hello" )
print ( rep )newllm ), você pode diretamente cp -r mock newllmmock , mude o nome de back -end para newllmnewllm , adicione as dependências necessárias e todo o desenvolvimento relacionado está vinculado a este diretórionewllm no backend.py