다른 공급자를 기반으로 다양한 GPT 모델을 사용하여 텍스트를 생성하기위한 간단한 API를 제공하기 위해 생성 된 편안한 웹 서비스. 채팅 완료를 애플리케이션에 통합하거나 다양한 GPT 모델의 기능을 탐색하든이 프로젝트에서 다루었습니다. Xtekky/gpt4free에 의존합니다.
이 API를 사용하는 방법에 대한 데모를 보여주는 예제 앱. 아래 앱은 YouTube 비디오를 편집 할 수있는 Markdown 블로그로 변환합니다.
# Clone the repository
git clone https://github.com/nagarajpandith/GPTGateway.git
# Navigate to the project directory
cd GPTGateway
# Create a virtual environment
python3 -m venv venv
# Activate the virtual environment
source venv/bin/activate
# Install the required packages
pip3 install -r requirements.txt.env 파일을 작성하고 API_KEY var를 채 웁니다.
python3 app.pycurl 사용 curl -X POST -H " Content-Type: application/json " -d ' {"content": "YOUR_PROMPT", "api_key":"API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} ' http://127.0.0.1:5000/chat_completion{
"content" : " YOUR_PROMPT " ,
"api_key" : " API_KEY_HERE " ,
"provider" : " PROVIDER_NAME " ,
"stream" : false
}메모
이 API를 직접 호스팅 할 수 있지만 이미 호스팅 된 API를 사용하려면 https://gptgateway.onrender.com에서 라이브입니다.
| 엔드 포인트 | 설명 | 방법 | 신체 |
|---|---|---|---|
/chat_completion | 제공자를 기반으로 모델을 사용하여 텍스트를 생성합니다 | 우편 | {"content": "YOUR_PROMPT", "api_key": "API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} |
/working_providers | 작업 제공자 목록을 검색합니다 | 얻다 | {} |
팁
제공자 및 스트림 매개 변수는 선택 사항입니다. 제공되지 않으면 기본 공급자가 "Bing"으로 설정되고 기본 스트림이 True로 설정됩니다. 스트림이 false로 설정되면 응답은 직접 최종 출력 형식으로 나타납니다.
"스트림"= false를 사용하여 9-12-2023에서 마지막으로 테스트했습니다
메모
제공자와 해당 모델을 알기 위해서는이를 참조하십시오.
상태 값
중요한
공급자가 작동하지 않는 경우 Auth = 'Cookie'또는 'JWT'와 같은 특수 Args가 필요하거나 WebDriver가 연결되지 않기 때문일 수 있습니다. 따라서 대부분의 제공 업체 또는 IP 주소 차단 등의 웹 스크래핑이 필요하기 때문에 아래 결과를 최종의 최종 소스로 간주하지 않습니다. 직접 테스트하려면 python3 test.py 스크립트를 실행하십시오.
| 공급자 | 로컬/호스팅/둘 다 | 평균 응답 시간 |
|---|---|---|
| aitianhuspace | 없음 | 0.0000 |
| aichatonline | 둘 다 | 1.7414 |
| 음유 시인 | 없음 | 0.0000 |
| 빙 | 둘 다 | 7.5283 |
| 챗베이스 | 둘 다 | 11.0944 |
| chatforai | 없음 | 0.0000 |
| chatgpt4online | 없음 | 0.0000 |
| chatgptai | 둘 다 | 4.0048 |
| chatgptnext | 둘 다 | 1.1684 |
| DeepInfra | 둘 다 | 2.9104 |
| 가짜 gpt | 없음 | 0.0000 |
| gptalk | 없음 | 0.0000 |
| Geekgpt | 호스팅 | 2.6676 |
| gptchatly | 없음 | 0.0000 |
| gptforlove | 없음 | 0.0000 |
| gptgo | 현지의 | 1.0809 |
| gpttalkru | 둘 다 | 1.3263 |
| Hashhnode | 둘 다 | 14.0748 |
| Huggingchat | 없음 | 0.0000 |
| 코알라 | 현지의 | 2.3503 |
| liaobots | 없음 | 0.0000 |
| llama2 | 없음 | 0.0000 |
| Myshell | 현지의 | 9.0187 |
| onlinegpt | 둘 다 | 2.3497 |
| Openaichat | 없음 | 0.0000 |
| perplexityai | 현지의 | 10.8567 |
| 핀 | 둘 다 | 0.4872 |
| pi | 현지의 | 8.9026 |
| 포 | 없음 | 0.0000 |
| 레이 캐스트 | 없음 | 0.0000 |
| 리트리 프로비더 | 없음 | 0.0000 |
| Talkai | 현지의 | 13.3812 |
| Theb | 없음 | 0.0000 |
| Thebapi | 없음 | 0.0000 |
| 너 | 현지의 | 1.6147 |
| yqcloud | 없음 | 0.0000 |
나는이 공급자들을 수동으로 테스트했으며 가장 신뢰할 수 있고 빠른 것임을 알았습니다.
| 공급자 | 로컬/호스팅/둘 다 | 평균 응답 시간 |
|---|---|---|
| gpttalkru | 둘 다 | 2-3S |
| Geekgpt | 둘 다 | 6-8S |
| chatgptai | 둘 다 | 5S |
| chatgptnext | 둘 다 | 7-8S |
| aichatonline | 현지의 | 4S |
| gptchatly | 현지의 | 4-5S |
| onlinegpt | 현지의 | 4S |
| 빙 | 둘 다 | 15-20 년대 |
| 챗베이스 | 둘 다 | 12-13S |
| 코알라 | 현지의 | 4S |
| gptgo | 현지의 | 12s |
| 너 | 현지의 | 10s |
| Myshell | 현지의 | 11s |
| pi | 현지의 | 11s |
| perplexityai | 현지의 | 14S |
| Hashhnode | 둘 다 | 18S |
| Talkai | 현지의 | 20 년대 |
| DeepInfra | 둘 다 | 31-47S |
| Theb | 현지의 | 12s |
중요한
시간을 통과하기위한 취미 프로젝트는 GPT4Free 프로젝트를 중심으로 간단한 포장지이기 때문에 추가 개발 의도가 없습니다. 개인적으로 나는 생산 USECASE를 위해 공급자의 사용을 권장하지 않을 것이며, 어떤 순간이 내려갈 수 있으며 신뢰할 수 없습니다. 대신 오픈 소스 LLM을 직접 호스팅하십시오. 나의 개인적인 선택은 Mistral-7B이며, 이는 Meta의 LLAMA2-13B 모델보다 훨씬 더 나은 성능을 발휘합니다. 오픈 소스 LLM의 결제 목록과 여기에 Arena Leaderboard (대중이 투표).