บริการเว็บแบบพักผ่อนที่สร้างขึ้นเพื่อให้ API ง่าย ๆ สำหรับการสร้างข้อความโดยใช้รุ่น GPT ต่างๆตามผู้ให้บริการที่แตกต่างกัน ไม่ว่าคุณต้องการรวมการแชทให้เสร็จสมบูรณ์ในแอปพลิเคชันของคุณหรือสำรวจความสามารถของรุ่น GPT ที่แตกต่างกันโครงการนี้ได้ครอบคลุม อาศัย XTEKKY/GPT4FREE
ตัวอย่างแอพเพื่อแสดงตัวอย่างของวิธีการใช้ API นี้ แอพด้านล่างแปลงวิดีโอ YouTube เป็นบล็อก Markdown ซึ่งสามารถแก้ไขได้
# Clone the repository
git clone https://github.com/nagarajpandith/GPTGateway.git
# Navigate to the project directory
cd GPTGateway
# Create a virtual environment
python3 -m venv venv
# Activate the virtual environment
source venv/bin/activate
# Install the required packages
pip3 install -r requirements.txtสร้างไฟล์. env และเติม api_key var
python3 app.pycurl curl -X POST -H " Content-Type: application/json " -d ' {"content": "YOUR_PROMPT", "api_key":"API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} ' http://127.0.0.1:5000/chat_completion{
"content" : " YOUR_PROMPT " ,
"api_key" : " API_KEY_HERE " ,
"provider" : " PROVIDER_NAME " ,
"stream" : false
}บันทึก
คุณสามารถโฮสต์ API นี้ด้วยตัวเอง แต่ถ้าคุณต้องการใช้ API ที่โฮสต์แล้วมันจะอยู่ที่ https://gptgateway.onrender.com
| จุดสิ้นสุด | คำอธิบาย | วิธี | ตัวอย่างร่างกาย |
|---|---|---|---|
/chat_completion | สร้างข้อความโดยใช้โมเดลตามผู้ให้บริการ | โพสต์ | {"content": "YOUR_PROMPT", "api_key": "API_KEY_HERE", "provider": "PROVIDER_NAME", "stream": false} |
/working_providers | ดึงรายชื่อผู้ให้บริการที่ทำงาน | รับ | {} |
เคล็ดลับ
พารามิเตอร์ผู้ให้บริการและสตรีมเป็นทางเลือก หากไม่ได้ให้บริการผู้ให้บริการเริ่มต้นจะถูกตั้งค่าเป็น "bing" และสตรีมเริ่มต้นถูกตั้งค่าเป็นจริง หากสตรีมถูกตั้งค่าเป็นเท็จการตอบสนองจะอยู่ในรูปแบบเอาต์พุตสุดท้ายโดยตรง
ทดสอบล่าสุดเมื่อวันที่ 9-12-2023 โดยใช้ "สตรีม" = เท็จ
บันทึก
หากต้องการทราบว่าผู้ให้บริการและแบบจำลองของพวกเขาอ้างถึงสิ่งนี้
ค่าสถานะ
สำคัญ
หากผู้ให้บริการไม่ทำงานอาจเป็นเพราะมันต้องการ args พิเศษเช่น auth = 'คุกกี้' หรือ 'jwt' หรือ webdriver ไม่สามารถเชื่อมต่อได้เนื่องจากการขูดเว็บเป็นสิ่งจำเป็นสำหรับผู้ให้บริการส่วนใหญ่ที่นี่ ในการทดสอบด้วยตัวเองเรียกใช้ python3 test.py script
| ผู้ให้บริการ | ท้องถิ่น/โฮสต์/ทั้งสอง | เวลาตอบสนองเฉลี่ย |
|---|---|---|
| Aitianhuspace | ไม่มี | 0.0000 |
| Aichatonline | ทั้งคู่ | 1.7414 |
| กวี | ไม่มี | 0.0000 |
| BING | ทั้งคู่ | 7.5283 |
| แชทเบส | ทั้งคู่ | 11.0944 |
| Chatforai | ไม่มี | 0.0000 |
| chatgpt4online | ไม่มี | 0.0000 |
| chatgptai | ทั้งคู่ | 4.0048 |
| chatgptnext | ทั้งคู่ | 1.1684 |
| Deepinfra | ทั้งคู่ | 2.9104 |
| Fakegpt | ไม่มี | 0.0000 |
| Gptalk | ไม่มี | 0.0000 |
| geekgpt | เป็นเจ้าภาพ | 2.6676 |
| Gptchatly | ไม่มี | 0.0000 |
| gptforlove | ไม่มี | 0.0000 |
| gptgo | ท้องถิ่น | 1.0809 |
| gpttalkru | ทั้งคู่ | 1.3263 |
| Hashnode | ทั้งคู่ | 14.0748 |
| กอด | ไม่มี | 0.0000 |
| โคอาล่า | ท้องถิ่น | 2.3503 |
| ผู้มีส่วนร่วม | ไม่มี | 0.0000 |
| Llama2 | ไม่มี | 0.0000 |
| MyShell | ท้องถิ่น | 9.0187 |
| onlinegpt | ทั้งคู่ | 2.3497 |
| Openaichat | ไม่มี | 0.0000 |
| ความงุนงง | ท้องถิ่น | 10.8567 |
| คนโง่ | ทั้งคู่ | 0.4872 |
| PI | ท้องถิ่น | 8.9026 |
| ปอ | ไม่มี | 0.0000 |
| เรย์คาสต์ | ไม่มี | 0.0000 |
| ผู้ติดตามอีกครั้ง | ไม่มี | 0.0000 |
| พูดคุย | ท้องถิ่น | 13.3812 |
| สิ่งที่เป็นไปได้ | ไม่มี | 0.0000 |
| Thebapi | ไม่มี | 0.0000 |
| คุณ | ท้องถิ่น | 1.6147 |
| yqcloud | ไม่มี | 0.0000 |
ฉันทดสอบผู้ให้บริการเหล่านี้ด้วยตนเองและฉันพบว่าพวกเขาเป็นผู้ที่น่าเชื่อถือและรวดเร็วที่สุด
| ผู้ให้บริการ | ท้องถิ่น/โฮสต์/ทั้งสอง | เวลาตอบสนองเฉลี่ย |
|---|---|---|
| gpttalkru | ทั้งคู่ | 2-3s |
| geekgpt | ทั้งคู่ | 6-8s |
| chatgptai | ทั้งคู่ | 5s |
| chatgptnext | ทั้งคู่ | 7-8s |
| Aichatonline | ท้องถิ่น | 4s |
| Gptchatly | ท้องถิ่น | 4-5S |
| onlinegpt | ท้องถิ่น | 4s |
| BING | ทั้งคู่ | 15-20s |
| แชทเบส | ทั้งคู่ | 12-13s |
| โคอาล่า | ท้องถิ่น | 4s |
| gptgo | ท้องถิ่น | 12s |
| คุณ | ท้องถิ่น | 10s |
| MyShell | ท้องถิ่น | 11s |
| PI | ท้องถิ่น | 11s |
| ความงุนงง | ท้องถิ่น | 14s |
| Hashnode | ทั้งคู่ | 18s |
| พูดคุย | ท้องถิ่น | ยุค 20 |
| Deepinfra | ทั้งคู่ | 31-47S |
| สิ่งที่เป็นไปได้ | ท้องถิ่น | 12s |
สำคัญ
เพียงโครงการอดิเรกสำหรับเวลาที่ผ่านไปไม่มีความตั้งใจในการพัฒนาต่อไปเนื่องจากเป็นเพียงการห่อหุ้มง่าย ๆ รอบโครงการ GPT4Free โดยส่วนตัวแล้วฉันจะไม่แนะนำให้ใช้ผู้ให้บริการสำหรับการผลิต Usecases พวกเขาอาจลงไปได้ตลอดเวลาและไม่น่าเชื่อถืออย่างมาก แทนที่จะโฮสต์ Open Source LLM ใด ๆ ด้วยตัวเอง ตัวเลือกส่วนตัวของฉันคือ Mistral-7b ซึ่งทำงานได้ดีกว่ารุ่น Llama2-13b ของ Meta อย่างมีนัยสำคัญ รายการชำระเงินของโอเพนซอร์ส LLMS ที่นี่และกระดานผู้นำ Arena ที่นี่ (โหวตโดยสาธารณะ)