Пожалуйста, проверьте документацию API https://openai-proxy.apifox.cn
openai-proxy -это решение для китайских пользователей.
Теперь вам просто нужно заменить https://api.openai.com на https://openai.aihey.cc/openai , чтобы поесть
# openai api
curl https://api.openai.com/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $OPENAI_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} '
# 替换后
curl https://openai.aihey.cc/openai/v1/chat/completions
-H " Content-Type: application/json "
-H " Authorization: Bearer $OPENAI_API_KEY "
-d ' {
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
} ' С апреля 2023 года
https://api.openai.com/dashboard/billing/credit_grantsможет быть запрошен только через идентификатор сеанса, сгенерированный веб-логином, и метод ключа (sk-*****) будет недействительным. Тем не менее, вы можете запросить его двумя способами .
openai-proxyнедостаток:
# 指定统计开始日期和结束日期
curl https://openai.aihey.cc/openai/billing/credit_grants ? start_date=2022-05-10 & end_date=2023-05-10
-H " Content-Type: application/json "
-H " Authorization: Bearer sk-*********** "
# 不指定参数,默认统计最近 90 天的数据
curl https://openai.aihey.cc/openai/billing/credit_grants
-H " Content-Type: application/json "
-H " Authorization: Bearer sk-********** "sensitive_id , сгенерированный веб -страницейнедостаток:
sensitive_id будет относительно длинным)docker run -itd --name openai-proxy -p 13000:3000 unickcheng/openai-proxy
# 查看服务
docker ps -a Если вы знакомы с Docker Compose, вы можете обратиться к файлу docker-compose.yml и использовать команду docker compose up -d для запуска службы
Нет, но не отпускайте свою бдительность . На рынке также есть много отличных продуктов с аналогичным исходным кодом , и они не будут злонамеренно красть ключ пользователя. Поэтому при использовании сторонних продуктов платформ попробуйте использовать регулярно обновленный ключ .
Если у вас есть условия, рекомендуется ссылаться на предыдущий контент, чтобы развернуть его самостоятельно.
Поскольку я хотел начать с next.js, у меня был этот проект.
Кроме того, здесь есть только решение, которое не значительно улучшилось для скорости запроса API.
