Openai-Api-Proxy
한 줄 Docker 명령을 통한 OpenAI API에 대한 간단한 프록시
직접 구축하기에는 너무 게으른 경우 Chat, Opencat, NextWeb 및 VSCODE 플러그인을 지원하는 WeChat : API2D.com에서 재충전 할 수있는 타사 OpenAI API 서비스를 시도해 볼 수 있습니다.
- Tencent Cloud Function Deployment Tutorial Tencent Cloud Function은 4 월 25 일부터 지역 전체의 SSE를 지원했습니다.이를 사용하는 것이 좋습니다.
- 중국어 지침을 단순화했습니다
- "OpenAI/GPT 응용 프로그램을 신속하게 개발하는 방법 : 국내 개발자 노트"
SSE는 이미 지원되었으며 컨텐츠는 실시간으로 반환 할 수 있습니다.
다음은 GPT로 번역됩니다. 다음 영어는 GPT에 의해 번역되었습니다.
켈 이것은 클라이언트면이 아닌 프록시의 서버 측입니다.
특징
- SSE 스트리밍 출력을 지원합니다
- 내장 텍스트 중재 (Tencent Cloud 키 구성 필요)
- SSE 스트리밍 출력은 텍스트 조정을 지원합니다.
nodejs 배포
클라우드 기능 및 에지 컴퓨팅 플랫폼과 같은 Nodejs 14+를 지원하는 모든 환경에 ./app.js를 배포 할 수 있습니다.
- app.js 및 package.json을 디렉토리에 복사하십시오
- 원사 설치로 종속성을 설치하십시오
- Node app.js로 서비스를 시작하십시오
Docker 배포
docker run -p 9000:9000 easychen/ai.level06.com:latest
프록시 주소는 http : // $ {ip} : 9000입니다
사용 가능한 환경 변수
- 포트 : 서비스 포트
- proxy_key : 액세스를 제한하는 데 사용되는 프록시 액세스 키
- 시간 초과 : 요청 시간 초과, 기본 30 초
- tencent_cloud_sid : tencent cloud secret_id
- Tencent_cloud_skey : Tencent Cloud Secret_key
- Tencent_cloud_ap : Tencent Cloud Region (예 : AP-Singapore Singapore)
API 사용
- 원래 프로젝트 (예 : https://api.openai.com)의 OpenAI 요청 주소의 도메인/IP (포트 번호 포함)를이 프록시의 도메인/IP로 변경하십시오.
- proxy_key가 설정되면
:<PROXY_KEY> 가 설정되지 않은 경우 수정이 필요하지 않습니다. - 중재 : True는 중재를 활성화하고 False는 중재를 비활성화합니다
- moderation_level : 높은 인터럽트 중단은 중재 결과가 전달되지 않은 모든 문장을 중단하고 낮은 중재 결과가 블록 인 문장을 방해합니다.
메모
- 파일 관련 인터페이스가 아닌 get 및 post 메소드 만 지원합니다.
SSE는 현재 지원되지 않으므로 스트림 관련 옵션을 끌어야합니다. 이제 지원됩니다.
클라이언트 측 사용 예제
https://www.npmjs.com/package/chatgpt 사용 예로
chatApi = new gpt . ChatGPTAPI ( {
apiKey : 'sk.....:<proxy_key_here>' ,
apiBaseUrl : "http://localhost:9001/v1" , // Replace with proxy domain/IP
} ) ;
감사의 말
- ChatGpt-API 프로젝트 관련 코드에 대한 SSE 참조