Hellgpt
Light-GPT ist ein interaktives Website-Projekt, das auf dem GPT-3.5-Turbo-Modell basiert. Es wird mit dem nächsten.js -Framework erstellt und auf der Vercel Cloud -Plattform bereitgestellt. Es ist eine reine Front-End-Anwendung.
Github: https://github.com/riwigefi/light-gpt
Demo: https://light-gpt.vercel.app
Merkmale
- Eine reine Front-End-Anwendung basierend auf dem GPT-3.5-Turbo-Modell, das den API-Schlüssel verwendet, um die Dialogschnittstelle von OpenAI im Front-End zu fordern, Streaming-Daten zu unterstützen und Roboter-Antworten auf die Webseite in einem typewriter-Effekt anzuzeigen.
- Nach der Bereitstellung können Benutzer ihre API-Schlüssel auf der Front-End-Seite festlegen. Mit wissenschaftlichem Internetzugang ist die Q & A -Geschwindigkeit sehr schnell. Der API-Schlüssel des Benutzers wird auf der Client-Seite gespeichert, was bedeutet, dass kein Leckagen besteht.
- Unterstützt neue thematische Dialoge und das Betrachten historischer thematischer Dialoge. Alle Dialogdaten werden im indizierten DB des Browsers gespeichert, was bedeutet, dass Dialogdatensätze lokal gespeichert werden und kein Risiko für Datenverlust besteht.
- AI antwortet auf programmierbezogene Fragen stützen mehrere Syntax-Hervorhebungen und ein Klick-Codekopieren. Dialoge unterstützen Bildexport und PDF -Export.
- Die Anwendung ist sowohl für PC- als auch für mobile Geräte angepasst, wodurch die Verwendung bequem ist.
- DIY, Unterstützung des Einstellens von Benutzern Avataren und AI -Avataren.
- Unterstützen Sie die Erzeugung von Bildern basierend auf Text.
Site -Vorschau


Lokale Bereitstellung
Befolgen Sie die folgenden Schritte (erfordert Node16.14.2 oder höher):
- Laden Sie das Projekt auf Ihre lokale Maschine herunter:
git clone https://github.com/riwigefi/light-gpt.git
- Navigieren Sie zum Projektverzeichnis und installieren Sie Abhängigkeiten:
cd light-gpt
pnpm install
- Starten Sie die Anwendung:
Das Projekt ist jetzt für die Vorschau unter http: // localhost: 3000 verfügbar. Geben Sie Ihre API-Taste auf der Front-End-Seite ein, um mit dem Chatten zu beginnen.
Vercel Online -Bereitstellung
So bereitstellen Sie Light-GPT auf der Cloud-Plattform von Vercel:
Registrieren Sie sich für ein Vercel -Konto bei Vercel. Ein mobiler Verifizierungscode ist erforderlich.
Geben Sie das Light-GPT-Repository in Ihr eigenes Github-Konto.
Melden Sie sich bei der Vercel -Plattform an, klicken Sie auf "Neu hinzufügen", wählen Sie "Projekt" und importieren Sie dann das GitHub -Projekt, das Sie gerade gegossen haben. Klicken Sie auf "Bereitstellen".
Docker Lokale Bereitstellung
Für diejenigen, die es vorziehen, Docker für die lokale Bereitstellung zu verwenden:
- Ziehen Sie das neueste Docker -Bild:
docker pull whynotisme/light-gpt:latest
- Führen Sie das Bild- und Kartenport 3000 auf Port 3000 aus:
docker run -p 3000:3000 whynotisme/light-gpt
Hellgpt
Light-GPT 是一个基于 GPT-3,5-Turbo 模型的交互式网站项目 , 使用 Next.js 框架构建 , 使用 Vercel 云平台部署 , 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。
Github 代码库: https://github.com/riwigefi/light-gpt
演示站点: https://light-gpt.vercel.app
功能
- 纯前端应用 , 基于 GPT-3,5-Turbo 模型 , 使用 API-Schlüssel 在前端请求 openai 的对话接口 , 支持流式数据 , 页面以打字机效果显示机器人回复。 页面以打字机效果显示机器人回复。
- 部署后 , 用户在前端页面设置自己的 API -Schlüssel , 科学上网的情况下 , 问答速度会很快。用户设置的 API -Schlüssel 将保存在客户端 , 完全没有泄漏风险。 完全没有泄漏风险。
- 支持新的主题对话和查看历史主题对话。所有对话数据都存储在浏览器的 indexeddb 中 , 也就是说对话数据记录是保存在本地的 , 不会有数据泄漏风险。
- Ai 回复支持多种语法高亮和一键复制代码功能 , 针对编程相关问题。对话支持图片和 pdf 导出。
- 应用适配了 PC 和 Mobile 设备 , 方便使用。 方便使用。
- 支持 DIY , 支持设置用户头像和 ai 头像。
- 支持根据文字生成图片
站点预览


本地部署
要在本地部署 Light-GPT , 按照以下步骤操作 (需要 Knoten16.14.2 及以上版本) :
- 将项目下载到本地::
git clone https://github.com/riwigefi/light-gpt.git
- 进入项目目录并安装依赖项::
cd light-gpt
pnpm install
- 启动应用程序::
这样 , 项目就能在 http: // localhost: 3000 上预览了。在前端页面输入你的 API -Schlüssel , 就可以愉快对话了。 就可以愉快对话了。 就可以愉快对话了。
Vercel 线上部署
- 注册一个 Vercel 云平台部署账号 , 访问 Vercel。
- 将 Light-GPT 当前仓库 Fork 到你的 Github。
- 登录 Vercel 平台 , 点击 "Neue" , 选择 "Projekt" , 然后 Import 刚刚 Fork 的 Github 项目 , 点击部署即可。
Docker 本地部署
为方便使用 , 本项目也提供了 Docker 镜像。
- 拉取最新的 Docker 镜像:
docker pull whynotisme/light-gpt
- 运行镜像 , 将 Docker 容器内的端口 3000 映射到主机的端口 3000 上:
docker run -p 3000:3000 whynotisme/light-gpt
重要提示
本地部署时 , 只需要支持浏览器可科学上网即可 , 因为请求是在浏览器发起的。由于 openai 风控政策 , 请务必保证你是科学上网环境 , 你可以正常访问 open ai 官网 如果不能 , , 请不要设置 api 进行调试 进行调试 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 , , 请不要设置 请不要设置 你可以正常访问 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险 否则会有异常风险