GPT de luz
Light-GPT es un proyecto de sitio web interactivo basado en el modelo GPT-3.5-Turbo. Se construye utilizando el marco Next.js e implementado en la plataforma Vercele Cloud. Es una aplicación liviana frontal pura.
Github: https://github.com/riwigefi/light-gpt
Demostración: https://light-gpt.vercel.app
Características
- Una aplicación frontal pura basada en el modelo GPT-3.5-Turbo, que utiliza la tecla API para solicitar la interfaz de diálogo de OpenAI en el front-end, admitiendo datos de transmisión y mostrando respuestas de robot en la página web en un efecto de máquina de escribir.
- Después de la implementación, los usuarios pueden establecer su tecla API en la página frontal. Con el acceso científico a Internet, la velocidad de preguntas y respuestas será muy rápida. La clave API del usuario se guardará en el lado del cliente, lo que significa que no existe riesgo de fuga.
- Admite nuevos diálogos temáticos y la visualización de diálogos temáticos históricos. Todos los datos de diálogo se almacenan en el IndexedDB del navegador, lo que significa que los registros de datos de diálogo se guardan localmente y no existe riesgo de fuga de datos.
- AI responde a las preguntas relacionadas con la programación admiten múltiples resaltaciones de sintaxis y copia de código de un solo clic. Los diálogos admiten la exportación de imágenes y la exportación de PDF.
- La aplicación está adaptada para PC y dispositivos móviles, lo que lo hace conveniente de usar.
- DIY, Avatares de usuarios y avatares de IA.
- Admite la generación de imágenes basadas en el texto.
Vista previa del sitio


Despliegue local
Para implementar Light-GPT localmente, siga estos pasos (requiere Node16.14.2 o superior):
- Descargue el proyecto a su máquina local:
git clone https://github.com/riwigefi/light-gpt.git
- Navegue al directorio del proyecto e instale dependencias:
cd light-gpt
pnpm install
- Inicie la aplicación:
El proyecto ahora estará disponible para una vista previa en http: // localhost: 3000. Ingrese su tecla API en la página frontal para comenzar a chatear.
Implementación en línea de Vercel
Para implementar la luz de luz en la plataforma en la nube de Vercel:
Regístrese para una cuenta Vercel en Vercel. Se requiere un código de verificación móvil.
Bifurca el repositorio de Light-GPT a su propia cuenta de GitHub.
Inicie sesión en la plataforma Vercel, haga clic en "Agregar nuevo", seleccione "Proyecto" e importe el proyecto GitHub que acaba de bifurcarse. Haga clic en "Implementar".
Implementación local de Docker
Para aquellos que prefieren usar Docker para la implementación local:
- Tire de la última imagen de Docker:
docker pull whynotisme/light-gpt:latest
- Ejecute la imagen y el mapa del puerto 3000 al puerto 3000:
docker run -p 3000:3000 whynotisme/light-gpt
GPT de luz
Light-GPT 是一个基于 GPT-3.5-TURBO 模型的交互式网站项目 , 使用 使用 使用 框架构建 框架构建 框架构建 使用 使用 云平台部署 云平台部署 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。
Github 代码库: https://github.com/riwigefi/light-gpt
演示站点: https://light-gpt.vercel.app
功能
- 纯前端应用 , 基于 基于 GPT-3.5-TURBO 模型 , 使用 Clave de API 在前端请求 OpenAi 的对话接口 支持流式数据 支持流式数据 页面以打字机效果显示机器人回复。 页面以打字机效果显示机器人回复。
- 部署后 , 用户在前端页面设置自己的 用户在前端页面设置自己的 Clave de API , 科学上网的情况下 问答速度会很快。用户设置的 问答速度会很快。用户设置的 Clave de API 将保存在客户端 完全没有泄漏风险。 完全没有泄漏风险。
- 支持新的主题对话和查看历史主题对话。所有对话数据都存储在浏览器的 indexedDB 中 , 也就是说对话数据记录是保存在本地的 不会有数据泄漏风险。
- Ai 回复支持多种语法高亮和一键复制代码功能 , 针对编程相关问题。对话支持图片和 pdf 导出。
- 应用适配了 PC 和 Mobile 设备 方便使用。 方便使用。
- 支持 DIY , 支持设置用户头像和 AI 头像。
- 支持根据文字生成图片
站点预览


本地部署
要在本地部署 Light-GPT , 按照以下步骤操作 (需要 需要 nodo16.14.2 及以上版本) :
- 将项目下载到本地:
git clone https://github.com/riwigefi/light-gpt.git
- 进入项目目录并安装依赖项:
cd light-gpt
pnpm install
- 启动应用程序:
这样 , 项目就能在 项目就能在 http: // localhost: 3000 上预览了。在前端页面输入你的 clave API 就可以愉快对话了。 就可以愉快对话了。
VERCEL 线上部署
- 注册一个 VERCEL 云平台部署账号 云平台部署账号 访问 VERCEL。
- 将 Light-GPT 当前仓库 Forque 到你的 Github。
- 登录 VERCEL 平台 , 点击 "Agregue nuevo" 选择 选择 选择 "Proyecto" , 然后 Import 刚刚 Horcedora 的 Github 项目 点击部署即可。 点击部署即可。
Docker 本地部署
为方便使用 本项目也提供了 本项目也提供了 Docker 镜像。
- 拉取最新的 Docker 镜像:
docker pull whynotisme/light-gpt
- 运行镜像 , 将 Docker 容器内的端口 3000 映射到主机的端口 3000 上:
docker run -p 3000:3000 whynotisme/light-gpt
重要提示
本地部署时 , 只需要支持浏览器可科学上网即可 , 因为请求是在浏览器发起的。由于 OpenAi 风控政策 , 请务必保证你是科学上网环境 , 你可以正常访问 Open Ai 官网 , 如果不能 , 请不要设置 请不要设置 Clave de API 进行调试 否则会有异常风险 否则会有异常风险