Light-GPT
O Light-GPT é um projeto de site interativo baseado no modelo GPT-3.5-Turbo. Ele foi criado usando a estrutura Next.js e implantado na plataforma Vercel Cloud. É um aplicativo leve de front-end puro.
Github: https://github.com/riwigefi/light-gpt
Demo: https://light-gpt.vercel.app
Características
- Um aplicativo de front-end puro com base no modelo GPT-3.5-Turbo, usando a chave da API para solicitar a interface de diálogo do OpenAI no front-end, suportando dados de streaming e exibindo o robô responde na página da web em um efeito de máquina de escrever.
- Após a implantação, os usuários podem definir sua chave da API na página front-end. Com o acesso científico à Internet, a velocidade de perguntas e respostas será muito rápida. A chave da API do usuário será salva no lado do cliente, o que significa que não há risco de vazamento.
- Suporta novos diálogos temáticos e visualização de diálogos temáticos históricos. Todos os dados de diálogo são armazenados no IndexedDB do navegador, o que significa que os registros de dados de diálogo são salvos localmente e não há risco de vazamento de dados.
- A IA responde às perguntas relacionadas à programação suportam o destaque de múltiplas sintaxe e a cópia de código com um clique. Os diálogos suportam a exportação de imagem e a exportação de PDF.
- O aplicativo é adaptado para dispositivos PC e móvel, tornando conveniente o uso.
- DIY, apoiando Avatares de Usuário e Avatares da AI.
- Suporte a geração de imagens com base no texto.
Visualização do site


Implantação local
Para implantar o Light-GPT localmente, siga estas etapas (requer Node16.14.2 ou superior):
- Faça o download do projeto para sua máquina local:
git clone https://github.com/riwigefi/light-gpt.git
- Navegue até o diretório do projeto e instale dependências:
cd light-gpt
pnpm install
- Inicie o aplicativo:
O projeto agora estará disponível para visualização em http: // localhost: 3000. Digite sua tecla API na página front-end para começar a conversar.
VERCEL Online Deplayment
Para implantar o Light-GPT na plataforma em nuvem de Vercel:
Registre -se para uma conta de vercel na vercel. Um código de verificação móvel é necessário.
Fork o repositório de GPT leve para sua própria conta do GitHub.
Faça login na plataforma Vercel, clique em "Adicionar novo", selecionar "Projeto" e importar o projeto Github que você acabou de bifurcar. Clique em "Implantar".
Docker Deployment Local
Para aqueles que preferem usar o Docker para implantação local:
- Puxe a imagem mais recente do Docker:
docker pull whynotisme/light-gpt:latest
- Execute a imagem e a porta do mapa 3000 na porta 3000:
docker run -p 3000:3000 whynotisme/light-gpt
Light-GPT
Light-GPT 是一个基于 GPT-3.5-TURBO 模型的交互式网站项目 , 使用 NEXT.JS 框架构建 , 使用 VERCEL 云平台部署 , 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。 是一个纯前端的轻量级应用。
Github 代码库: https://github.com/riwigefi/light-gpt
演示站点: https://light-gpt.vercel.app
功能
- 纯前端应用 , 基于 GPT-3.5-Turbo 模型 使用 使用 API Key 在前端请求 OpenAi 的对话接口 , 支持流式数据 , 页面以打字机效果显示机器人回复。 页面以打字机效果显示机器人回复。
- 部署后 , 用户在前端页面设置自己的 API Key , 科学上网的情况下 , 问答速度会很快。用户设置的 API Key 将保存在客户端 , 完全没有泄漏风险。
- 支持新的主题对话和查看历史主题对话。所有对话数据都存储在浏览器的 indexeddb 中 , 也就是说对话数据记录是保存在本地的 , 不会有数据泄漏风险。
- Ai 回复支持多种语法高亮和一键复制代码功能 , 针对编程相关问题。对话支持图片和 pdf 导出。
- 应用适配了 PC 和 Mobile 设备 , 方便使用。
- 支持 DIY , 支持设置用户头像和 Ai 头像。
- 支持根据文字生成图片
站点预览


本地部署
要在本地部署 GPT de luz , 按照以下步骤操作 (需要 需要 Node16.14.2 及以上版本):
- 将项目下载到本地:
git clone https://github.com/riwigefi/light-gpt.git
- 进入项目目录并安装依赖项:
cd light-gpt
pnpm install
- 启动应用程序:
这样 , 项目就能在 http: // localhost: 3000 上预览了。在前端页面输入你的 API Key , 就可以愉快对话了。
Vercel 线上部署
- 注册一个 Vercel 云平台部署账号 , 访问 Vercel。
- 将 GPT leve 当前仓库 Fork 到你的 Github。
- 登录 Vercel 平台 , 点击 "Adicione novo" , 选择 "Projeto" , 然后 Importar 刚刚 Fork 的 Github 项目 , 点击部署即可。
Docker 本地部署
为方便使用 , 本项目也提供了 Docker 镜像。
- 拉取最新的 Docker 镜像:
docker pull whynotisme/light-gpt
- 运行镜像 , 将 Docker 容器内的端口 3000 映射到主机的端口 3000 上:
docker run -p 3000:3000 whynotisme/light-gpt
重要提示
本地部署时 , 只需要支持浏览器可科学上网即可 , 因为请求是在浏览器发起的。由于 OpenAi 风控政策 , 请务必保证你是科学上网环境 , 你可以正常访问 Abra ai 官网 , 如果不能 , 请不要设置 API Key 进行调试 , 否则会有异常风险