Conversations d'IA privées, entièrement in-naval.
Discuter maintenant
WebLLM CHAT est une interface de chat AI privée qui combine WebLLM avec une conception conviviale, en tirant parti de WebGPU pour exécuter des modèles de grande langue (LLM) nativement dans votre navigateur. Profitez d'une expérience de conversation IA sans précédent, privée et accessible.
Webllm Chat est une initiative pionnière qui combine les capacités backend robustes de WebLLM avec l'interface conviviale de NextChat. Dans le cadre de la famille MLC.AI plus large, ce projet contribue à notre mission de démocratiser la technologie de l'IA en rendant les outils puissants accessibles directement aux utilisateurs finaux. En s'intégrant à NextChat, le chat WebLLM améliore non seulement l'expérience de chat, mais élargit également la portée du déploiement de modèles de langage auto-hébergés et personnalisables.
WeBLLM CHAT Native prend en charge les modèles d'intégration WebLLM. Vous pouvez trouver la liste complète ici.
WebLLM CHAT prend en charge les modèles de langage personnalisé via MLC-LLM. Suivez les étapes suivantes pour utiliser des modèles personnalisés sur votre environnement local:
(Facultatif) Compilez le modèle au format MLC en suivant les instructions.
Hôtez l'API REST via MLC-LLM en suivant les instructions.
Accédez au chat WebLLM, sélectionnez "Paramètres" dans la barre latérale, puis sélectionnez "MLC-llm REST API (Advanced)" comme "Type de modèle" et tapez l'URL de point de terminaison de l'API REST à partir de l'étape 2.
# 1. install nodejs and yarn first
# 2. config local env vars in `.env.local`
# 3. run
yarn install
yarn dev Vous pouvez créer l'application en tant que construction Next.js à l'aide de yarn build ou comme site statique à l'aide yarn export . Pour plus d'informations, vérifiez la documentation Next.js;
docker build -t webllm_chat .
docker run -d -p 3000:3000 webllm_chatVous pouvez commencer le service derrière un proxy:
docker build -t webllm_chat .
docker run -d -p 3000:3000
-e PROXY_URL=http://localhost:7890
webllm_chatSi votre proxy a besoin de mot de passe, utilisez:
-e PROXY_URL= " http://127.0.0.1:7890 user pass " Le chat Webllm prospère sur la participation communautaire. Nous nous engageons à favoriser une communauté inclusive et innovante où les développeurs et les amateurs d'IA peuvent collaborer, contribuer et repousser les limites de ce qui est possible dans la technologie de l'IA. Rejoignez-nous sur Discord pour vous connecter avec les autres développeurs et contribuer au projet.
Webllm Chat est un projet compagnon de Webllm et il est construit sur le travail remarquable de NextChat. Nous étendons notre sincère gratitude aux développeurs et contributeurs de ces projets pour leurs efforts inestimables dans la progression du domaine de l'IA basé sur le navigateur et la création d'interfaces de chat conviviales.
De plus, ce projet n'est possible que grâce aux épaules des écosystèmes open source sur lesquels nous nous tenons. Nous tenons à remercier la communauté Apache TVM et les développeurs de l'effort TVM Unity. Les membres de la communauté ML open-source ont rendu ces modèles accessibles au public. Les communautés de pytorch et d'étreinte rendent ces modèles accessibles. Nous tenons à remercier les équipes derrière Vicuna, phrase, lama, Alpaca. Nous tenons également à remercier les communautés WebAssembly, Emscripten et WebGPU. Enfin, grâce aux développeurs de Dawn et WebGPU.