chatty
Llama3.1 & Qwen2 model support

Chatty是您的私人AI,它利用WebGPU在瀏覽器中本地和私人地運行大型語言模型(LLMS),為您帶來最豐富的瀏覽器AI體驗。
該項目旨在將最接近的嘗試從Chatgpt和Gemini等流行的AI接口將著名性和功能帶入瀏覽器體驗。
默認情況下,在Chrome和Edge中啟用和支持WebGPU。但是,可以在每晚使用Firefox和Firefox中啟用它。檢查瀏覽器兼容性以獲取更多信息。
如果您只想嘗試該應用程序,則可以在此網站上進行直播。
這是一個spect.js應用程序,需要安裝node.js(18+)和NPM以本地運行該項目。
如果您想在本地設置和運行該項目,請按照以下步驟操作:
1。通過命令提示符將存儲庫克隆到PC上的目錄:
git clone https://github.com/addyosmani/chatty
2。打開文件夾:
cd chatty
3。安裝依賴項:
npm install
4。啟動開發服務器:
npm run dev
5。轉到Localhost:3000,開始聊天!
筆記
Dockerfile尚未針對生產環境進行優化。如果您想自己這樣做,請結帳示例
docker build -t chattyui .
docker run -d -p 3000:3000 chattyui
或使用docker-compose :
docker compose up
如果您進行了更改並想重建,則可以簡單地運行
docker-compose up --build
貢獻非常歡迎!但是,請確保首先閱讀貢獻指南:)
筆記
為了有效地運行模型,您需要一個具有足夠內存的GPU。 7B型號需要大約6GB內存的GPU,而3B型號則需要大約3GB。
較小的型號可能無法處理像較大型號一樣有效的文件嵌入。
Chatty是使用Webllm項目建造的,該項目使用HuggingFace,開源LLM和Langchain建立。我們要承認他們的出色工作,並感謝開源社區。
Chatty由Addy Osmani&JakobHoegMørk創建和維護。