محادثات منظمة العفو الدولية الخاصة ، بالكامل في المتصفح.
الدردشة الآن
WebLLM Chat هي واجهة دردشة منظمة العفو الدولية الخاصة تجمع بين WebLLM وتصميم سهل الاستخدام ، وتستفيد من WebGPU لتشغيل نماذج لغة كبيرة (LLMS) أصلاً في متصفحك. استمتع بتجربة محادثة منظمة العفو الدولية غير المسبوقة والخاصة ويمكن الوصول إليها.
WebLLM Chat هي مبادرة رائدة تجمع بين إمكانات الواجهة الخلفية القوية لـ WebLLM مع الواجهة الصديقة للاستخدام لـ NextChat. كجزء من عائلة MLC.AI الأوسع ، يساهم هذا المشروع في مهمتنا المتمثلة في إضفاء الطابع الديمقراطي على تكنولوجيا الذكاء الاصطناعي من خلال إتاحة الأدوات القوية مباشرة للمستخدمين النهائيين. من خلال الاندماج مع NextChat ، لا يعزز WBLLM Chat فقط تجربة الدردشة ولكن أيضًا يوسع نطاق نشر نماذج اللغة المستضافة ذاتيًا والقابلة للتخصيص.
يدعم WBLLM Chat أصلاً نماذج بناء WBLLM. يمكنك العثور على القائمة الكاملة هنا.
تدعم دردشة WBLLM نماذج اللغة المخصصة من خلال MLC-LLM. اتبع الخطوات التالية لاستخدام نماذج مخصصة في بيئتك المحلية:
(اختياري) تجميع النموذج في تنسيق MLC باتباع التعليمات.
مضيف REST API من خلال MLC-LLM باتباع التعليمات.
انتقل إلى دردشة WebLLM ، حدد "الإعدادات" في الشريط الجانبي ، ثم حدد "MLC-LLM REST API (متقدم)" كـ "نوع الطراز" واكتب عنوان URL لبرنامج REST API من الخطوة 2.
# 1. install nodejs and yarn first
# 2. config local env vars in `.env.local`
# 3. run
yarn install
yarn dev يمكنك إنشاء التطبيق كبناء next.js باستخدام yarn build أو كموقع ثابت باستخدام yarn export . لمزيد من المعلومات ، تحقق من توثيق Next.js ؛
docker build -t webllm_chat .
docker run -d -p 3000:3000 webllm_chatيمكنك بدء الخدمة خلف الوكيل:
docker build -t webllm_chat .
docker run -d -p 3000:3000
-e PROXY_URL=http://localhost:7890
webllm_chatإذا كان الوكيل يحتاج إلى كلمة مرور ، فاستخدم:
-e PROXY_URL= " http://127.0.0.1:7890 user pass " WebLLM الدردشة تزدهر على مشاركة المجتمع. نحن ملتزمون بتعزيز مجتمع شامل ومبتكرة حيث يمكن للمطورين وعشاق الذكاء الاصطناعى التعاون والمساهمة ودفع حدود ما هو ممكن في تكنولوجيا الذكاء الاصطناعي. انضم إلينا على Discord للتواصل مع زملائه المطورين والمساهمة في المشروع.
WebLlm Chat هو مشروع مصاحب لـ WebLLM وهو مبني على العمل الرائع لـ NextChat. نحن نوسع امتناننا الصادق لمطوري ومساهمي هذه المشاريع لجهودهم التي لا تقدر بثمن في تقدم مجال الذكاء الاصطناعى القائم على المتصفح وإنشاء واجهات دردشة سهلة الاستخدام.
علاوة على ذلك ، فإن هذا المشروع ممكن فقط بفضل أكتاف النظم الإيكولوجية مفتوحة المصدر التي نقف عليها. نريد أن نشكر مجتمع Apache TVM ومطورين لجهد Unity TVM. جعل أعضاء مجتمع ML مفتوح المصدر هذه النماذج متاحة للجمهور. Pytorch و Ungging Face Communities تجعل هذه النماذج متاحة. نود أن نشكر الفرق خلف Vicuna ، Sentencepiece ، Llama ، الألبكة. نود أيضًا أن نشكر مجتمعات Webassembly و EmScripten و WebGPU. أخيرًا ، بفضل مطوري Dawn و WebGPU.