بديل مفتوح المصدر لـ Github Copilot الذي يعمل محليًا.
؟ أراه في العمل
إكمال رمز الوقت الحقيقي
الدردشة مع الذكاء الاصطناعي حول الكود الخاص بك
المتطلبات المسبقة
إذا لم تكن قد فعلت ذلك بالفعل ، فيرجى اختيار أحد المنصات التالية لتشغيل LLM من اختيارك على نظامك محليًا .
أولاما (موصى به للغاية)
Llamafile (تجريبي)
llama.cpp (تجريبي)
؟ توصيات LLM
يرجى ملاحظة أنك تحتاج إلى تكوين LLM لإكمال رمز وميزة الدردشة بشكل منفصل . بعض LLMs الشعبية التي نوصي بها هي كما يلي. يرجى اختيار الحجم (أي 1.3B أو 7B أو 13B أو 34B) من النموذج بناءً على قدرات الأجهزة الخاصة بك.
إكمال رمز
محادثة
الروابط
Deepseek-CoDer: {1.3b أو 6.7b أو 33b} -base
Deepseek-CoDer: {1.3b أو 6.7b أو 33b}-
علامات Ollama ، المنزل
Codellama: {7b أو 13b أو 34b} -code
CODELLAMA: {7b أو 13b أو 34b}-
علامات Ollama ، المنزل
MISTRAL: {7b} -instruct
علامات Ollama ، المنزل
يمكنك أيضًا اختيار نموذج عن طريق تقييم LLMS المحلي باستخدام Benchllama.
تثبيت سريع
يمكنك تثبيت امتداد خاص من سوق Visual Studio Code أو من سجل VSX المفتوح.
Visual Studio Code Marketplace
فتح سجل VSX
خيارات التكوين
يرجى تعيين الخيارات التالية في الإعدادات الخاصة بتمديد الملكية.
privy.provider ( required ): اختر النظام الأساسي الذي يتم استخدامه لتشغيل LLMS محليًا. هناك دعم لاستخدام Openai ، ولكن هذا سيؤثر على جوانب خصوصية الحل. الافتراضي هو Ollama .
fery.providerurl ( required ): عنوان URL للنظام الأساسي الذي يتم استخدامه لتشغيل LLMS محليًا. الافتراضي هو http://localhost:11434 .
fery.autocomplete.mode : استخدم هذا الإعداد لتمكين/تعطيل ميزة الإكمال التلقائي.
fery.autocomplete.model : إدخال اسم نموذج Ollama المحلي الذي تريد استخدامه في الإكمال التلقائي. التنسيقات المدعومة هي Deepseek Coder ، Llama & Code. لقد اخترنا Deepseek-CoDer: 1.3b-base لأنه يتطلب أقل من كمية VRAM. يمكنك التخصيص بناءً على إعداد الأجهزة.
very.autocomplete.debouncewait : استخدم هذا لتحديد الفجوة الزمنية قبل تشغيل الإكمال التالي بالمللي ثانية. الافتراضي هو 300 مللي ثانية.
fery.model : حدد LLM التي تريد الدردشة معها. حاليا ، يدعم Deepseek و Mistral و Codellama. إذا كنت ترغب في استخدام LLMs الأخرى ، فيرجى تحديد custom وتكوين privy.customModel وفقًا لذلك.
fery.custommodel : إذا كنت ترغب في اختيار أي طرز أخرى تعمل على Ollama الخاص بك ، فيرجى إدخال اسمها.
الميزات الرئيسية
؟ المصدر المفتوح
؟ الخصوصية أولا
إكمال رمز السيارات
؟ دردشة نمط Copilot
محادثات الخيوط
دعم تفسير الكود ، اختبارات الوحدة ، العثور على الأخطاء ، تشخيص الأخطاء ، إلخ
⌨ اختصارات لوحة المفاتيح
اختصار (MAC)
وصف
Alt + (لنظام التشغيل Windows/Linux) أو Cmd + (لـ Mac)
تشغيل إكمال رمز مضمّن
Ctrl + Alt + c (لنظام التشغيل Windows/Linux) أو Ctrl + Cmd + c (لـ Mac)
ابدأ الدردشة
نصائح وحيل
إن فهم هذه المفاهيم سيساعدك على تحقيق أقصى استفادة من الملكية.
كن محددًا . عندما تطلب ، على سبيل المثال ، تغييرات الكود ، قم بتضمين أسماء ملموسة ووصف النتيجة المطلوبة. تجنب المراجع الغامضة.
توفير السياق . يمكنك تضمين لغة البرمجة ("في الصدأ") أو السياقات الأخرى ذات الصلة للأسئلة الأساسية. يمكنك تحديد مقتطف رمز ذي معنى لتفسيرات الكود وتشخيص الخطأ.
لا تثق في الإجابات عمياء . إنها خطوة كبيرة حتى تتمكن الملكية من الرد على أسئلتك. قد يستجيب بإجابات غير دقيقة ، خاصة عند الحديث عن مواضيع أقل شهرة أو عندما يتم تفصيل المحادثة.
استخدم موضوعات الدردشة المختلفة لمواضيع مختلفة . الخيوط الأقصر مع مواضيع محددة ستساعد الملكية على الاستجابة بشكل أكثر دقة.
؟ الاعتمادات
Rubberduck AI - هذا المشروع مستوحى بشدة من أعمال Rubberduck AI ، ونحن مدينون لهم للبناء فوقه. فيما يلي قائمة المساهمين في هذا المشروع ونقدم امتناننا الصادق لهم جميعًا.
لارس جراميل ؟ ؟ ؟
إيان ماجير ؟
نيكولاس كارلو ؟
Ratogbm ؟
ليونيل أوكبيتشا ؟
ميركيرك ؟
Lundeen.Bryan ؟
دوكوج ؟
SBSTN87 ؟
مانويل ؟
أليساندرو نيوزو ؟
باطل و NULL ؟
wittydingo ؟
إيفا ؟
أليكسيلافرينف ؟
Linshu123
مايكل آدمز ؟
Restlessronin
؟ مساهمات الكود
دليل المساهمة
اقرأ دليلنا المساهمين للتعرف على عملية التطوير الخاصة بنا ، وكيفية اقتراح إبعاد الأخطاء والتحسينات ، وكيفية بناء واختبار التغييرات الخاصة بك.
القضايا الأولى الجيدة
لمساعدتك في الحصول على قدميك رطبة وتصبح على دراية بعملية مساهمتنا ، لدينا قائمة بالمشكلات الأولى الجيدة التي تحتوي على أشياء ذات نطاق محدود نسبيًا. هذا مكان رائع للبدء!