

Katib هو مشروع Kubernetes-Native للتعلم الآلي الآلي (Automl). يدعم Katib ضبط الفائقة المفرطة ، والتوقف المبكر والبحث عن الهندسة المعمارية العصبية.
Katib هو المشروع الذي هو لاأدري أطر التعلم الآلي (ML). يمكنه ضبط أجهزة التطبيقات المفرطة للتطبيقات المكتوبة بأي لغة من اختيار المستخدمين ويدعم أصلاً العديد من أطر عمل ML ، مثل TensorFlow و Apache Mxnet و Pytorch و XgBoost وغيرها.
يمكن لـ Katib أداء وظائف التدريب باستخدام أي موارد مخصصة Kubernetes مع Out Out of the Box لمشغل تدريب Kubeflow ، وسير العمل ARGO ، وخطوط أنابيب Tekton وغيرها الكثير.
كاتيب يرمز إلى secretary باللغة العربية.
Katib يدعم العديد من خوارزميات البحث. اتبع وثائق kubeflow لمعرفة المزيد عن كل خوارزمية وتحقق من هذا الدليل لتنفيذ خوارزمية مخصصة.
| ضبط الفائقة | البحث العمارة العصبية | التوقف المبكر |
| بحث عشوائي | enas | توقف متوسط |
| بحث الشبكة | السهام | |
| تحسين بايزي | ||
| TPE | ||
| متعددة المتغيرات TPE | ||
| CMA-ES | ||
| تسلسل Sobol's quasirandom | ||
| Hyperband | ||
| تدريب على أساس السكان |
لأداء الخوارزميات أعلاه ، تدعم Katib الأطر التالية:
يرجى التحقق من وثائق kubeflow الرسمية للمتطلبات المسبقة لتثبيت katib.
يرجى متابعة دليل Kubeflow Katib للحصول على التعليمات التفصيلية حول كيفية تثبيت Katib.
قم بتشغيل الأمر التالي لتثبيت أحدث إصدار مستقر من طائرة التحكم في Katib:
kubectl apply -k "github.com/kubeflow/katib.git/manifests/v1beta1/installs/katib-standalone?ref=v0.17.0"
قم بتشغيل الأمر التالي لتثبيت أحدث التغييرات في طائرة التحكم في Katib:
kubectl apply -k "github.com/kubeflow/katib.git/manifests/v1beta1/installs/katib-standalone?ref=master"
لتجارب Katib تحقق من قائمة الأمثلة الكاملة.
يقوم Katib بتنفيذ Python SDK لتبسيط إنشاء وظائف ضبط الفائقة لعلماء البيانات.
قم بتشغيل الأمر التالي لتثبيت أحدث إصدار مستقر من Katib SDK:
pip install -U kubeflow-katibيرجى الرجوع إلى دليل البدء لإنشاء أول تجربة لضبط المتقلب الأول باستخدام Python SDK.
توفر الروابط التالية معلومات حول كيفية المشاركة في المجتمع:
#kubeflow-katib Slack.يرجى الرجوع إلى دليل المساهمة.
إذا كنت تستخدم Katib في منشور علمي ، فسنقدر الاستشهادات على الورقة التالية:
نظام ضبط الفائقة القابلة للتطوير والمواطن السحابي ، جورج وآخرون. ، Arxiv: 2006.02085 ، 2020.
دخول bibtex:
@misc{george2020katib,
title={A Scalable and Cloud-Native Hyperparameter Tuning System},
author={Johnu George and Ce Gao and Richard Liu and Hou Gang Liu and Yuan Tang and Ramdoot Pydipaty and Amit Kumar Saha},
year={2020},
eprint={2006.02085},
archivePrefix={arXiv},
primaryClass={cs.DC}
}