Keda autorise un autoscalimentation à grains fins (y compris vers / depuis zéro) pour les charges de travail Kubernetes motivées par des événements. Keda sert de serveur de métriques Kubernetes et permet aux utilisateurs de définir les règles d'autoscalités à l'aide d'une définition dédiée de ressources personnalisées de Kubernetes.
Keda peut fonctionner sur le nuage et le bord, s'intègre nativement aux composants de Kubernetes tels que l'autoscaler horizontal POD et n'a pas de dépendances externes.
Nous sommes un projet gradué de Cloud Native Computing Foundation (CNCF).
Table des matières
Vous pouvez trouver plusieurs échantillons pour diverses sources d'événements ici.
Il existe de nombreuses façons de déployer KEDA, y compris Helm, Operator Hub et YAML Files.
Vous souhaitez en savoir plus? Rendez-vous sur Keda.sh.
Si vous êtes intéressé à contribuer ou à participer à la direction de Keda, vous pouvez rejoindre nos réunions communautaires! En savoir plus à leur sujet sur notre site Web.
Vous voulez juste apprendre ou discuter de Keda? N'hésitez pas à rejoindre la conversation dans #KEDA sur le Slack de Kubernetes !
Nous sommes toujours heureux d'énumérer les utilisateurs qui dirigent Keda en production, en savoir plus ici.
Vous pouvez en apprendre davantage sur la gouvernance de Keda ici.
Les détails de la politique de support KEDA peuvent être trouvés ici.
Nous utilisons les problèmes GitHub pour construire notre arriéré, un aperçu complet de tous les articles ouverts et notre planification.
En savoir plus sur notre feuille de route ici.
Vous pouvez trouver les dernières versions ici.
Vous pouvez trouver un guide contributif ici.
Apprenez à construire et à déployer Keda localement ici.
En savoir plus sur notre stratégie de test ici.