Keda ermöglicht feinkörniges Autoscaling (einschließlich/von Null) für ereignisgesteuerte Kubernetes-Workloads. KEDA dient als Kubernetes -Metrikserver und ermöglicht Benutzern die Definition von Autoscaling -Regeln mithilfe einer dedizierten Kubernetes -benutzerdefinierten Ressourcendefinition.
Keda kann sowohl auf der Wolke als auch auf der Kante laufen, in Kubernetes -Komponenten wie dem horizontalen POD -Autoscaler nativ integriert und hat keine externen Abhängigkeiten.
Wir sind ein Cloud natial Computing Foundation (CNCF) -Angrad -Projekt.
Inhaltsverzeichnis
Hier finden Sie mehrere Muster für verschiedene Ereignisquellen.
Es gibt viele Möglichkeiten, KEDA bereitzustellen, einschließlich Helm-, Operator Hub- und YAML -Dateien.
Interessiert, mehr zu erfahren? Gehen Sie zu Keda.sh.
Wenn Sie an KEDA beitragen oder an der Leitung von Keda teilnehmen möchten, können Sie sich unseren Community -Meetings anschließen! Erfahren Sie mehr über sie auf unserer Website.
Möchten Sie nur über Keda lernen oder plaudern? Fühlen Sie sich frei, sich dem Gespräch in #Keda auf dem Kubernetes Slack anzuschließen!
Wir freuen uns immer, Benutzer aufzulisten, die Keda in der Produktion betreiben, und erfahren Sie hier mehr darüber.
Sie können hier die Regierungsführung von Keda kennenlernen.
Details zur KEDA -Support -Richtlinie finden Sie hier.
Wir verwenden GitHub -Probleme, um unseren Rückstand zu erstellen, einen vollständigen Überblick über alle offenen Elemente und unsere Planung.
Erfahren Sie hier mehr über unsere Roadmap.
Hier finden Sie die neuesten Veröffentlichungen.
Hier finden Sie einen beitragenden Leitfaden.
Erfahren Sie, wie Sie Keda hier lokal erstellen und einsetzen.
Erfahren Sie hier mehr über unsere Teststrategie.