KEDA permite el autoscalaje de grano fino (incluso hacia/desde cero) para cargas de trabajo de Kubernetes impulsadas por eventos. KEDA sirve como un servidor de métricas de Kubernetes y permite a los usuarios definir reglas de autoscalaje utilizando una definición dedicada de recursos personalizados de Kubernetes.
KEDA puede ejecutarse tanto en la nube como en el borde, se integra de forma nativa con los componentes de Kubernetes, como el autoscaler de POD horizontal, y no tiene dependencias externas.
Somos un proyecto graduado de la Fundación Computación Nativa de Cloud (CNCF).
Tabla de contenido
Puede encontrar varias muestras para varias fuentes de eventos aquí.
Hay muchas maneras de implementar KEDA, incluidos Helm, Operator Hub y Yaml Files.
¿Interesado en obtener más información? Dirígete a Keda.sh.
Si está interesado en contribuir o participar en la dirección de Keda, ¡puede unirse a nuestras reuniones comunitarias! Obtenga más información sobre ellos en nuestro sitio web.
¿Solo quieres aprender o charlar sobre Keda? ¡No dude en unirse a la conversación en #Keda en Kubernetes Slack !
Siempre nos complace enumerar a los usuarios que ejecutan Keda en producción, aprenda más al respecto aquí.
Puede aprender sobre el gobierno de Keda aquí.
Los detalles sobre la política de soporte de KEDA pueden encontrar aquí.
Utilizamos problemas de GitHub para construir nuestra acumulación, una descripción completa de todos los artículos abiertos y nuestra planificación.
Obtenga más información sobre nuestra hoja de ruta aquí.
Puede encontrar los últimos lanzamientos aquí.
Puede encontrar una guía contribuyente aquí.
Aprenda a construir e implementar keda localmente aquí.
Obtenga más información sobre nuestra estrategia de prueba aquí.