O KEDA permite autoscalamento de granulação fina (incluindo/para zero) para cargas de trabalho de Kubernetes acionadas por eventos. O KEDA serve como um servidor de métricas Kubernetes e permite que os usuários defina regras automáticas usando uma definição de recursos personalizados de Kubernetes dedicados.
O KEDA pode ser executado na nuvem e na borda, integra -se nativamente aos componentes do Kubernetes, como o Autoscaler Horizontal de Pod e não possui dependências externas.
Somos um projeto graduado da Fundação de Computação Nativa em Cloud (CNCF).
Índice
Você pode encontrar várias amostras para várias fontes de eventos aqui.
Existem muitas maneiras de implantar o KEDA, incluindo leme, hub de operador e arquivos YAML.
Interessado em aprender mais? Vá até Keda.sh.
Se estiver interessado em contribuir ou participar da direção de Keda, você pode participar de nossas reuniões da comunidade! Saiba mais sobre eles em nosso site.
Só quer aprender ou conversar sobre Keda? Sinta -se à vontade para participar da conversa em #KEDA no Kubernetes Slack !
Estamos sempre felizes em listar os usuários que executam o Keda em produção, aprendem mais sobre isso aqui.
Você pode aprender sobre a governança de Keda aqui.
Detalhes sobre a Política de Suporte Keda podem ser encontrados aqui.
Utilizamos problemas do GitHub para criar nosso backlog, uma visão geral completa de todos os itens abertos e nosso planejamento.
Saiba mais sobre o nosso roteiro aqui.
Você pode encontrar os lançamentos mais recentes aqui.
Você pode encontrar o guia contribuinte aqui.
Aprenda a construir e implantar o Keda localmente aqui.
Saiba mais sobre nossa estratégia de teste aqui.