
Este operador foi projetado para ativar o K8SGPT dentro de um cluster Kubernetes. Ele permitirá que você crie um recurso personalizado que defina o comportamento e o escopo de uma carga de trabalho gerenciada K8SGPT. Análise e saídas também serão configuráveis para permitir a integração nos fluxos de trabalho existentes.

helm repo add k8sgpt https://charts.k8sgpt.ai/
helm repo update
helm install release k8sgpt/k8sgpt-operator -n k8sgpt-operator-system --create-namespace
Instale o operador na seção de instalação.
Criar segredo:
kubectl create secret generic k8sgpt-sample-secret --from-literal=openai-api-key= $OPENAI_TOKEN -n k8sgpt-operator-systemkubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-sample
namespace: k8sgpt-operator-system
spec:
ai:
enabled: true
model: gpt-3.5-turbo
backend: openai
secret:
name: k8sgpt-sample-secret
key: openai-api-key
# backOff:
# enabled: false
# maxRetries: 5
# anonymized: false
# language: english
# proxyEndpoint: https://10.255.30.150 # use proxyEndpoint to setup backend through an HTTP/HTTPS proxy
noCache: false
repository: ghcr.io/k8sgpt-ai/k8sgpt
version: v0.3.41
#integrations:
# trivy:
# enabled: true
# namespace: trivy-system
# filters:
# - Ingress
# sink:
# type: slack
# webhook: <webhook-url> # use the sink secret if you want to keep your webhook url private
# secret:
# name: slack-webhook
# key: url
#extraOptions:
# backstage:
# enabled: true
EOF❯ kubectl get results -o json | jq .
{
" apiVersion " : " v1 " ,
" items " : [
{
" apiVersion " : " core.k8sgpt.ai/v1alpha1 " ,
" kind " : " Result " ,
" spec " : {
" details " : " The error message means that the service in Kubernetes doesn't have any associated endpoints, which should have been labeled with " control-plane=controller-manager " . nnTo solve this issue, you need to add the " control-plane=controller-manager " label to the endpoint that matches the service. Once the endpoint is labeled correctly, Kubernetes can associate it with the service, and the error should be resolved. " , O operador k8sgpt.ai permite monitorar vários clusters, fornecendo um valor de kubeconfig .
Esse recurso pode ser fascinante se você deseja adotar a engenharia da plataforma, como executar uma frota de clusters de Kubernetes para várias partes interessadas. Especialmente projetado para as infraestruturas baseadas em API de cluster, o operador k8sgpt.ai será instalado no mesmo cluster de gerenciamento de API de cluster: este é responsável por criar os clusters necessários de acordo com o provedor de infraestrutura para os clusters de sementes.
Depois que um cluster baseado em API de cluster foi provisionado um kubeconfig de acordo com a Convenção de Nomeação ${CLUSTERNAME}-kubeconfig estará disponível no mesmo espaço de nome: a chave de dados secreta convencional é value , que pode ser usado para instruir a implantação do k8sgpt.ai para monitorar um cluster remoto.
$: kubectl get clusters
NAME PHASE AGE VERSION
capi-quickstart Provisioned 8s v1.28.0
$: kubectl get secrets
NAME TYPE DATA AGE
capi-quickstart-kubeconfig Opaque 1 8s
Uma preocupação de segurança
Se a sua configuração exigir a abordagem menos privilegiada, um
kubeconfigdiferente deverá ser fornecido, pois a API de cluster gerou uma é delimitada ao usuárioadmin, que possui permissõesclustr-admin.
Depois de ter um kubeconfig válido, uma instância k8sgpt pode ser criada conforme ela segue.
apiVersion : core.k8sgpt.ai/v1alpha1
kind : K8sGPT
metadata :
name : capi-quickstart
namespace : default
spec :
ai :
anonymized : true
backend : openai
language : english
model : gpt-3.5-turbo
secret :
key : api_key
name : my_openai_secret
kubeconfig :
key : value
name : capi-quickstart-kubeconfig Uma vez aplicado, o operador k8sgpt.ai criará a implantação do k8sgpt.ai usando o cluster de sementes kubeconfig definido no campo /spec/kubeconfig .
Os objetos Result resultantes estarão disponíveis no mesmo espaço de nome em que a instância k8sgpt.ai foi implantada, rotulada com as seguintes chaves:
k8sgpts.k8sgpt.ai/name : o nome da instância k8sgpt.aik8sgpts.k8sgpt.ai/namespace : o espaço para nome da instância k8sgpt.aik8sgpts.k8sgpt.ai/backend : o back -end da IA (se especificado) Graças a esses rótulos, os resultados podem ser filtrados de acordo com o cluster monitorado especificado, sem poluir o cluster subjacente com o k8sgpt.ai CRDS e consumir cargas de trabalho de computação de sementes, além de manter a confidencialidade sobre as credenciais do motorista de back -end da IA.
No caso do campo ausente
/spec/kubeconfig, o operadork8sgpt.airastreará o cluster no qual foi implantado: isso é possível montando oServiceAccountfornecido fornecido.
Instale o operador na seção de instalação.
Criar segredo:
kubectl create secret generic k8sgpt-sample-cache-secret --from-literal=azure_client_id= < AZURE_CLIENT_ID > --from-literal=azure_tenant_id= < AZURE_TENANT_ID > --from-literal=azure_client_secret= < AZURE_CLIENT_SECRET > -n k8sgpt-
operator-system kubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-sample
namespace: k8sgpt-operator-system
spec:
ai:
model: gpt-3.5-turbo
backend: openai
enabled: true
secret:
name: k8sgpt-sample-secret
key: openai-api-key
noCache: false
repository: ghcr.io/k8sgpt-ai/k8sgpt
version: v0.3.41
remoteCache:
credentials:
name: k8sgpt-sample-cache-secret
azure:
# Storage account must already exist
storageAccount: "account_name"
containerName: "container_name"
EOF
Instale o operador na seção de instalação.
Criar segredo:
kubectl create secret generic k8sgpt-sample-cache-secret --from-literal=aws_access_key_id= < AWS_ACCESS_KEY_ID > --from-literal=aws_secret_access_key= < AWS_SECRET_ACCESS_KEY > -n k8sgpt-
operator-system kubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-sample
namespace: k8sgpt-operator-system
spec:
ai:
model: gpt-3.5-turbo
backend: openai
enabled: true
secret:
name: k8sgpt-sample-secret
key: openai-api-key
noCache: false
repository: ghcr.io/k8sgpt-ai/k8sgpt
version: v0.3.41
remoteCache:
credentials:
name: k8sgpt-sample-cache-secret
s3:
bucketName: foo
region: us-west-1
EOF
Instale o operador na seção de instalação.
Criar segredo:
kubectl create secret generic k8sgpt-sample-secret --from-literal=azure-api-key= $AZURE_TOKEN -n k8sgpt-operator-system kubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-sample
namespace: k8sgpt-operator-system
spec:
ai:
enabled: true
secret:
name: k8sgpt-sample-secret
key: azure-api-key
model: gpt-35-turbo
backend: azureopenai
baseUrl: https://k8sgpt.openai.azure.com/
engine: llm
noCache: false
repository: ghcr.io/k8sgpt-ai/k8sgpt
version: v0.3.41
EOF
Instale o operador na seção de instalação.
Ao executar na AWS, você tem várias maneiras de dar permissão à carga de trabalho gerenciada K8SGPT para acessar a Amazon Bedrock.
Para conceder acesso ao Bedrock usando uma conta de serviço Kubernetes, crie uma função de IAM com permissões de rock. Um exemplo de política está incluído abaixo:
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": [
"bedrock:InvokeModel",
"bedrock:InvokeModelWithResponseStream"
],
"Resource": "*"
}
]
}
Para conceder acesso ao Bedrock usando credenciais da AWS em um segredo de Kubernetes, você pode criar um segredo:
kubectl create secret generic bedrock-sample-secret --from-literal=AWS_ACCESS_KEY_ID= " $( echo $AWS_ACCESS_KEY_ID ) " --from-literal=AWS_SECRET_ACCESS_KEY= " $( echo $AWS_SECRET_ACCESS_KEY ) " -n k8sgpt-operator-system kubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-sample
namespace: k8sgpt-operator-system
spec:
ai:
enabled: true
secret:
name: bedrock-sample-secret
model: anthropic.claude-v2
region: eu-central-1
backend: amazonbedrock
noCache: false
repository: ghcr.io/k8sgpt-ai/k8sgpt
version: v0.3.41
EOF
Instale o operador na seção de instalação.
Siga o guia de instalação localai para instalar o localai. ( Nenhum segredo OpenAI é necessário ao usar o localai ).
Aplique o objeto de configuração K8SGPT:
kubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-local-ai
namespace: default
spec:
ai:
enabled: true
model: ggml-gpt4all-j
backend: localai
baseUrl: http://local-ai.local-ai.svc.cluster.local:8080/v1
noCache: false
repository: ghcr.io/k8sgpt-ai/k8sgpt
version: v0.3.41
EOF Nota: Verifique se o valor do baseUrl é um nome DNS adequadamente construído para o serviço localai. Ele deve assumir o formulário: http://local-ai.<namespace_local_ai_was_installed_in>.svc.cluster.local:8080/v1 .
kubectl apply -f - << EOF
apiVersion: core.k8sgpt.ai/v1alpha1
kind: K8sGPT
metadata:
name: k8sgpt-sample
namespace: k8sgpt-operator-system
spec:
ai:
enabled: true
model: gpt-3.5-turbo
backend: openai
secret:
name: k8sgpt-sample-secret
key: openai-api-key
noCache: false
repository: sample.repository/k8sgpt
version: sample-tag
imagePullSecrets:
- name: sample-secret
EOF Parâmetros opcionais disponíveis para pia.
('type', 'webhook' são parâmetros necessários.)
| ferramenta | canal | icon_url | nome de usuário |
|---|---|---|---|
| Folga | |||
| Matéria mais | ✔️ | ✔️ | ✔️ |
Para detalhes, veja aqui