docs(aula-05): atualizar README com nova lógica de scaling

- Documentar trigger único (unavailable) em vez de restarts
- Explicar fórmula intuitiva: 5 + (unavailable * 2)
- Adicionar seção sobre scrape interval de 5s
- Documentar fluxo de detecção (~6-7s)
- Explicar por que não usar restarts (CrashLoopBackOff)
- Atualizar lições e trade-offs
This commit is contained in:
ArgoCD Setup
2026-01-23 11:15:20 -03:00
parent e15138a734
commit d3656fdce9

View File

@@ -18,7 +18,7 @@ metrics:
**Limitações:**
- App pode estar "saudável" em CPU mas travada
- Não detecta pods indisponíveis
- Não reage a restarts frequentes
- Reação lenta (~15-30s)
## A Solução: KEDA
@@ -29,7 +29,7 @@ Victoria Metrics ──► KEDA ──► HPA ──► Deployment
│ │
│ └─ Consulta métricas a cada 1s
└─ Coleta métricas do cluster (kube-state-metrics)
└─ Coleta métricas do cluster a cada 5s (kube-state-metrics)
```
## Arquitetura
@@ -38,8 +38,8 @@ Victoria Metrics ──► KEDA ──► HPA ──► Deployment
┌─────────────────────────────────────────────────────────────┐
│ Victoria Metrics │
│ ┌──────────────────────────────────────────────────────┐ │
│ │ kube_deployment_status_replicas_unavailable = 2 │ │
│ │ kube_pod_container_status_restarts_total = 5 │ │
│ │ kube_deployment_status_replicas_unavailable = 3 │ │
│ │ Scrape interval: 5s (detecção rápida) │ │
│ └──────────────────────────────────────────────────────┘ │
└─────────────────────────────────────────────────────────────┘
@@ -48,10 +48,13 @@ Victoria Metrics ──► KEDA ──► HPA ──► Deployment
┌─────────────────────────────────────────────────────────────┐
│ KEDA │
│ ┌────────────────┐ ┌─────────────────────────────────┐
│ │ ScaledObject │───►│ unavailable >= 1 ? SCALE UP │
│ │ │ │ restarts >= 1 ? SCALE UP
└────────────────┘ └─────────────────────────────────┘
│ ┌────────────────────────────────────────────────────────┐│
│ │ Query: 5 + (unavailable * 2) │
│ │ ││
│ 0 unavailable → 5 réplicas (mínimo) │
│ │ 3 unavailable → 11 réplicas (5 + 6) ││
│ │ 5 unavailable → 15 réplicas (5 + 10) ││
│ └────────────────────────────────────────────────────────┘│
└─────────────────────────────────────────────────────────────┘
Cria/Atualiza
@@ -82,97 +85,110 @@ cd aula-05
O setup.sh instala:
1. **Victoria Metrics** - Coleta e armazena métricas
2. **kube-state-metrics** - Expõe métricas do Kubernetes
2. **kube-state-metrics** - Expõe métricas do Kubernetes (scrape 5s)
3. **KEDA** - Event-driven autoscaler
4. **NGINX Ingress** - Com suporte a Lua (Keep Request)
4. **NGINX Ingress** - Load balancer
## Triggers Configurados
### Trigger 1: Pods Indisponíveis
## Trigger: Pods Indisponíveis (Instantâneo)
```yaml
query: |
kube_deployment_status_replicas_unavailable{
- type: prometheus
metricType: AverageValue
metadata:
serverAddress: http://vmsingle-vm-victoria-metrics-k8s-stack.monitoring:8428
# Query que calcula réplicas desejadas diretamente
query: |
5 + (kube_deployment_status_replicas_unavailable{
deployment="node-bugado",
namespace="default"
}
threshold: '1'
} * 2)
threshold: '1'
```
**Comportamento:** Se 1 ou mais pods estão indisponíveis → SCALE UP
### Como funciona a fórmula
### Trigger 2: Restarts Frequentes
| Pods Unavailable | Query Retorna | Réplicas Desejadas |
|------------------|---------------|-------------------|
| 0 | 5 + (0 × 2) = 5 | 5 (mínimo) |
| 1 | 5 + (1 × 2) = 7 | 7 |
| 3 | 5 + (3 × 2) = 11 | 11 |
| 5 | 5 + (5 × 2) = 15 | 15 |
**Vantagem**: Detecção **instantânea** - não precisa de janela de tempo como métricas de restarts.
## Configuração de Velocidade
### Scrape Rápido (5s)
```yaml
query: |
sum(increase(
kube_pod_container_status_restarts_total{
namespace="default",
pod=~"node-bugado.*"
}[2m]
))
threshold: '1'
# vmservicescrape-kube-state-metrics.yaml
apiVersion: operator.victoriametrics.com/v1beta1
kind: VMServiceScrape
spec:
endpoints:
- port: http
interval: 5s # Default é 30s - muito lento para workshop!
```
**Comportamento:** Se houve 1+ restart nos últimos 2 min → SCALE UP
## Configuração de Scaling
### Scale UP - Agressivo
```yaml
# Limites
minReplicaCount: 5 # Alta disponibilidade
maxReplicaCount: 30 # Limite de recursos
# Velocidade
pollingInterval: 1 # Verifica a cada 1s
# Scale UP - Agressivo
scaleUp:
stabilizationWindowSeconds: 0 # Imediato
stabilizationWindowSeconds: 0 # Sem espera
policies:
- type: Pods
value: 5 # +5 pods por vez
periodSeconds: 1 # A cada 1s
# Scale DOWN - Conservador
scaleDown:
stabilizationWindowSeconds: 10 # Aguarda 10s
policies:
- type: Percent
value: 50 # -50% por vez
periodSeconds: 5 # A cada 5s
```
### Exemplo de Scaling
### Scale DOWN - Agressivo
```yaml
scaleDown:
stabilizationWindowSeconds: 0 # Sem espera
policies:
- type: Pods
value: 10 # -10 pods por vez
periodSeconds: 1 # A cada 1s
```
## Fluxo de Detecção
```
Tempo 0.0s: Pod crasha
Tempo 0.0s: kube-state-metrics atualiza (imediato)
Tempo 5.0s: Victoria Metrics coleta (scrape interval)
Tempo 6.0s: KEDA consulta (polling interval)
Tempo 6.0s: HPA escala (imediato)
─────────────────────────────────────────────────
Total: ~6-7 segundos de reação
```
## Exemplo de Scaling
```
Tempo 0s: 5 pods, 0 unavailable
Tempo 1s: Pod1 trava, 1 unavailable → KEDA detecta
Tempo 2s: Escala para 10 pods (+5)
Tempo 3s: Pod2 trava, 2 unavailable
Tempo 4s: Escala para 15 pods (+5)
Tempo 6s: Pod1 trava → detectado → escala para 7 pods
Tempo 7s: Pod2 trava → detectado → escala para 9 pods
Tempo 8s: Pod3 trava → detectado → escala para 11 pods
...
Tempo 10s: 30 pods (máximo)
Tempo 20s: Pods reiniciaram, 0 unavailable
Tempo 30s: Scale down: 30 → 15 → 8 → 5
Tempo 15s: Pods reiniciaram, 0 unavailable
Tempo 16s: Scale down: 15 → 5 (instantâneo)
```
## Teste de Stress
```bash
# Terminal 1: Monitorar pods
watch kubectl get pods
watch kubectl get pods -l app=node-bugado
# Terminal 2: Monitorar HPA
watch kubectl get hpa
# Terminal 3: Teste de stress
./teste-stress.sh
# Ou manualmente - 1000 requests
for i in {1..1000}; do
curl -s http://localhost/ &
done
```
## Comandos Úteis
@@ -188,35 +204,46 @@ kubectl describe hpa keda-hpa-node-bugado-scaledobject
# Testar query no Victoria Metrics
kubectl run curl --rm -it --restart=Never --image=curlimages/curl -- \
-s "http://vmsingle-vm-victoria-metrics-k8s-stack.monitoring:8428/api/v1/query?query=kube_deployment_status_replicas_unavailable"
-s 'http://vmsingle-vm-victoria-metrics-k8s-stack.monitoring:8428/api/v1/query' \
--data-urlencode 'query=5 + (kube_deployment_status_replicas_unavailable{deployment="node-bugado"} * 2)'
# Logs do KEDA
kubectl logs -n keda -l app=keda-operator -f
# Métricas em tempo real
watch -n1 'kubectl get pods | grep node-bugado | wc -l'
```
## Queries PromQL
## Queries PromQL Úteis
```promql
# Pods indisponíveis
# Pods indisponíveis (usado pelo KEDA)
kube_deployment_status_replicas_unavailable{deployment="node-bugado"}
# Total de restarts
sum(kube_pod_container_status_restarts_total{pod=~"node-bugado.*"})
# Restarts nos últimos 2 minutos
sum(increase(kube_pod_container_status_restarts_total{pod=~"node-bugado.*"}[2m]))
# Query completa do KEDA
5 + (kube_deployment_status_replicas_unavailable{deployment="node-bugado"} * 2)
# Pods prontos
kube_deployment_status_replicas_ready{deployment="node-bugado"}
# Réplicas desejadas vs disponíveis
kube_deployment_status_replicas{deployment="node-bugado"}
kube_deployment_status_replicas_available{deployment="node-bugado"}
# Total de restarts (para debug)
sum(kube_pod_container_status_restarts_total{pod=~"node-bugado.*"})
```
## Por que não usar Restarts como trigger?
O trigger de restarts usa `increase([window])` que requer uma janela de tempo:
```yaml
# ❌ Problema: CrashLoopBackOff usa backoff exponencial
# Restart 1: imediato
# Restart 2: espera 10s
# Restart 3: espera 20s
# Restart 4: espera 40s
#
# Com janela de 15s, após restart 3+, o backoff > janela
# → increase([15s]) = 0 → KEDA não detecta!
```
**Solução**: Usar `kube_deployment_status_replicas_unavailable` que é **instantâneo**.
## Victoria Metrics vs Prometheus
| Aspecto | Prometheus | Victoria Metrics |
@@ -235,22 +262,22 @@ kube_deployment_status_replicas_available{deployment="node-bugado"}
## Lições
1. **Métricas customizadas**: Escale por qualquer métrica, não só CPU/memória
2. **Reação rápida**: KEDA pode verificar a cada 1 segundo
3. **Scale UP agressivo**: Adicione capacidade rapidamente quando necessário
4. **Scale DOWN conservador**: Evite oscilação (flapping)
5. **Observabilidade**: Métricas são a base para automação inteligente
1. **Métrica instantânea**: Use `unavailable` em vez de `restarts` para detecção imediata
2. **Scrape rápido**: Configure 5s em vez do default 30s
3. **Query intuitiva**: `5 + (unavailable * 2)` calcula réplicas diretamente
4. **Scale agressivo**: `stabilizationWindow: 0` para reação imediata
5. **metricType correto**: `AverageValue` para cálculo proporcional
## Trade-offs
| Aspecto | HPA Padrão | KEDA |
|---------|------------|------|
| Aspecto | HPA Padrão | KEDA (esta aula) |
|---------|------------|------------------|
| Configuração | Simples | Mais complexa |
| Métricas | CPU/Mem | Qualquer |
| Dependências | Nenhuma | Victoria Metrics/Prometheus |
| Latência | ~15-30s | ~6-7s |
| Dependências | Nenhuma | Victoria Metrics |
| Flexibilidade | Baixa | Alta |
| Latência | ~15s | ~1s (configurável) |
## Próxima Aula
**Aula 06**: Deploy do n8n via Helm em ambiente local (OrrStack/k3s/Docker Desktop/minikube/kind/etc).
**Aula 06**: Deploy do n8n via Helm em ambiente local.