Protocolo inteiro, fim a fim
O gerador de carga executa payment flow e data flow completos, com PKCE, consent e polling. Não existe rota atalho no simulador. A única forma de receber 200 é navegar o protocolo certo.
É o número que o proxy regulado entrega em carga realista, calibrada com telemetria de produção. Na prática, o que está em pé hoje já roda em torno de 1,9× a média de horário comercial do Open Finance Brasil inteiro. O caminho para mais capacidade está mapeado.
Os quatro números
As medições abaixo saíram do mesmo ambiente, com fluxos FAPI-BR completos e latência de produção. Não é throughput de papel, é o que está em pé hoje.
Comparação
Baseado em análise interna de dados públicos do Dashboard do Cidadão. Inclui buffer pessimista de ~47% acima do pico semanal observado. A Cumbuca, como configurada, absorve quase duas vezes a média de horário comercial do ecossistema inteiro.
O maior iniciador do ecossistema gerou 26,06 milhões de requisições na sua semana de pico do período de referência. No throughput que a nossa infra entrega hoje, esse volume inteiro passa em menos de nove minutos de operação.
O teto medido em 52k req/s é um teto da configuração atual, não da arquitetura. A camada que satura sob carga sintética é a terminação mTLS no load balancer, não a aplicação do proxy. O caminho para mais capacidade já está definido: sharding de LBs, incremental, sem mudar uma linha da aplicação.
Como medimos
Cada virtual user executa o protocolo inteiro: payment consent, PAR, autorização, client credentials, auth code, iniciação PIX, polling. PKCE real, consent IDs reais, Bearer tokens com escopo real.
O gerador de carga executa payment flow e data flow completos, com PKCE, consent e polling. Não existe rota atalho no simulador. A única forma de receber 200 é navegar o protocolo certo.
O simulador responde com uma distribuição linear por partes ancorada nos quantis que a gente mede em produção: p50 em 130 ms, p90 em 350 ms, p99 em 1.350 ms. O resultado reportado é de carga realista, não de um baseline sem latência.
120 instâncias m8i.large atrás de um ALB com terminação mTLS. 16 m8i.large rodam o simulador Open Finance. Dois c5.9xlarge rodam o k6 em paralelo como gerador de carga.
O teto e o caminho além
Em torno de 52k req/s, aparecem falhas que escalar proxy horizontalmente não resolve. A causa é a capacidade criptográfica de handshake mTLS no load balancer. O gargalo mora no edge, não na aplicação.
O caminho arquitetural é pré-planejado: múltiplos load balancers independentes atrás de um distribuidor L4. Cada shard adicional adiciona capacidade de terminação mTLS de forma linear.
Relatório completo
Texto em inglês, 38 páginas, classificação Confidential. Inclui topologia do teste, distribuição de latência, status codes, análise do gargalo mTLS, comparação com o ecossistema inteiro e roadmap de sharding.
Envie o e-mail e a empresa. Um engenheiro do time entrega o PDF em até um dia útil.
Próximo passo
Damos acesso a um ambiente de sandbox que espelha a produção. Você roda seu próprio k6 contra a infra real. Engenheiro no loop desde o primeiro e-mail.
Falar com engenharia