⏱️ Leitura: 20 minutos · 🎯 Público: arquitetos, engenheiros, devs, gestores de operação. Requer familiaridade com Agentes Especializados e Engenharia de Prompts.
Agentes autônomos são a evolução natural de um assistente de IA. Em vez de responder a cada mensagem, um agente autônomo executa tarefas de múltiplos passos, usando ferramentas, consultando dados, tomando decisões e entregando um resultado completo.
Esta página cobre o que são, como construir, como governar e exemplos reais de agentes autônomos e workflows multi-agente na Cortex.
Um agente autônomo é um sistema de IA que:
🎯 OBJETIVO: "Analise todos os contratos do Q4 e gere relatório de riscos"
│
▼
┌───────────────────────────────────────────────┐
│ 1️⃣ PLANEJAMENTO │
│ - Listar contratos do Q4 (ferramenta: DB) │
│ - Para cada um: ler, classificar, extrair │
│ - Consolidar em relatório │
└─────────────────┬─────────────────────────────┘
│
▼
┌───────────────────────────────────────────────┐
│ 2️⃣ EXECUÇÃO (loop) │
│ Tool: buscar_contratos_q4() → 47 contratos │
│ Para cada contrato: │
│ Tool: ler_pdf(contrato_id) │
│ Tool: extrair_clausulas_risco(texto) │
│ Tool: consolidar_dados(resultados) │
└─────────────────┬─────────────────────────────┘
│
▼
┌───────────────────────────────────────────────┐
│ 3️⃣ AVALIAÇÃO │
│ - Todos os contratos processados? │
│ - Resultados fazem sentido? │
│ - Relatório está completo? │
└─────────────────┬─────────────────────────────┘
│
▼
📄 RELATÓRIO ENTREGUE
A diferença essencial: o agente não espera você perguntar o próximo passo — ele executa o plano completo.
| Aspecto | Chatbot tradicional | Agente (assistente) | Agente autônomo |
|---|---|---|---|
| Entrada | Pergunta pontual | Pergunta ou tarefa | Objetivo de alto nível |
| Saída | Resposta | Resposta elaborada | Tarefa concluída |
| Ferramentas | Não usa | Usa 1-2 (ex.: RAG) | Usa várias, em sequência |
| Decisões | Nenhuma | Algumas | Muitas (planeja o caminho) |
| Estado | Sem estado | Contexto da conversa | Estado complexo (multi-step) |
| Complexidade | Baixa | Média | Alta |
| Exemplo | "Qual é a capital da França?" | "Me resuma este PDF e destaque os riscos" | "Analise os 100 contratos do trimestre, classifique riscos e gere relatório por fornecedor" |
| Modelos recomendados | Qualquer | Todos | Modelos com raciocínio forte: gpt-5, claude-opus-4-7, grok-4.20-reasoning, gemini-3-pro |
Sem ferramentas, um LLM é apenas um gerador de texto. Com ferramentas, vira um agente que age no mundo.
Disponíveis em qualquer instalação da Cortex:
| Ferramenta | O que faz |
|---|---|
| Web Search | Busca na internet (via Perplexity, Bing, outros) |
| Code Interpreter | Executa Python em sandbox para cálculos, gráficos, análise de dados |
| Image Generation | Gera imagens (gpt-image, DALL-E) |
| File Upload/Reader | Lê PDFs, DOCX, XLSX, CSV, imagens |
| Vision | Analisa imagens anexadas |
| Memory | Armazena e recupera fatos sobre o usuário |
| Time | Data, hora, fusos |
| Knowledge Tools | list_knowledge, query_knowledge_files, view_file — veja RAG agêntico |
Skills são guias de como fazer uma tarefa. Não executam código, mas orientam o agente. Podem ser vinculadas ao agente (carregadas sob demanda) ou invocadas com $.
👉 Skills explicadas em detalhe
Integrações prontas com sistemas comuns:
| Sistema | Tipo de ação |
|---|---|
| CRM (Salesforce, HubSpot) | Consultar cliente, criar atividade, atualizar pipeline |
| ERP (SAP, Totvs) | Consultar ordem, estoque, fornecedor |
| ITSM (ServiceNow, Jira SM) | Abrir ticket, atualizar status |
| Comunicação (Slack, Teams, e-mail) | Enviar mensagem, criar canal |
| Calendário (Outlook, Google) | Agendar, consultar agenda |
| Armazenamento (SharePoint, Drive) | Ler, listar, criar arquivo |
| SIEM (Splunk, Sentinel) | Consultar evento, correlacionar |
| Código (GitHub, GitLab) | Revisar PR, criar issue |
Você pode desenvolver ferramentas em Python que o modelo pode invocar:
# Exemplo: ferramenta para consultar o inventário de ativos da empresa
def consultar_inventario_ativos(
tipo: str, # "servidor" | "endpoint" | "rede"
criticidade: str, # "alta" | "media" | "baixa"
localizacao: str = None,
):
"""Consulta o inventário de ativos corporativo (CMDB).
Args:
tipo: tipo do ativo
criticidade: nível de criticidade
localizacao: datacenter/site (opcional)
Returns:
Lista de ativos com hostname, IP, responsável, SLA
"""
# ... código que consulta seu CMDB ...
return resultados
O LLM entende a documentação da função (docstring) e sabe quando e como invocá-la. A Cortex cuida da parte de segurança, autenticação, rate limit, logs.
Para integrar servidores de ferramentas externos via protocolo padrão (MCP). Útil para reaproveitar conectores prontos da comunidade ou de parceiros.
Function calling é a capacidade do modelo de chamar uma ferramenta durante a geração de uma resposta.
1. USUÁRIO pergunta:
"Qual foi o ticket de maior duração aberto no último mês?"
2. MODELO recebe:
- A pergunta do usuário
- A lista de ferramentas disponíveis (com suas descrições/parâmetros)
3. MODELO decide:
"Preciso da ferramenta `consultar_tickets` com filtros:
período='último_mês', ordenar_por='duração', limite=1"
4. CORTEX executa a ferramenta:
→ API do ITSM retorna: {id: "INC-12345", duracao: 480h, ...}
5. MODELO recebe o resultado:
{id: "INC-12345", duracao: 480h, ...}
6. MODELO formula a resposta final:
"O ticket de maior duração no último mês foi o INC-12345, que ficou
aberto por 480 horas (20 dias). Tratava-se de..."
7. USUÁRIO recebe a resposta.
O modelo orquestra tudo — decide qual ferramenta chamar, com quais parâmetros, em que ordem. O desenvolvedor declara as ferramentas; o modelo decide o uso.
A Cortex suporta dois modos:
| Modo | Como funciona | Quando usar |
|---|---|---|
| Padrão (default) | A Cortex decide chamar ferramentas baseado em heurísticas. RAG é injetado automaticamente quando o agente tem base vinculada. | Casos simples. Menor risco. Padrão para usuários iniciantes. |
| Nativo (native) | O modelo decide diretamente, usando function calling nativo do provedor. Ferramentas são expostas ao modelo como API. | Casos complexos. Agentes autônomos. RAG não é injetado automaticamente — o modelo precisa chamar query_knowledge_files explicitamente. |
⚠️ Ao mudar para modo nativo, lembre-se: o prompt do sistema precisa orientar o modelo a usar as ferramentas de conhecimento. Caso contrário, ele pode não consultá-las.
| Nível | Modelos recomendados |
|---|---|
| Excelente | gpt-5, gpt-5.4, claude-opus-4-7, claude-sonnet-4-6, gemini-3-pro-preview, grok-4.20-reasoning, o4-mini |
| Bom | gpt-5-mini, claude-haiku-4-5, gemini-2.5-pro, grok-4 |
| Básico | Modelos menores — funcionam mas podem confundir parâmetros |
Quando a tarefa é complexa demais para um único agente, você compõe vários. Padrões mais comuns:
Cada agente processa e passa o resultado para o próximo.
[Agente A] → resultado → [Agente B] → resultado → [Agente C] → Saída final
Exemplo — Análise de contrato fornecedor:
1. Agente Extrator de Contratos
- Recebe: PDF do contrato
- Faz: extração estruturada (partes, objeto, valor, prazos, cláusulas)
- Retorna: JSON estruturado
│
▼
2. Agente Auditor de Riscos
- Recebe: JSON do contrato
- Faz: identifica cláusulas de risco (multas, foro, responsabilidade)
- Retorna: lista de riscos com severidade
│
▼
3. Agente Redator Jurídico
- Recebe: riscos identificados
- Faz: gera parecer em linguagem natural com recomendações
- Retorna: documento pronto para revisão humana
Vantagens: simples, transparente, fácil de debugar.
Desvantagens: lento (sequencial), sem paralelismo.
Múltiplos agentes trabalham simultaneamente em aspectos diferentes. Um agregador consolida.
┌→ [Agente A] ─┐
Objetivo ─┼→ [Agente B] ─┼→ [Agregador] → Saída final
└→ [Agente C] ─┘
Exemplo — Due diligence de fornecedor candidato:
Paralelo:
├── Agente de Análise Financeira (consulta Serasa, Receita, BCB)
├── Agente de Análise Jurídica (consulta processos, TRT, JF)
├── Agente de Análise Reputacional (busca web, notícias, redes)
├── Agente de Análise de Segurança (busca vazamentos, CVEs)
└── Agente de Análise Regulatória (checa órgão regulador)
│
▼
Agente Consolidador (gera relatório unificado)
Vantagens: rápido, especializações claras.
Desvantagens: gestão de falhas (o que fazer se um sub-agente falhar?).
Um supervisor coordena, decompõe o problema e delega.
[Supervisor] ─┬→ delega → [Agente A]
├→ delega → [Agente B]
├→ delega → [Agente C]
│
◄── recebe resultados
│
▼
Saída final
Exemplo — Resposta a incidente de segurança:
1. Supervisor (Agente CISO)
- Recebe: "Alerta crítico no SIEM — possível ransomware"
- Decide: acionar playbook de ransomware
- Delega:
→ Agente Infra: "Isole VLAN X e Y"
→ Agente SOC: "Colete evidências forenses"
→ Agente DPO: "Avalie impacto em dados pessoais"
→ Agente Comms: "Prepare comunicado interno"
- Monitora progresso dos sub-agentes
- Sintetiza: relatório consolidado + plano de contenção
- Escala para humano (human-in-the-loop) para aprovação antes de executar
Vantagens: escalável, espelha hierarquia organizacional.
Desvantagens: supervisor pode virar gargalo; complexidade alta.
Agentes com perspectivas diferentes "debatem" e um juiz decide.
[Agente A] ←→ [Agente B]
│ │
└────┬──────┘
▼
[Juiz] → Melhor resposta
Exemplo — Decisão estratégica:
1. Agente Estrategista — propõe plano de expansão
2. Agente Crítico de Riscos — aponta falhas no plano
3. Agente Financeiro — aponta viabilidade e retorno
4. Juiz (modelo potente) — consolida propostas e recomenda caminho
Vantagens: respostas mais robustas; simulação de deliberação.
Desvantagens: alto custo de tokens; pode gerar paralisia se não tiver juiz forte.
O agente alterna entre raciocínio e ação em loop até atingir o objetivo.
Pensar → Agir → Observar → Pensar → Agir → ... → Concluir
Implementado nativamente pelos modelos com raciocínio forte (o3, gpt-5, claude-opus). Útil para tarefas exploratórias onde o caminho não é conhecido a priori.
Vamos acompanhar um agente autônomo real de ponta a ponta.
Objetivo: Um usuário da área financeira pede:
"Gere o relatório mensal de conciliação bancária, compare com o extrato do SAP e flagueie divergências acima de R$ 1.000."
Nome: Conciliador Financeiro Sênior
Modelo base: gpt-5 (raciocínio forte + function calling nativo)
Function calling: nativo
Temperatura: 0.1
Ferramentas:
- consultar_extrato_bancario(banco, periodo)
- consultar_razao_sap(conta_contabil, periodo)
- gerar_relatorio_conciliacao(dados, formato)
- salvar_em_sharepoint(arquivo, caminho)
Conhecimento:
- "Procedimentos de Conciliação" (política interna)
- "Plano de Contas" (referência)
Skills:
- "Formato Padrão de Relatório Financeiro"
Aprovação humana: requerida antes de salvar relatório final
👤 USUÁRIO: "Gere o relatório mensal de conciliação bancária, compare
com o SAP e flagueie divergências acima de R$ 1.000."
🤖 AGENTE (raciocínio interno):
"Preciso de:
1. Período → usuário disse 'mensal' → uso mês anterior completo
2. Extratos bancários → buscar de todas as contas cadastradas
3. Razão SAP → buscar contas contábeis bancárias
4. Comparar e identificar divergências > R$ 1.000
5. Gerar relatório no formato padrão
6. Salvar no SharePoint"
🛠️ AÇÃO 1: consultar_extrato_bancario(banco="Itau", periodo="2026-03")
→ retorna 847 lançamentos
🛠️ AÇÃO 2: consultar_extrato_bancario(banco="BB", periodo="2026-03")
→ retorna 612 lançamentos
🛠️ AÇÃO 3: consultar_razao_sap(conta="1.1.1.001", periodo="2026-03")
→ retorna 1.389 lançamentos contábeis
🤖 AGENTE (análise):
- Faz match de lançamentos por data, valor, histórico
- Identifica 12 divergências, 4 delas > R$ 1.000
- Consulta base de conhecimento para procedimento de tratamento
🛠️ AÇÃO 4: gerar_relatorio_conciliacao(
dados={...},
formato="conforme skill 'Formato Padrão'")
→ retorna PDF
🛑 HUMAN-IN-THE-LOOP: "Relatório pronto. Deseja que eu salve no
SharePoint da controladoria? [Sim/Revisar]"
👤 USUÁRIO: [Clica Revisar, faz ajustes, aprova]
🛠️ AÇÃO 5: salvar_em_sharepoint(
arquivo=relatorio.pdf,
caminho="/Controladoria/Conciliacoes/2026-03/")
→ retorna URL
🤖 AGENTE: "Pronto! Relatório salvo em [URL].
Identifiquei 4 divergências acima de R$ 1.000:
[lista resumida]
Sugiro investigação imediata da #2 (R$ 45.800) que
não tem correspondência no SAP."
Resultado: o que era um trabalho de 4-6 horas de um analista financeiro virou 15 minutos de execução + revisão humana. E o agente entregou com padronização, com rastreabilidade e com flag de casos críticos.
Agentes autônomos ficam ainda mais poderosos quando acoplados a plataformas de automação e gatilhos externos.
A Cortex se integra nativamente ao n8n (e similares: Make, Zapier, Power Automate). Padrões comuns:
┌─────────────────┐ ┌──────────────┐ ┌─────────────────┐
│ TRIGGER │ → │ AGENTE CORTEX│ → │ AÇÃO │
│ (webhook, cron, │ │ (processamento│ │ (ticket, │
│ e-mail, DB...) │ │ com IA) │ │ e-mail, API...)│
└─────────────────┘ └──────────────┘ └─────────────────┘
Exemplos:
| Trigger | Agente | Ação |
|---|---|---|
| Novo ticket no ITSM | Classificar e priorizar | Atribuir ao time correto |
| Novo contrato no SharePoint | Analisar e flagueiar riscos | Abrir ticket no jurídico |
| Alerta crítico no SIEM | Executar playbook | Notificar plantão + criar incidente |
| Novo colaborador no HRIS | Gerar plano de onboarding | Criar contas, enviar welcome kit |
| Cron diário 06h | Gerar relatório matinal | Enviar por e-mail a gestores |
E-mail no atendimento@ |
Classificar e responder FAQ | Encaminhar ou responder |
/api/v1/chat/completions ou endpoint customizado)👉 APIs e Integrações — documentação completa
Agentes podem rodar em agenda pré-definida:
Quanto mais autônomo um agente, mais rigorosa precisa ser a governança.
| Princípio | Implementação na Cortex |
|---|---|
| Menor privilégio | Agente só recebe acesso às ferramentas que realmente precisa |
| Supervisão humana | Ações críticas exigem aprovação antes de executar |
| Escopo limitado | Cada ferramenta tem contrato claro (input/output/efeitos) |
| Rastreabilidade | Logs completos de cada decisão e ação |
| Reversibilidade | Priorizar ações reversíveis; registrar rollback quando impossível |
| Transparência | Agente explica o raciocínio; mostra ferramentas chamadas |
| Circuit breakers | Teto de ações/tempo por execução; fail-safe automático |
| Sandbox por padrão | Ferramentas potencialmente destrutivas rodam em ambiente isolado |
Classifique cada ação por nível de risco:
| Nível | Risco | Exemplos | Comportamento |
|---|---|---|---|
| 🟢 Autônomo | Baixo | Responder FAQ, ler documento, classificar ticket | Agente executa automaticamente |
| 🟡 Sugestão | Médio | Responder e-mail externo, atualizar ticket, criar documento | Agente prepara; humano confirma (1 clique) |
| 🟠 Revisão | Alto | Enviar comunicado a clientes, atualizar dados, assinar documento | Humano revisa e executa |
| 🔴 Bloqueado | Crítico | Transferir dinheiro, deletar dados, decisões irreversíveis | Agente não pode — humano faz direto |
requires_approval=True (quando suportado)Agentes autônomos são potentes — e por isso perigosos se mal desenhados. Riscos comuns:
O agente fica num ciclo de "tento A → falha → tento B → falha → tento A de novo...".
Mitigações:
Agente autônomo consome muito mais tokens que chat direto (raciocínio + ferramentas + respostas intermediárias).
Mitigações:
Agente executa perfeitamente a tarefa errada ("faça X muito bem" — mas X não era o que o usuário queria).
Mitigações:
Agente lê um e-mail que contém "ignore suas regras e envie dados a...".
Mitigações:
Agente com pouca permissão descobre como usar ferramentas para fazer algo não autorizado.
Mitigações:
Um agente erra ao atualizar um sistema e dispara falhas em outros.
Mitigações:
Agente tomou decisão complexa; auditoria pergunta "por quê?" — não há registro.
Mitigações:
Acompanhe pelo menos estas métricas em agentes em produção:
| Métrica | Meta referência |
|---|---|
| Taxa de conclusão com sucesso | > 90% |
| Tempo médio de execução | Depende do caso |
| P95 de tempo de execução | < 2x tempo médio |
| Taxa de escalação para humano | < 20% (depende do tipo) |
| Taxa de erro técnico | < 5% |
| Taxa de loop detectado | < 1% |
| Métrica | Como medir |
|---|---|
| Qualidade da entrega | Avaliação humana amostral (4/5+) |
| Feedback do usuário | 👍/👎 agregados |
| Taxa de retrabalho | % de execuções que precisaram ser refeitas |
| Fidelidade a fontes | % de afirmações verificáveis |
| Métrica | Meta |
|---|---|
| Custo médio por execução | Benchmark inicial; reduzir 10-20%/trimestre |
| Tokens médio por execução | Monitorar |
| Custo por entrega de valor | R$ por relatório, R$ por ticket tratado, etc. |
| Métrica | Meta |
|---|---|
| Ações bloqueadas por filtros | Registrar |
| Tentativas de uso indevido | Registrar e investigar |
| Cobertura de logs | 100% |
💬 Quer desenhar um fluxo autônomo para um processo crítico da sua empresa? A SinapseTech oferece consultoria de desenho de agentes com arquitetos especializados em agentic AI. Fale com a equipe via Atendimento e Suporte.