📅 Última atualização: Fevereiro de 2026
Este glossário reúne os principais conceitos, siglas e termos técnicos utilizados em segurança da informação, privacidade de dados, conformidade regulatória e inteligência artificial (IA).
Os termos estão organizados em ordem alfabética para facilitar a consulta. Use como referência ao navegar pela Wiki da Cortex e demais conteúdos da SinapseTech.
- Agente de IA (AI Agent): Sistema de IA capaz de receber objetivos, planejar etapas, usar ferramentas e executar ações de forma autônoma ou semi-autônoma. Na Cortex, os agentes especializados atuam em áreas como segurança, jurídico, suporte e desenvolvimento.
- Agentic AI: Paradigma onde sistemas de IA atuam como agentes autônomos, capazes de planejar, executar e avaliar tarefas complexas usando ferramentas externas. Tendência dominante em 2025-2026.
- AI (Artificial Intelligence - Inteligência Artificial): Tecnologia que permite que máquinas realizem tarefas que normalmente requerem inteligência humana, como reconhecimento de padrões, aprendizado e tomada de decisões.
- Alucinação (Hallucination): Quando um LLM gera informações que parecem corretas mas são inventadas — dados falsos, fontes inexistentes ou fatos incorretos apresentados com confiança. Mitigação: RAG, citação de fontes e validação humana.
- API (Application Programming Interface): Conjunto de regras e protocolos que permite a comunicação entre diferentes sistemas e softwares. A Cortex utiliza APIs RESTful para integração com CRMs, ERPs, SIEMs e outros sistemas corporativos.
- APT (Advanced Persistent Threat): Ameaça avançada persistente, ataque cibernético sofisticado conduzido por hackers que mantêm acesso a uma rede por um longo período.
- Backup: Cópia de segurança de arquivos e sistemas para evitar perda de dados em caso de falhas ou ataques.
- Base de Conhecimento (Knowledge Base): Repositório centralizado de documentos, políticas, FAQs e dados corporativos que alimenta o RAG da Cortex, permitindo respostas contextualizadas e fundamentadas.
- Benchmark: Teste padronizado para avaliar o desempenho de modelos de IA. Exemplos: AIME (matemática), SWE-bench (coding), LMArena (ranking geral), HLE (raciocínio).
- BIA (Business Impact Analysis): Análise de impacto nos negócios usada para identificar e avaliar os efeitos potenciais de interrupções em processos críticos.
- Blockchain: Tecnologia descentralizada que registra transações de forma imutável e segura, usada em criptomoedas e contratos inteligentes.
- BM25: Algoritmo clássico de busca por palavras-chave, usado em combinação com busca semântica (hybrid search) para melhorar a recuperação de documentos no RAG.
- Chain-of-Thought (CoT): Técnica de prompt que instrui o modelo a raciocinar passo a passo antes de dar a resposta final. Melhora significativamente a qualidade em tarefas de raciocínio, matemática e lógica.
- Chunk / Chunking: Processo de dividir documentos em trechos menores para indexação no RAG. A estratégia de chunking (por tamanho, parágrafo, semântica) impacta diretamente a qualidade das respostas.
- CIA (Confidentiality, Integrity, Availability): Princípios fundamentais da segurança da informação: Confidencialidade, Integridade e Disponibilidade.
- CISO (Chief Information Security Officer): Executivo responsável pela segurança da informação em uma organização.
- Compliance: Conformidade com regulamentos, normas e boas práticas de segurança e privacidade.
- Contexto (Context Window): Quantidade máxima de tokens que um modelo pode processar em uma única interação (entrada + saída). Varia de 8K tokens (modelos compactos) a 2M tokens (Grok 4.1 Fast).
- Criptografia: Técnica para proteger dados por meio de algoritmos matemáticos que os tornam inacessíveis sem uma chave específica.
- Cross-Encoder: Modelo especializado em reranking que avalia a relevância de pares (pergunta, documento) com alta precisão. Usado para melhorar a qualidade da recuperação no RAG.
- Cyber Kill Chain: Modelo usado para descrever as fases de um ataque cibernético, desde a exploração inicial até a exfiltração de dados.
- DDoS (Distributed Denial of Service): Ataque distribuído de negação de serviço, sobrecarregando um sistema ou rede para torná-lo inacessível.
- Deep Learning: Subcampo do machine learning que utiliza redes neurais profundas (com muitas camadas) para aprender padrões complexos. Base dos LLMs modernos.
- DLP (Data Loss Prevention): Tecnologia que monitora, detecta e impede a perda ou vazamento de informações sensíveis.
- DPIA (Data Protection Impact Assessment): Avaliação de Impacto à Proteção de Dados, exigida pela LGPD e GDPR para tratamentos de dados que possam gerar riscos elevados aos titulares.
- Embedding: Representação numérica (vetor) de um texto que captura seu significado semântico. Usado no RAG para busca por similaridade — textos com significados parecidos têm embeddings próximos.
- Endpoint Protection: Estratégia de segurança voltada para proteger dispositivos finais, como computadores, celulares e servidores.
- ENISA (European Union Agency for Cybersecurity): Agência de cibersegurança da União Europeia, responsável por promover boas práticas de segurança.
- Ethical Hacking: Prática de invasão ética para testar a segurança de sistemas e identificar vulnerabilidades antes que sejam exploradas por criminosos.
- EU AI Act: Regulamentação da União Europeia que classifica sistemas de IA por nível de risco (inaceitável, alto, limitado, mínimo) e define requisitos de conformidade para cada categoria.
- Few-Shot Prompting: Técnica de prompt que fornece alguns exemplos de entrada/saída antes da pergunta real, ajudando o modelo a entender o padrão esperado.
- Fine-Tuning: Processo de retreinar um modelo pré-treinado com dados específicos para ajustar seu comportamento, estilo ou conhecimento. Complementar ao RAG na Cortex.
- FinOps (Financial Operations): Disciplina de gestão financeira aplicada a recursos de nuvem e IA. Na Cortex, envolve controle de custos por modelo, agente, usuário e departamento.
- Firewall: Dispositivo ou software que controla o tráfego de rede com base em regras de segurança predefinidas.
- Forense Digital: Processo de investigação que analisa evidências digitais para identificar a origem de ataques e incidentes de segurança.
- Framework de Segurança: Conjunto de normas e diretrizes que guiam a implementação de estratégias de proteção da informação. Exemplos: NIST, ISO 27001, COBIT.
- Frequency Penalty: Parâmetro que reduz a repetição de termos já usados na resposta. Valores mais altos produzem textos mais variados.
- GDPR (General Data Protection Regulation): Regulamento europeu de proteção de dados que estabelece diretrizes rigorosas para privacidade e tratamento de informações pessoais.
- Governança de Dados: Estrutura de políticas e controles para gerenciar, proteger e utilizar dados de forma eficiente e segura.
- GPT (Generative Pre-trained Transformer): Modelo de inteligência artificial baseado em redes neurais para processamento de linguagem natural (NLP).
- GRC (Governance, Risk and Compliance): Conjunto de práticas para governança corporativa, gestão de riscos e conformidade regulatória. A Cortex integra-se com plataformas GRC para automação dessas atividades.
- Guardrails: Regras e controles que limitam o comportamento da IA para garantir segurança, ética e conformidade. Exemplos: bloqueio de conteúdo sensível, anti-prompt injection, limites de escopo.
- Hashing: Processo de transformar dados em um código único e irreversível, usado para garantir integridade de informações.
- Honeypot: Sistema falso projetado para atrair hackers e analisar suas táticas sem comprometer sistemas reais.
- Human-in-the-Loop (HITL): Modelo de operação onde decisões críticas da IA passam por aprovação humana antes de serem executadas. Essencial para agentes autônomos em contextos de alto risco.
- Hybrid Search (Busca Híbrida): Combinação de busca semântica (vetorial) com busca por palavras-chave (BM25) para melhorar a cobertura e precisão da recuperação de documentos.
- HyDE (Hypothetical Document Embeddings): Técnica de query expansion onde o modelo gera um documento hipotético que responderia à pergunta, e usa seu embedding para buscar documentos reais similares.
- IA Generativa: Ramo da inteligência artificial focado na criação de novos conteúdos, como imagens, textos e códigos.
- IAM (Identity and Access Management): Gestão de identidade e acesso, garantindo que usuários tenham permissões adequadas para sistemas e dados.
- Inferência (Inference): Processo de usar um modelo treinado para gerar respostas a partir de novas entradas. É a etapa que consome tokens e gera custos operacionais.
- ISO 27001: Norma internacional para gestão da segurança da informação, estabelecendo diretrizes e boas práticas. A Cortex adota controles compatíveis com esta norma.
- ISO 42001: Norma internacional para sistemas de gestão de inteligência artificial. Define requisitos para governança, riscos e controles de IA.
- JSON Mode: Modo de operação que força o modelo a gerar saída exclusivamente em formato JSON válido. Essencial para integrações e extração estruturada de dados.
- JWT (JSON Web Token): Padrão de autenticação usado pela API da Cortex para garantir acesso seguro e verificável.
- LGPD (Lei Geral de Proteção de Dados): Lei brasileira de proteção de dados pessoais (Lei 13.709/2018). Define bases legais, direitos dos titulares e obrigações dos controladores e operadores.
- LLM (Large Language Model): Modelo de linguagem de grande escala treinado em vastos conjuntos de dados textuais. Capaz de compreender, gerar e processar linguagem natural. Base da Cortex.
- LPU (Language Processing Unit): Hardware proprietário da Groq, otimizado para inferência de LLMs com latência extremamente baixa.
- Machine Learning (ML): Subcampo da inteligência artificial que permite que sistemas aprendam padrões a partir de dados sem programação explícita.
- Malware: Termo genérico para softwares maliciosos, como vírus, trojans e ransomwares.
- Max Output Tokens: Parâmetro que define o tamanho máximo da resposta do modelo. Controla custo e verbosidade.
- MFA (Multi-Factor Authentication): Autenticação multifator, adicionando camadas de segurança ao processo de login.
- MLOps (Machine Learning Operations): Conjunto de práticas para gerenciar o ciclo de vida de modelos de ML/IA em produção — deploy, monitoramento, atualização e governança.
- MoE (Mixture of Experts): Arquitetura de modelo onde apenas uma fração dos parâmetros é ativada por requisição, oferecendo alta capacidade com eficiência computacional. Usado por Mistral, LLaMA 4, Kimi K2, GLM-5, entre outros.
- Multimodal: Capacidade de processar múltiplos tipos de dados (texto, imagem, áudio, vídeo) em uma única interação. Modelos como Gemini, GPT-4o e Kimi K2.5 são multimodais nativos.
- N8N: Plataforma de automação de workflows usada pela Cortex para orquestrar agentes, APIs e processos em fluxos automatizados.
- Network Security: Conjunto de práticas e tecnologias para proteger redes corporativas contra acessos não autorizados e ataques.
- NIST (National Institute of Standards and Technology): Organização que estabelece padrões de cibersegurança, incluindo o NIST Cybersecurity Framework.
- OAuth 2.0: Protocolo de autorização usado pela Cortex para autenticação segura de APIs e integrações.
- Open-Source / Open-Weight: Modelos cujos pesos (e às vezes dados de treino e código) são publicamente disponíveis. Exemplos: LLaMA, DeepSeek, Mistral, OLMo, Qwen. Permitem auditabilidade e customização.
- Penetration Testing (Pentest): Teste de invasão para avaliar a segurança de sistemas por meio da simulação de ataques.
- Phishing: Técnica de engenharia social usada para enganar usuários e roubar informações sensíveis.
- PII (Personally Identifiable Information): Informações que podem identificar um indivíduo, como CPF, nome e endereço.
- Presence Penalty: Parâmetro que incentiva o modelo a abordar novos temas, reduzindo a tendência de repetir assuntos já mencionados. Útil para brainstorm.
- Prompt: Instrução ou conjunto de instruções enviadas ao modelo de IA. A qualidade do prompt impacta diretamente a qualidade da resposta.
- Prompt Injection: Ataque onde um usuário tenta manipular o comportamento da IA inserindo instruções maliciosas no prompt. A Cortex implementa guardrails e validação para mitigar esse risco.
- RAG (Retrieval-Augmented Generation): Técnica que combina busca em bases de conhecimento com geração de texto por LLM, produzindo respostas fundamentadas em dados reais e atualizados. Pilar central da Cortex.
- Ransomware: Tipo de malware que sequestra arquivos e exige resgate para restaurar o acesso.
- RBAC (Role-Based Access Control): Controle de acesso baseado em funções. Na Cortex, define quais agentes, documentos e funcionalidades cada perfil de usuário pode acessar.
- Red Team: Equipe de segurança ofensiva responsável por testar a resistência da organização contra ataques cibernéticos.
- Reranking: Processo de reordenar resultados de busca para priorizar os mais relevantes. Melhora significativamente a precisão do RAG.
- Risk Assessment: Processo de avaliação de riscos para identificar vulnerabilidades e implementar controles preventivos.
- ROPA (Record of Processing Activities): Registro de Operações de Processamento de Dados, exigido pela LGPD. A Cortex mantém um inventário centralizado de todas as operações de IA que envolvem dados pessoais.
- Self-Consistency: Técnica de prompt onde o modelo gera múltiplas respostas e seleciona a mais consistente entre elas. Melhora a confiabilidade em tarefas de raciocínio.
- Shadow AI: Uso não autorizado e não monitorado de ferramentas de IA (como ChatGPT pessoal) dentro da organização. Gera riscos de vazamento de dados e falta de governança. A Cortex elimina Shadow AI ao oferecer um hub autorizado e auditável.
- SIEM (Security Information and Event Management): Tecnologia que coleta e analisa eventos de segurança em tempo real para detectar ameaças.
- SOC (Security Operations Center): Centro de operações de segurança responsável por monitoramento contínuo e resposta a incidentes.
- SOAR (Security Orchestration, Automation and Response): Plataforma que automatiza processos de resposta a incidentes.
- Stop Sequences: Sequências de caracteres que fazem o modelo parar de gerar texto. Útil para controlar o formato da saída (ex: parar após fechar um JSON).
- System Prompt: Instrução inicial que define o comportamento, papel e restrições do modelo. Na Cortex, cada agente tem um system prompt personalizado.
- Temperature: Parâmetro que controla a aleatoriedade das respostas. Valores baixos (0.0-0.3) produzem respostas mais determinísticas e precisas; valores altos (0.7-1.0) produzem respostas mais criativas e variadas.
- Thinking Mode (Modo de Raciocínio): Modo onde o modelo gera uma cadeia de raciocínio interna antes de produzir a resposta final. Melhora significativamente a qualidade em tarefas complexas. Disponível em modelos como o3, Kimi K2 Thinking, Qwen3 Max Thinking.
- Threat Hunting: Processo proativo de busca por ameaças dentro de uma rede antes que causem danos.
- Token: Unidade básica de processamento de texto em LLMs. Aproximadamente 4 caracteres em inglês ou 3 em português. Tokens são a base de cálculo de custo.
- Tokenização: Técnica de segurança que substitui dados sensíveis por identificadores únicos (tokens) para evitar exposição.
- Tool Calling (Function Calling): Capacidade do modelo de invocar ferramentas externas (APIs, bancos de dados, código) durante a geração de respostas. Essencial para agentes autônomos.
- Top-p (Nucleus Sampling): Parâmetro que controla a diversidade das escolhas do modelo. Define o percentual acumulado de probabilidade considerado na geração. Complementar à temperature.
- Transformer: Arquitetura de rede neural que é a base da maioria dos LLMs modernos. Utiliza mecanismos de atenção para processar sequências de texto de forma eficiente.
- Trojan (Cavalo de Troia): Malware disfarçado de software legítimo, projetado para permitir acesso não autorizado a sistemas.
- UEBA (User and Entity Behavior Analytics): Tecnologia que usa análise comportamental para detectar atividades anômalas e potenciais ameaças.
- Uptime: Medida de tempo em que um sistema ou serviço permanece disponível sem interrupções.
- URL Spoofing: Técnica usada por criminosos para criar sites falsos que imitam páginas legítimas, geralmente para phishing.
- USB Drop Attack: Ataque no qual um hacker deixa pendrives maliciosos em locais estratégicos para que usuários os conectem aos computadores, executando malware.
- Vetor / Banco Vetorial (Vector Database): Banco de dados otimizado para armazenar e buscar embeddings. Permite busca semântica de alta performance, essencial para o RAG.
- Vishing (Voice Phishing): Técnica de engenharia social que utiliza chamadas telefônicas para enganar vítimas e obter informações confidenciais.
- VPN (Virtual Private Network): Rede privada virtual que criptografa a conexão de internet para proteger dados e manter anonimato online.
- Virtual Patching: Técnica usada para aplicar proteções a vulnerabilidades sem modificar diretamente o código-fonte do software.
- Vulnerability Assessment: Processo de análise para identificar e corrigir vulnerabilidades em sistemas, redes e aplicativos.
- WAF (Web Application Firewall): Firewall para aplicações web que protege contra ataques como SQL Injection e Cross-Site Scripting (XSS).
- Webhook: Mecanismo de notificação em tempo real onde um sistema envia dados automaticamente para outro quando um evento ocorre. Usado na Cortex para integrações e automações.
- Whaling Attack: Tipo de phishing direcionado a executivos e tomadores de decisão de alto nível dentro de uma organização.
- White Hat Hacker: Especialista em segurança que utiliza técnicas de hacking de forma ética para fortalecer sistemas contra ataques.
- Wireless Security: Conjunto de práticas e tecnologias para proteger redes Wi-Fi contra acessos não autorizados e ataques cibernéticos.
- Workflow: Fluxo de trabalho automatizado que encadeia múltiplas etapas, agentes e ferramentas para resolver uma tarefa complexa. Na Cortex, workflows são orquestrados via N8N e APIs.
- XDR (Extended Detection and Response): Evolução do EDR (Endpoint Detection and Response) que correlaciona ameaças entre endpoints, redes e e-mails para proteção integrada.
- XML Encryption: Método de criptografia usado para proteger dados estruturados em XML (Extensible Markup Language).
- XSS (Cross-Site Scripting): Tipo de ataque que permite a injeção de scripts maliciosos em páginas web, explorando falhas de segurança para roubo de dados ou manipulação de usuários.
- YARA (Yet Another Recursive Acronym): Ferramenta usada para identificar e classificar malware com base em padrões específicos.
- Zero-Day Attack: Ataque que explora uma vulnerabilidade desconhecida pelo fornecedor do software, antes que possa ser corrigida.
- Zero-Shot Prompting: Técnica de prompt onde o modelo recebe apenas a instrução, sem exemplos prévios. Funciona bem para tarefas simples e modelos de alta capacidade.
- Zero Trust Security: Modelo de segurança que assume que nenhuma entidade, interna ou externa, deve ser automaticamente confiável, exigindo verificações rigorosas em todas as conexões e acessos.
- ZTA (Zero Trust Architecture): Arquitetura baseada no conceito de Zero Trust, que exige autenticação contínua e microsegmentação para proteger redes corporativas.
¶ 🔗 Continue explorando