A Cortex, plataforma de Inteligência Artificial da SinapseTech, disponibiliza 57 modelos de Linguagem de Grande Escala (LLMs) de 14 provedores e plataformas para impulsionar produtividade, inovação e transformação digital.
Esses modelos apoiam desde a automação de processos corporativos até a criação de novos produtos e serviços, passando por apoio à tomada de decisão, pesquisa, comunicação, análise de dados, geração de imagens e segurança da informação.
🔄 A Cortex é atualizada continuamente, garantindo acesso aos modelos mais recentes e relevantes para os negócios.
Os modelos Claude são reconhecidos por sua ênfase em clareza, segurança e ética, ideais para contextos empresariais que exigem confiabilidade, precisão e janelas de contexto extensas.
| Modelo | Descrição |
|---|---|
claude-haiku-4-5 |
Modelo compacto e ultrarrápido da família Claude. Otimizado para alto volume de requisições com baixa latência. |
claude-sonnet-4 |
Modelo intermediário com excelente equilíbrio entre desempenho e custo. Forte em instrução, criatividade e análise. |
claude-sonnet-4-5 |
Evolução do Sonnet 4 com raciocínio aprimorado, forte em programação, matemática e ciência de dados. |
claude-sonnet-4-6 |
Novo (fev/2026). O Sonnet mais capaz até o momento. Upgrade completo em coding, computer use, raciocínio em contexto longo, planejamento agentic e design. Janela de 1M tokens (beta). Desempenho de nível Opus a preço de Sonnet. Preferido sobre o Opus 4.5 em 59% dos testes por desenvolvedores. |
claude-opus-4-5 |
Modelo flagship da Anthropic. Estado da arte em engenharia de software, visão computacional, raciocínio e matemática. |
claude-opus-4-6 |
Modelo mais recente e poderoso da Anthropic. Janela de contexto de 1 milhão de tokens (beta), foco em engenharia de código em larga escala e tarefas empresariais complexas. |
Quando usar:
Como usar:
Por que escolher:
A linha Gemini traz a multimodalidade nativa como diferencial (texto, imagem, áudio, vídeo), possibilitando aplicações completas em ambientes corporativos.
| Modelo | Descrição |
|---|---|
gemini-2.0-flash |
Modelo rápido e eficiente da geração 2.0. Ideal para interações em tempo real com suporte multimodal. |
gemini-2.5-flash |
Evolução do Flash com raciocínio aprimorado e capacidade de "pensamento" (thinking). Excelente custo-benefício. |
gemini/gemini-2.5-pro |
Modelo premium da geração 2.5. Pesquisa avançada, análise multimodal profunda e geração de relatórios integrados. |
gemini/gemini-3-flash-preview |
Nova geração Flash com inteligência de fronteira. SWE-bench Verified de 78% para coding agentic. Raciocínio visual e espacial avançado. |
gemini/gemini-3-pro-preview |
Modelo mais inteligente do Google. Capacidades de fronteira em raciocínio, pesquisa e análise multimodal complexa. |
Quando usar:
Como usar:
Por que escolher:
Os modelos GPT e da série o (raciocínio) são amplamente versáteis e aplicáveis em praticamente todas as áreas corporativas, com destaque para criação, análise, tomada de decisão, geração de imagens e integração em fluxos de trabalho.
| Modelo | Descrição |
|---|---|
gpt-4.1 |
Modelo robusto para tarefas complexas de texto. Forte em seguimento de instruções, contexto longo (1M tokens) e codificação. |
gpt-4.1-mini |
Versão compacta do GPT-4.1. Equilíbrio entre desempenho e custo para uso em escala. |
gpt-4.1-nano |
Modelo ultracompacto para automação simples, classificação e integração em dispositivos. |
gpt-4o |
Modelo multimodal omni (texto, imagem, áudio). Ideal para criação e edição de conteúdo multimídia. |
gpt-4o-mini |
Versão leve do GPT-4o. Rápido e econômico para tarefas multimodais de menor complexidade. |
| Modelo | Descrição |
|---|---|
gpt-5 |
Flagship da OpenAI. Raciocínio profundo, execução de projetos complexos ponta a ponta, agentes autônomos. |
gpt-5-mini |
Versão otimizada do GPT-5 para custo-benefício. Forte em vendas, marketing e personalização em escala. |
gpt-5-nano |
Modelo ultracompacto da família GPT-5. Assistentes embarcados, IoT e dispositivos móveis. |
gpt-5.1 |
Evolução do GPT-5 com melhorias em raciocínio, tool calling e coding. Disponível em modos instant e thinking. |
gpt-5.2 |
Modelo mais recente da família GPT-5. Estado da arte em raciocínio, agentes e engenharia de software. Modos instant e thinking (standard/extended). |
| Modelo | Descrição |
|---|---|
o3 |
Modelo de raciocínio avançado. Excelente em programação, matemática, ciência de dados e análise de imagens. |
o3-mini |
Versão compacta do o3. Raciocínio eficiente para tarefas administrativas, RH e fluxos operacionais. |
o4-mini |
Modelo de raciocínio rápido e econômico. Melhor desempenho benchmarkado em AIME 2024/2025. Forte em math, coding e tarefas visuais. |
| Modelo | Descrição |
|---|---|
gpt-image-1 |
Modelo de geração e edição de imagens da OpenAI. Cria imagens a partir de texto com alta qualidade e aderência ao prompt. |
gpt-image-1.5 |
Evolução do Image 1. Maior fidelidade, melhor renderização de texto em imagens, edição precisa e preservação de logos/rostos. |
Quando usar:
Como usar:
Por que escolher:
Os modelos executados na infraestrutura Groq utilizam hardware LPU (Language Processing Unit) proprietário, oferecendo latência extremamente baixa e alta velocidade de inferência. Ideal para cenários que exigem respostas em tempo real.
| Modelo | Descrição |
|---|---|
groq/llama-3.3-70b-versatile |
Meta LLaMA 3.3 70B executado no Groq. Modelo versátil para discussões complexas, análises e pesquisa. |
groq/meta-llama/llama-4-maverick-17b-128e-instruct |
LLaMA 4 Maverick (MoE, 128 experts). Forte em desenvolvimento de software, testes e inovação em TI. |
groq/meta-llama/llama-4-scout-17b-16e-instruct |
LLaMA 4 Scout (MoE, 16 experts). Eficiente para monitoramento, segurança e tarefas de classificação. |
groq/moonshotai/kimi-k2 |
Moonshot Kimi K2 no Groq. MoE com 1T de parâmetros totais (32B ativos). Forte em coding e agentes. |
groq/openai/gpt-oss-120b |
GPT-OSS 120B da OpenAI (open-weight, Apache 2.0) executado no Groq. MoE com forte raciocínio e tool use. |
groq/qwen/qwen3-32b |
Qwen 3 32B no Groq. Excelente em raciocínio, tradução e comunicação multilíngue. |
Quando usar:
Como usar:
Por que escolher:
Focados em busca, verificação e síntese de informações em tempo real com acesso à web, úteis para áreas que exigem dados atualizados e fontes confiáveis.
| Modelo | Descrição |
|---|---|
perplexity/sonar |
Modelo de busca rápida com acesso à web. Respostas factuais com citações de fontes. |
perplexity/sonar-pro |
Versão avançada do Sonar. Pesquisa mais profunda com múltiplas fontes e maior precisão. |
perplexity/sonar-reasoning |
Modelo com raciocínio integrado à busca. Gera cadeia de pensamento antes de responder, ideal para perguntas complexas que exigem análise de múltiplas fontes. |
Quando usar:
Como usar:
Por que escolher:
Modelos da xAI (empresa de Elon Musk) com foco em raciocínio avançado, criatividade e tool calling. O Grok 4.1 é um dos modelos mais bem avaliados em rankings independentes.
| Modelo | Descrição |
|---|---|
xai/grok-3 |
Modelo versátil para interações criativas, análise e comunicação. |
xai/grok-3-mini |
Versão compacta e rápida do Grok 3. Ideal para tarefas leves e respostas ágeis. |
xai/grok-4 |
Modelo de raciocínio avançado. Forte em simulações, pesquisa e resolução de problemas complexos. |
xai/grok-4-1-fast-reasoning |
Modelo mais recente da xAI. #1 no LMArena Text Arena. Janela de 2M tokens, excelente tool calling e raciocínio rápido. |
xai/grok-code-fast |
Modelo especializado em programação. Otimizado para geração, revisão e debugging de código com alta velocidade. |
Quando usar:
Como usar:
Por que escolher:
Modelos chineses de código aberto com desempenho comparável aos melhores modelos proprietários, especialmente em raciocínio, matemática e programação.
| Modelo | Descrição |
|---|---|
deepseek/deepseek-v3.2 |
Modelo flagship da DeepSeek. Usa DeepSeek Sparse Attention (DSA) para eficiência em contextos longos. Desempenho comparável ao GPT-5 em raciocínio. |
deepseek/deepseek-v3.2-speciale |
Variante de alto desempenho do V3.2. Medalha de ouro em IMO, CMO, ICPC World Finals e IOI 2025. Supera o GPT-5 em tarefas de raciocínio complexo. |
Quando usar:
Como usar:
Por que escolher:
Modelos da Moonshot AI com arquitetura Mixture-of-Experts (MoE) de 1 trilhão de parâmetros totais (32B ativos por requisição), oferecendo capacidades de fronteira com eficiência.
| Modelo | Descrição |
|---|---|
moonshotai/kimi-k2-thinking |
Kimi K2 com modo thinking ativado. Raciocínio passo a passo para problemas complexos de coding, matemática e agentes. |
moonshotai/kimi-k2.5 |
Modelo multimodal nativo. Treinado em 15T tokens de texto e visão. Suporte a thinking e capacidades agentic avançadas. |
Quando usar:
Como usar:
Por que escolher:
Modelos da MiniMax focados em produtividade real, com forte desempenho em coding, tool use e tarefas agentic a um custo muito competitivo.
| Modelo | Descrição |
|---|---|
minimax/minimax-m2 |
Modelo de uso geral com excelente custo-benefício. Forte em coding, tool calling e tarefas agentic. Preço de ~8% do Claude Sonnet 4.5. |
minimax/minimax-m2.1 |
Evolução do M2 com programação multilíngue aprimorada, raciocínio mais eficiente e melhor seguimento de instruções. |
minimax/minimax-m2.5 |
Modelo mais recente da MiniMax. Projetado para produtividade real com modelagem financeira, pesquisa e análise via ferramentas. |
Quando usar:
Como usar:
Por que escolher:
| Modelo | Descrição |
|---|---|
mistralai/mistral-large-3 |
Modelo flagship da Mistral AI. Arquitetura MoE com 41B parâmetros ativos (675B totais). Multimodal, multilíngue, com forte compreensão de contexto longo. |
Quando usar:
Como usar:
Por que escolher:
| Modelo | Descrição |
|---|---|
nvidia/nemotron-nano-9b-v2 |
Modelo híbrido Mamba-Transformer da NVIDIA. 9B parâmetros com throughput 3-6x maior que modelos similares. Raciocínio e chat unificados. |
Quando usar:
Como usar:
Por que escolher:
| Modelo | Descrição |
|---|---|
allenai/olmo-3-32b-think |
Modelo de raciocínio totalmente open-source (dados, código, pesos). 32B parâmetros com modo thinking para raciocínio passo a passo. |
Quando usar:
Como usar:
Por que escolher:
Modelos da Zhipu AI (Z.AI), spinoff da Tsinghua University, com evolução rápida e forte desempenho em coding, raciocínio e tarefas empresariais.
| Modelo | Descrição |
|---|---|
z-ai/glm-4.5 |
Modelo versátil para uso geral. Forte em coding, relatórios e apoio a decisões. |
z-ai/glm-4.6 |
Evolução do 4.5 com melhorias significativas em raciocínio e matemática. Supera GPT-5.1 no AIME 2025. |
z-ai/glm-4.7 |
Modelo avançado que supera GPT-5.2 e Claude 4.5 Sonnet em diversos benchmarks. 38% de melhoria no HLE vs GLM-4.6. |
z-ai/glm-5 |
Flagship da Z.AI. Arquitetura MoE com 744B parâmetros. Foco em engenharia de sistemas, agentes e resolução de bugs complexos. |
Quando usar:
Como usar:
Por que escolher:
| Modelo | Descrição |
|---|---|
qwen/qwen3-max-thinking |
Modelo flagship da Alibaba com modo thinking. Forte em raciocínio, análise de documentos longos e comunicação multilíngue. |
qwen/qwen3.5-397b-a17b |
Novo (fev/2026). Arquitetura híbrida (Gated Delta Networks + Sparse MoE). ~397B parâmetros totais, ~17B ativos por token. Multimodal nativo (texto + visão). Eficiência de inferência muito superior à geração anterior. Licença Apache 2.0. |
Quando usar:
Como usar:
Por que escolher:
| Modelo | Descrição |
|---|---|
alibaba/tongyi-deepresearch-30b |
Modelo especializado em pesquisa profunda e aprendizado. 30B parâmetros focados em explicação de conceitos, tutoria e suporte ao desenvolvimento de equipes. |
Quando usar:
Como usar:
Por que escolher:
🔄 Atualizações constantes: A Cortex está sempre evoluindo, trazendo modelos que atendem diretamente às necessidades de produtividade, segurança e inovação empresarial.
📩 Em caso de dúvidas, fale com o Time de Inovação da SinapseTech.
Legenda: ⭐ = Básico | ⭐⭐ = Bom | ⭐⭐⭐ = Forte | ⭐⭐⭐⭐ = Excelente | ⭐⭐⭐⭐⭐ = Estado da Arte
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Claude Haiku 4.5 | ⭐⭐ | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | Chatbots, FAQs, respostas em alto volume |
| Claude Sonnet 4 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Relatórios, comunicação, treinamentos |
| Claude Sonnet 4.5 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Programação, matemática, raciocínio técnico |
| Claude Sonnet 4.6 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Coding avançado, computer use, agentes, design |
| Claude Opus 4.5 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐ | Engenharia de software, visão, pesquisa |
| Claude Opus 4.6 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | Código em larga escala, análise de documentos extensos |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Gemini 2.0 Flash | ⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | Assistentes móveis, voz em tempo real |
| Gemini 2.5 Flash | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Inspeções técnicas, análise de imagens |
| Gemini 2.5 Pro | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐ | Pesquisa, relatórios multimodais |
| Gemini 3 Flash (Preview) | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Coding agentic, raciocínio visual |
| Gemini 3 Pro (Preview) | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | Pesquisa de fronteira, análise multimodal complexa |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| GPT-4.1 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Relatórios estratégicos, análise de riscos |
| GPT-4.1 Mini | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Chatbots, suporte ao cliente |
| GPT-4.1 Nano | ⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | Automação simples, classificação |
| GPT-4o | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Conteúdo multimídia, apresentações |
| GPT-4o Mini | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Educação online, PDI |
| GPT-5 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Projetos complexos, agentes autônomos |
| GPT-5 Mini | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Vendas, marketing, personalização |
| GPT-5 Nano | ⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | Assistentes embarcados, IoT |
| GPT-5.1 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Coding avançado, tool calling, agentes |
| GPT-5.2 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Engenharia de software, raciocínio de fronteira |
| o3 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | Programação, ciência de dados, análise técnica |
| o3-mini | ⭐⭐⭐ | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | RH, triagem, fluxos administrativos |
| o4-mini | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Math, coding, tarefas visuais |
| GPT-Image-1 | — | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | — | Geração de imagens, marketing visual |
| GPT-Image-1.5 | — | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | — | Edição precisa, texto em imagens, logos |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Groq LLaMA 3.3 70B | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Análises estratégicas, pesquisa |
| Groq LLaMA 4 Maverick | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | Desenvolvimento de software, testes |
| Groq LLaMA 4 Scout | ⭐⭐⭐ | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | Segurança, monitoramento, classificação |
| Groq Kimi K2 | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | Coding agentic, automação |
| Groq GPT-OSS 120B | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Raciocínio avançado, tool use |
| Groq Qwen3 32B | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Tradução, comunicação multilíngue |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Perplexity Sonar | ⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Fact-checking, buscas rápidas |
| Perplexity Sonar Pro | ⭐⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Pesquisa acadêmica e científica |
| Perplexity Sonar Reasoning | ⭐⭐⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐ | ⭐⭐⭐⭐ | Análise complexa com dados da web |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Grok 3 | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Comunicação criativa, gamificação |
| Grok 3 Mini | ⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Tarefas leves, respostas ágeis |
| Grok 4 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐ | Simulações, pesquisa, raciocínio profundo |
| Grok 4.1 Fast Reasoning | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Tool calling, agentes, contexto extenso |
| Grok Code Fast | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | Programação, debugging, revisão de código |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| DeepSeek V3.2 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Programação, raciocínio, automação |
| DeepSeek V3.2 Speciale | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | Matemática competitiva, raciocínio extremo |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Kimi K2 Thinking | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Coding, raciocínio passo a passo |
| Kimi K2.5 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Tarefas multimodais, agentes autônomos |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| MiniMax M2 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Automação de baixo custo, tool calling |
| MiniMax M2.1 | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Coding multilíngue, instruções complexas |
| MiniMax M2.5 | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Análise financeira, produtividade avançada |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Mistral Large 3 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Análise multilíngue, documentos longos |
| NVIDIA Nemotron Nano 9B v2 | ⭐⭐⭐ | ⭐⭐ | ⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐ | RAG, chatbots de alta vazão |
| AllenAI OLMo 3 32B Think | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Pesquisa, raciocínio auditável |
| Modelo | Raciocínio | Criatividade | Multimodal | Velocidade | Contexto | Melhor uso corporativo |
|---|---|---|---|---|---|---|
| Z.AI GLM-4.5 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Relatórios, apoio a decisões |
| Z.AI GLM-4.6 | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Raciocínio matemático, análises técnicas |
| Z.AI GLM-4.7 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Benchmarks de fronteira, análise avançada |
| Z.AI GLM-5 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | Engenharia de sistemas, agentes, bugs complexos |
| Qwen3 Max Thinking | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐ | ⭐⭐⭐⭐ | Documentos longos, comunicação multilíngue |
| Qwen 3.5 397B | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Multimodal (texto+visão), agentes, inferência eficiente |
| Alibaba Tongyi 30B | ⭐⭐⭐ | ⭐⭐⭐ | ⭐ | ⭐⭐ | ⭐⭐⭐ | Aprendizado organizacional, tutoria |
| # | ID do Modelo | Provedor | Categoria |
|---|---|---|---|
| 1 | alibaba/tongyi-deepresearch-30b |
Alibaba | Pesquisa |
| 2 | allenai/olmo-3-32b-think |
AllenAI | Raciocínio |
| 3 | claude-haiku-4-5 |
Anthropic | Chat rápido |
| 4 | claude-opus-4-5 |
Anthropic | Flagship |
| 5 | claude-opus-4-6 |
Anthropic | Flagship |
| 6 | claude-sonnet-4 |
Anthropic | Intermediário |
| 7 | claude-sonnet-4-5 |
Anthropic | Avançado |
| 8 | claude-sonnet-4-6 |
Anthropic | Avançado / Flagship |
| 9 | deepseek/deepseek-v3.2 |
DeepSeek | Raciocínio |
| 10 | deepseek/deepseek-v3.2-speciale |
DeepSeek | Raciocínio extremo |
| 11 | gemini-2.0-flash |
Chat rápido | |
| 12 | gemini-2.5-flash |
Intermediário | |
| 13 | gemini/gemini-2.5-pro |
Avançado | |
| 14 | gemini/gemini-3-flash-preview |
Coding/Visão | |
| 15 | gemini/gemini-3-pro-preview |
Flagship | |
| 16 | gpt-4.1 |
OpenAI | Texto avançado |
| 17 | gpt-4.1-mini |
OpenAI | Intermediário |
| 18 | gpt-4.1-nano |
OpenAI | Ultracompacto |
| 19 | gpt-4o |
OpenAI | Multimodal |
| 20 | gpt-4o-mini |
OpenAI | Multimodal leve |
| 21 | gpt-5 |
OpenAI | Flagship |
| 22 | gpt-5-mini |
OpenAI | Intermediário |
| 23 | gpt-5-nano |
OpenAI | Ultracompacto |
| 24 | gpt-5.1 |
OpenAI | Avançado |
| 25 | gpt-5.2 |
OpenAI | Flagship |
| 26 | gpt-image-1 |
OpenAI | Geração de imagens |
| 27 | gpt-image-1.5 |
OpenAI | Geração de imagens |
| 28 | groq/llama-3.3-70b-versatile |
Groq | Chat versátil |
| 29 | groq/meta-llama/llama-4-maverick-17b-128e-instruct |
Groq | Coding |
| 30 | groq/meta-llama/llama-4-scout-17b-16e-instruct |
Groq | Classificação |
| 31 | groq/moonshotai/kimi-k2 |
Groq | Coding agentic |
| 32 | groq/openai/gpt-oss-120b |
Groq | Raciocínio |
| 33 | groq/qwen/qwen3-32b |
Groq | Multilíngue |
| 34 | minimax/minimax-m2 |
MiniMax | Uso geral |
| 35 | minimax/minimax-m2.1 |
MiniMax | Coding |
| 36 | minimax/minimax-m2.5 |
MiniMax | Produtividade |
| 37 | mistralai/mistral-large-3 |
Mistral AI | Uso geral |
| 38 | moonshotai/kimi-k2-thinking |
Moonshot AI | Raciocínio |
| 39 | moonshotai/kimi-k2.5 |
Moonshot AI | Multimodal |
| 40 | nvidia/nemotron-nano-9b-v2 |
NVIDIA | Chat/RAG |
| 41 | o3 |
OpenAI | Raciocínio |
| 42 | o3-mini |
OpenAI | Raciocínio leve |
| 43 | o4-mini |
OpenAI | Raciocínio rápido |
| 44 | perplexity/sonar |
Perplexity | Busca |
| 45 | perplexity/sonar-pro |
Perplexity | Busca avançada |
| 46 | perplexity/sonar-reasoning |
Perplexity | Busca + raciocínio |
| 47 | qwen/qwen3-max-thinking |
Alibaba | Raciocínio |
| 48 | qwen/qwen3.5-397b-a17b |
Alibaba | Multimodal / MoE |
| 49 | xai/grok-3 |
xAI | Chat criativo |
| 50 | xai/grok-3-mini |
xAI | Chat leve |
| 51 | xai/grok-4 |
xAI | Raciocínio |
| 52 | xai/grok-4-1-fast-reasoning |
xAI | Flagship |
| 53 | xai/grok-code-fast |
xAI | Coding |
| 54 | z-ai/glm-4.5 |
Z.AI (Zhipu) | Uso geral |
| 55 | z-ai/glm-4.6 |
Z.AI (Zhipu) | Raciocínio |
| 56 | z-ai/glm-4.7 |
Z.AI (Zhipu) | Avançado |
| 57 | z-ai/glm-5 |
Z.AI (Zhipu) | Flagship |