Central de Ajuda Quais modelos de IA estão disponíveis e quando usar cada um

Quais modelos de IA estão disponíveis e quando usar cada um

Nível: Intermediário
Tempo de leitura: 7 min


Visão geral

A Wevi suporta os principais modelos de linguagem do mercado: família Claude (Anthropic), família GPT e O-series (OpenAI) e família Gemini (Google). Cada modelo tem características diferentes em termos de inteligência, velocidade e custo.

A escolha do modelo afeta diretamente a qualidade das respostas, a velocidade de resposta e o custo por conversa. Não existe "o melhor modelo": existe o modelo certo para cada caso de uso.


Modelos disponíveis

Família Claude (Anthropic)

Modelo Inteligência Velocidade Custo Melhor para
Claude Opus 4.6 Muito alta Média Alto Tarefas complexas, raciocínio avançado
Claude Sonnet 4.6 Alta Rápida Médio Uso geral, excelente custo-benefício
Claude Haiku 4.5 Boa Muito rápida Baixo Alto volume, respostas simples

Claude Sonnet 4.6 é o modelo mais equilibrado da família e a escolha padrão na Wevi para a maioria dos casos. Oferece qualidade muito próxima ao Opus com velocidade e custo significativamente menores.

Claude Opus 4.6 brilha em situações que exigem raciocínio em múltiplas etapas, análise de documentos longos, ou respostas com alta complexidade analítica. Use quando a qualidade é crítica e o custo é secundário.

Claude Haiku 4.5 é ideal para triagem inicial de mensagens, perguntas simples de FAQ, ou qualquer cenário onde velocidade é mais importante que profundidade.


Família GPT (OpenAI)

Modelo Inteligência Velocidade Custo Melhor para
GPT-5.4 Muito alta Média Alto Raciocínio avançado, multimodal
GPT-5.4 Mini Alta Rápida Médio Uso geral, boa relação qualidade/custo
GPT-5.4 Nano Boa Muito rápida Baixo Alto volume, respostas simples

GPT-5.4 é o modelo mais capaz da OpenAI. Excelente para casos que envolvem análise de imagens junto com texto (multimodal) ou raciocínio em cadeia complexo.

GPT-5.4 Mini entrega qualidade próxima ao GPT-5.4 com custo e latência muito menores. É uma boa alternativa ao Claude Sonnet para quem prefere o ecossistema OpenAI.

GPT-5.4 Nano é o modelo mais econômico da família GPT. Indicado para cenários de triagem e perguntas simples onde velocidade e custo são prioritários.


Família Gemini (Google)

Modelo Inteligência Velocidade Custo Melhor para
Gemini 2.5 Pro Muito alta Média Alto Janela de contexto longa, multimodal
Gemini 2.5 Flash Alta Muito rápida Baixo Alto volume, contexto moderado
Gemini 2.0 Flash Boa Muito rápida Muito baixo Volume alto com custo mínimo

Gemini 2.5 Pro se destaca pela janela de contexto extensa, útil quando o agente precisa processar documentos muito longos em uma única chamada.

Gemini 2.5 Flash é uma das opções mais rápidas e econômicas disponíveis, ideal para alto volume de interações simples.

Gemini 2.0 Flash é a opção de menor custo da família Gemini. Indicado para triagem de alto volume onde qualidade máxima não é o requisito principal.


Como escolher o modelo certo

Por tipo de tarefa

Atendimento ao cliente geral (FAQ, agendamentos, dúvidas) Recomendação: Claude Sonnet 4.6 ou GPT-5.4 Mini Por quê: bom equilíbrio entre qualidade e custo. Velocidade de resposta adequada para conversas em tempo real.

Qualificação de leads e vendas consultivas Recomendação: Claude Sonnet 4.6 ou GPT-5.4 Por quê: exige compreensão de nuances, persuasão bem calibrada e capacidade de adaptar argumentos.

Análise de documentos longos ou complexos Recomendação: Claude Opus 4.6 ou Gemini 2.5 Pro Por quê: janela de contexto extensa e raciocínio profundo para extrair insights de materiais densos.

Alto volume com perguntas simples Recomendação: Claude Haiku 4.5 ou Gemini 2.5 Flash Por quê: resposta ultra-rápida e custo baixo para cenários onde a maioria das perguntas é previsível.

Triagem inicial antes de escalar para agente especialista Recomendação: Claude Haiku 4.5 ou Gemini 2.5 Flash Por quê: o agente orquestrador só precisa classificar a intenção, não responder com profundidade.


Por volume esperado

Volume mensal de mensagens Recomendação
Até 1.000 Qualquer modelo (o custo não é relevante)
1.000 a 10.000 Claude Sonnet ou GPT-5.4 Mini
10.000 a 100.000 Claude Haiku, GPT-5.4 Nano ou Gemini Flash para triagem; Sonnet para resolução
Acima de 100.000 Arquitetura multi-agentes com modelos mistos

BYOK: usando sua própria chave de API

Nos todos os planos, você pode usar sua própria chave de API (BYOK, Bring Your Own Key) de qualquer provedor suportado. Isso permite:

  • Usar contratos corporativos que você já tem com OpenAI ou Anthropic
  • Ter controle total do custo por token
  • Aplicar limites e monitoramento diretamente no provedor

Veja mais em: Como funciona o BYOK →


Mudando o modelo de um agente existente

Você pode trocar o modelo de qualquer agente a qualquer momento:

  1. Acesse o agente
  2. Abra a aba Inteligência
  3. Selecione o novo modelo na seção Modelo de IA
  4. Clique em "Salvar"

A mudança é imediata. Conversas em andamento continuam com o modelo anterior; novas conversas usam o novo.

Dica: ao trocar de modelo, faça alguns testes com perguntas reais antes de liberar para clientes. Cada modelo tem nuances diferentes de tom e comportamento que podem exigir ajustes no prompt.


Próximos passos