Quais modelos de IA estão disponíveis e quando usar cada um
Nível: Intermediário
Tempo de leitura: 7 min
Visão geral
A Wevi suporta os principais modelos de linguagem do mercado: família Claude (Anthropic), família GPT e O-series (OpenAI) e família Gemini (Google). Cada modelo tem características diferentes em termos de inteligência, velocidade e custo.
A escolha do modelo afeta diretamente a qualidade das respostas, a velocidade de resposta e o custo por conversa. Não existe "o melhor modelo": existe o modelo certo para cada caso de uso.
Modelos disponíveis
Família Claude (Anthropic)
| Modelo | Inteligência | Velocidade | Custo | Melhor para |
|---|---|---|---|---|
| Claude Opus 4.6 | Muito alta | Média | Alto | Tarefas complexas, raciocínio avançado |
| Claude Sonnet 4.6 | Alta | Rápida | Médio | Uso geral, excelente custo-benefício |
| Claude Haiku 4.5 | Boa | Muito rápida | Baixo | Alto volume, respostas simples |
Claude Sonnet 4.6 é o modelo mais equilibrado da família e a escolha padrão na Wevi para a maioria dos casos. Oferece qualidade muito próxima ao Opus com velocidade e custo significativamente menores.
Claude Opus 4.6 brilha em situações que exigem raciocínio em múltiplas etapas, análise de documentos longos, ou respostas com alta complexidade analítica. Use quando a qualidade é crítica e o custo é secundário.
Claude Haiku 4.5 é ideal para triagem inicial de mensagens, perguntas simples de FAQ, ou qualquer cenário onde velocidade é mais importante que profundidade.
Família GPT (OpenAI)
| Modelo | Inteligência | Velocidade | Custo | Melhor para |
|---|---|---|---|---|
| GPT-5.4 | Muito alta | Média | Alto | Raciocínio avançado, multimodal |
| GPT-5.4 Mini | Alta | Rápida | Médio | Uso geral, boa relação qualidade/custo |
| GPT-5.4 Nano | Boa | Muito rápida | Baixo | Alto volume, respostas simples |
GPT-5.4 é o modelo mais capaz da OpenAI. Excelente para casos que envolvem análise de imagens junto com texto (multimodal) ou raciocínio em cadeia complexo.
GPT-5.4 Mini entrega qualidade próxima ao GPT-5.4 com custo e latência muito menores. É uma boa alternativa ao Claude Sonnet para quem prefere o ecossistema OpenAI.
GPT-5.4 Nano é o modelo mais econômico da família GPT. Indicado para cenários de triagem e perguntas simples onde velocidade e custo são prioritários.
Família Gemini (Google)
| Modelo | Inteligência | Velocidade | Custo | Melhor para |
|---|---|---|---|---|
| Gemini 2.5 Pro | Muito alta | Média | Alto | Janela de contexto longa, multimodal |
| Gemini 2.5 Flash | Alta | Muito rápida | Baixo | Alto volume, contexto moderado |
| Gemini 2.0 Flash | Boa | Muito rápida | Muito baixo | Volume alto com custo mínimo |
Gemini 2.5 Pro se destaca pela janela de contexto extensa, útil quando o agente precisa processar documentos muito longos em uma única chamada.
Gemini 2.5 Flash é uma das opções mais rápidas e econômicas disponíveis, ideal para alto volume de interações simples.
Gemini 2.0 Flash é a opção de menor custo da família Gemini. Indicado para triagem de alto volume onde qualidade máxima não é o requisito principal.
Como escolher o modelo certo
Por tipo de tarefa
Atendimento ao cliente geral (FAQ, agendamentos, dúvidas) Recomendação: Claude Sonnet 4.6 ou GPT-5.4 Mini Por quê: bom equilíbrio entre qualidade e custo. Velocidade de resposta adequada para conversas em tempo real.
Qualificação de leads e vendas consultivas Recomendação: Claude Sonnet 4.6 ou GPT-5.4 Por quê: exige compreensão de nuances, persuasão bem calibrada e capacidade de adaptar argumentos.
Análise de documentos longos ou complexos Recomendação: Claude Opus 4.6 ou Gemini 2.5 Pro Por quê: janela de contexto extensa e raciocínio profundo para extrair insights de materiais densos.
Alto volume com perguntas simples Recomendação: Claude Haiku 4.5 ou Gemini 2.5 Flash Por quê: resposta ultra-rápida e custo baixo para cenários onde a maioria das perguntas é previsível.
Triagem inicial antes de escalar para agente especialista Recomendação: Claude Haiku 4.5 ou Gemini 2.5 Flash Por quê: o agente orquestrador só precisa classificar a intenção, não responder com profundidade.
Por volume esperado
| Volume mensal de mensagens | Recomendação |
|---|---|
| Até 1.000 | Qualquer modelo (o custo não é relevante) |
| 1.000 a 10.000 | Claude Sonnet ou GPT-5.4 Mini |
| 10.000 a 100.000 | Claude Haiku, GPT-5.4 Nano ou Gemini Flash para triagem; Sonnet para resolução |
| Acima de 100.000 | Arquitetura multi-agentes com modelos mistos |
BYOK: usando sua própria chave de API
Nos todos os planos, você pode usar sua própria chave de API (BYOK, Bring Your Own Key) de qualquer provedor suportado. Isso permite:
- Usar contratos corporativos que você já tem com OpenAI ou Anthropic
- Ter controle total do custo por token
- Aplicar limites e monitoramento diretamente no provedor
Veja mais em: Como funciona o BYOK →
Mudando o modelo de um agente existente
Você pode trocar o modelo de qualquer agente a qualquer momento:
- Acesse o agente
- Abra a aba Inteligência
- Selecione o novo modelo na seção Modelo de IA
- Clique em "Salvar"
A mudança é imediata. Conversas em andamento continuam com o modelo anterior; novas conversas usam o novo.
Dica: ao trocar de modelo, faça alguns testes com perguntas reais antes de liberar para clientes. Cada modelo tem nuances diferentes de tom e comportamento que podem exigir ajustes no prompt.