Catálogo de Modelos AI
O Claude Scheduler oferece acesso a mais de 25 modelos de inteligência artificial através da integração com OpenRouter. Cada modelo possui características únicas que os tornam ideais para diferentes casos de uso.
Visão Geral
Nossa plataforma integra modelos das principais empresas de IA do mercado:
- OpenAI - GPT-4, GPT-3.5
- Anthropic - Claude 3 (Opus, Sonnet, Haiku)
- Google - Gemini Pro, Gemini Flash
- Meta - Llama 3.1 (70B, 8B)
- Mistral AI - Mixtral, Mistral Large
- Cohere - Command R+
- E muito mais
Tabela Comparativa de Modelos
| Modelo | Provedor | Contexto | Custo | Velocidade | Melhor Para |
|---|---|---|---|---|---|
| GPT-4 Turbo | OpenAI | 128k | $$$ | Média | Tarefas complexas, raciocínio |
| GPT-3.5 Turbo | OpenAI | 16k | $ | Rápida | Chatbots, respostas simples |
| Claude 3 Opus | Anthropic | 200k | $$$$ | Média | Análise profunda, escrita criativa |
| Claude 3 Sonnet | Anthropic | 200k | $$ | Rápida | Equilíbrio custo/performance |
| Claude 3 Haiku | Anthropic | 200k | $ | Muito Rápida | Respostas instantâneas |
| Gemini 2.5 Pro | 2M | $$$ | Média | Contextos muito longos | |
| Gemini 2.0 Flash | 1M | $ | Muito Rápida | Processamento em tempo real | |
| Llama 3.1 70B | Meta | 128k | $$ | Rápida | Open source, customização |
| Mixtral 8x7B | Mistral | 32k | $ | Rápida | Multilíngue, eficiência |
| Command R+ | Cohere | 128k | $$ | Média | RAG, busca semântica |
Modelos por Categoria
1. Melhor Custo-Benefício
Claude 3 Haiku
{
"model": "anthropic/claude-3-haiku",
"temperature": 0.7,
"max_tokens": 4096
}Características:
- Custo extremamente baixo (~$0.25/1M tokens)
- Velocidade de resposta < 1s
- Contexto de 200k tokens
- Ideal para: Chatbots de atendimento, respostas rápidas, classificação de texto
Caso de Uso:
// Atendimento ao cliente automatizado
{
"task_name": "Responder Tickets",
"schedule": "*/5 * * * *", // A cada 5 minutos
"model": "anthropic/claude-3-haiku",
"prompt": "Analise este ticket de suporte e forneça uma resposta educada: {{ticket_content}}",
"temperature": 0.3
}2. Máxima Capacidade de Raciocínio
GPT-4 Turbo
{
"model": "openai/gpt-4-turbo",
"temperature": 0.2,
"max_tokens": 8192
}Características:
- Raciocínio complexo e análise profunda
- Suporte a visão (imagens)
- Contexto de 128k tokens
- Ideal para: Análise financeira, programação, decisões complexas
Caso de Uso:
// Análise de relatórios financeiros
{
"task_name": "Análise Diária Mercado",
"schedule": "0 18 * * 1-5", // 18h dias úteis
"model": "openai/gpt-4-turbo",
"prompt": "Analise os seguintes dados financeiros e forneça insights acionáveis:\n{{market_data}}",
"temperature": 0.1
}3. Contextos Muito Longos
Gemini 2.5 Pro
{
"model": "google/gemini-2.5-pro",
"temperature": 0.5,
"max_tokens": 8192
}Características:
- Janela de contexto de 2 milhões de tokens
- Processamento multimodal (texto, imagem, vídeo)
- Ideal para: Análise de documentos extensos, livros completos, codebases inteiras
Caso de Uso:
// Análise de contratos completos
{
"task_name": "Review Contrato Mensal",
"schedule": "0 9 1 * *", // 1º dia do mês às 9h
"model": "google/gemini-2.5-pro",
"prompt": "Analise este contrato completo e identifique:\n1. Cláusulas de risco\n2. Obrigações principais\n3. Prazos críticos\n\n{{contract_full_text}}",
"temperature": 0.2
}4. Velocidade Máxima
Gemini 2.0 Flash
{
"model": "google/gemini-2.0-flash",
"temperature": 0.8,
"max_tokens": 4096
}Características:
- Latência ultra-baixa (< 500ms)
- Contexto de 1M tokens
- Custo reduzido
- Ideal para: Aplicações em tempo real, streaming, respostas instantâneas
Caso de Uso:
// Monitoramento de redes sociais
{
"task_name": "Monitor Twitter",
"schedule": "*/2 * * * *", // A cada 2 minutos
"model": "google/gemini-2.0-flash",
"prompt": "Analise estes tweets recentes sobre nossa marca:\n{{tweets}}\n\nClassifique o sentimento e identifique menções urgentes.",
"temperature": 0.4
}5. Open Source e Customização
Llama 3.1 70B
{
"model": "meta-llama/llama-3.1-70b-instruct",
"temperature": 0.7,
"max_tokens": 4096
}Características:
- Modelo open source da Meta
- Excelente para fine-tuning
- Contexto de 128k tokens
- Ideal para: Aplicações customizadas, controle total, conformidade de dados
Caso de Uso:
// Geração de conteúdo personalizado
{
"task_name": "Gerar Posts Blog",
"schedule": "0 10 * * 1,3,5", // Seg, Qua, Sex às 10h
"model": "meta-llama/llama-3.1-70b-instruct",
"prompt": "Crie um post de blog sobre {{topic}} no estilo da nossa marca:\n- Tom: {{brand_tone}}\n- Público: {{target_audience}}\n- Palavras-chave: {{keywords}}",
"temperature": 0.8
}Modelos Especializados
Processamento Multilíngue
Mixtral 8x7B
- Suporte nativo a 10+ idiomas
- Mixture of Experts (MoE) para eficiência
- Excelente para tradução e conteúdo multilíngue
{
"model": "mistralai/mixtral-8x7b-instruct",
"temperature": 0.5,
"prompt": "Traduza este texto para inglês, espanhol e francês mantendo o tom profissional:\n{{content}}"
}Busca e RAG (Retrieval-Augmented Generation)
Command R+
- Otimizado para busca semântica
- Excelente para RAG e Q&A
- Suporte a citações de fontes
{
"model": "cohere/command-r-plus",
"temperature": 0.3,
"prompt": "Com base nestes documentos, responda a pergunta e cite as fontes:\n\nDocumentos: {{documents}}\n\nPergunta: {{user_question}}"
}Análise de Código
Claude 3 Opus
- Compreensão profunda de código
- Refatoração e otimização
- Detecção de vulnerabilidades
{
"model": "anthropic/claude-3-opus",
"temperature": 0.2,
"prompt": "Analise este código e forneça:\n1. Bugs potenciais\n2. Sugestões de otimização\n3. Vulnerabilidades de segurança\n\n```{{language}}\n{{code}}\n```"
}Como Escolher o Modelo Ideal
Fluxograma de Decisão
graph TD
A[Início] --> B{Orçamento limitado?}
B -->|Sim| C{Precisa de velocidade?}
B -->|Não| D{Tarefa complexa?}
C -->|Sim| E[Gemini 2.0 Flash]
C -->|Não| F[Claude 3 Haiku]
D -->|Sim| G{Contexto muito longo?}
D -->|Não| H[Claude 3 Sonnet]
G -->|Sim| I[Gemini 2.5 Pro]
G -->|Não| J[GPT-4 Turbo]Critérios de Seleção
-
Custo por Execução
- Baixo (< $0.01): Haiku, Flash, Mixtral
- Médio ($0.01-$0.10): Sonnet, GPT-3.5, Llama
- Alto (> $0.10): GPT-4, Opus, Gemini Pro
-
Tamanho do Contexto Necessário
- Pequeno (< 8k): Maioria dos modelos
- Médio (8k-128k): GPT-4, Claude, Llama
- Grande (> 128k): Gemini Pro (2M), Claude (200k)
-
Requisitos de Velocidade
- Instantânea (< 1s): Flash, Haiku
- Rápida (1-3s): Sonnet, GPT-3.5, Mixtral
- Normal (3-10s): GPT-4, Opus, Gemini Pro
-
Complexidade da Tarefa
- Simples: Haiku, GPT-3.5, Flash
- Média: Sonnet, Llama, Mixtral
- Complexa: GPT-4, Opus, Gemini Pro
Configuração Avançada
Parâmetros de Temperatura
A temperatura controla a aleatoriedade das respostas:
// Respostas determinísticas (análises, extração de dados)
{ "temperature": 0.0-0.3 }
// Respostas equilibradas (Q&A, suporte)
{ "temperature": 0.4-0.7 }
// Respostas criativas (conteúdo, brainstorming)
{ "temperature": 0.8-1.0 }Combinação de Modelos
Você pode usar diferentes modelos em uma pipeline:
// Etapa 1: Classificação rápida (Haiku)
{
"task_name": "Classificar Email",
"model": "anthropic/claude-3-haiku",
"prompt": "Classifique este email como: urgente, normal, spam\n{{email}}"
}
// Etapa 2: Resposta detalhada (Opus - apenas para urgentes)
{
"task_name": "Responder Email Urgente",
"model": "anthropic/claude-3-opus",
"prompt": "Crie uma resposta profissional e detalhada:\n{{email}}",
"condition": "classification == 'urgente'"
}Monitoramento de Custos
Dashboard de Uso por Modelo
Acesse Settings > Usage para visualizar:
- Custo total por modelo
- Número de execuções
- Tokens consumidos
- Tendências de uso
Alertas de Custo
Configure alertas automáticos:
{
"budget_limit": 100.00, // USD
"alert_threshold": 0.8, // 80% do limite
"notification_channels": ["email", "webhook"]
}Recursos Relacionados
- Agendamento de Tarefas - Configure quando executar cada modelo
- Execuções e Logs - Monitore o desempenho dos modelos
- Multimodal - Use modelos com visão para processar imagens
Atualizações de Modelos
Novos modelos são adicionados regularmente. Acompanhe nossas atualizações:
- Newsletter mensal com novos modelos
- Changelog em
/docs/changelog - Notificações in-app quando novos modelos estiverem disponíveis
Dica Pro: Comece com Claude 3 Haiku para testes e desenvolvimento. Depois migre para modelos mais caros apenas nas tarefas que realmente necessitam de capacidades avançadas.