Catálogo de Modelos AI

Explore nossa biblioteca completa com 25+ modelos de IA para diferentes casos de uso e necessidades.

17/01/2025
Nesta Página

Catálogo de Modelos AI

O Claude Scheduler oferece acesso a mais de 25 modelos de inteligência artificial através da integração com OpenRouter. Cada modelo possui características únicas que os tornam ideais para diferentes casos de uso.

Visão Geral

Nossa plataforma integra modelos das principais empresas de IA do mercado:

  • OpenAI - GPT-4, GPT-3.5
  • Anthropic - Claude 3 (Opus, Sonnet, Haiku)
  • Google - Gemini Pro, Gemini Flash
  • Meta - Llama 3.1 (70B, 8B)
  • Mistral AI - Mixtral, Mistral Large
  • Cohere - Command R+
  • E muito mais

Tabela Comparativa de Modelos

ModeloProvedorContextoCustoVelocidadeMelhor Para
GPT-4 TurboOpenAI128k$$$MédiaTarefas complexas, raciocínio
GPT-3.5 TurboOpenAI16k$RápidaChatbots, respostas simples
Claude 3 OpusAnthropic200k$$$$MédiaAnálise profunda, escrita criativa
Claude 3 SonnetAnthropic200k$$RápidaEquilíbrio custo/performance
Claude 3 HaikuAnthropic200k$Muito RápidaRespostas instantâneas
Gemini 2.5 ProGoogle2M$$$MédiaContextos muito longos
Gemini 2.0 FlashGoogle1M$Muito RápidaProcessamento em tempo real
Llama 3.1 70BMeta128k$$RápidaOpen source, customização
Mixtral 8x7BMistral32k$RápidaMultilíngue, eficiência
Command R+Cohere128k$$MédiaRAG, busca semântica

Modelos por Categoria

1. Melhor Custo-Benefício

Claude 3 Haiku

{
  "model": "anthropic/claude-3-haiku",
  "temperature": 0.7,
  "max_tokens": 4096
}

Características:

  • Custo extremamente baixo (~$0.25/1M tokens)
  • Velocidade de resposta < 1s
  • Contexto de 200k tokens
  • Ideal para: Chatbots de atendimento, respostas rápidas, classificação de texto

Caso de Uso:

// Atendimento ao cliente automatizado
{
  "task_name": "Responder Tickets",
  "schedule": "*/5 * * * *", // A cada 5 minutos
  "model": "anthropic/claude-3-haiku",
  "prompt": "Analise este ticket de suporte e forneça uma resposta educada: {{ticket_content}}",
  "temperature": 0.3
}

2. Máxima Capacidade de Raciocínio

GPT-4 Turbo

{
  "model": "openai/gpt-4-turbo",
  "temperature": 0.2,
  "max_tokens": 8192
}

Características:

  • Raciocínio complexo e análise profunda
  • Suporte a visão (imagens)
  • Contexto de 128k tokens
  • Ideal para: Análise financeira, programação, decisões complexas

Caso de Uso:

// Análise de relatórios financeiros
{
  "task_name": "Análise Diária Mercado",
  "schedule": "0 18 * * 1-5", // 18h dias úteis
  "model": "openai/gpt-4-turbo",
  "prompt": "Analise os seguintes dados financeiros e forneça insights acionáveis:\n{{market_data}}",
  "temperature": 0.1
}

3. Contextos Muito Longos

Gemini 2.5 Pro

{
  "model": "google/gemini-2.5-pro",
  "temperature": 0.5,
  "max_tokens": 8192
}

Características:

  • Janela de contexto de 2 milhões de tokens
  • Processamento multimodal (texto, imagem, vídeo)
  • Ideal para: Análise de documentos extensos, livros completos, codebases inteiras

Caso de Uso:

// Análise de contratos completos
{
  "task_name": "Review Contrato Mensal",
  "schedule": "0 9 1 * *", // 1º dia do mês às 9h
  "model": "google/gemini-2.5-pro",
  "prompt": "Analise este contrato completo e identifique:\n1. Cláusulas de risco\n2. Obrigações principais\n3. Prazos críticos\n\n{{contract_full_text}}",
  "temperature": 0.2
}

4. Velocidade Máxima

Gemini 2.0 Flash

{
  "model": "google/gemini-2.0-flash",
  "temperature": 0.8,
  "max_tokens": 4096
}

Características:

  • Latência ultra-baixa (< 500ms)
  • Contexto de 1M tokens
  • Custo reduzido
  • Ideal para: Aplicações em tempo real, streaming, respostas instantâneas

Caso de Uso:

// Monitoramento de redes sociais
{
  "task_name": "Monitor Twitter",
  "schedule": "*/2 * * * *", // A cada 2 minutos
  "model": "google/gemini-2.0-flash",
  "prompt": "Analise estes tweets recentes sobre nossa marca:\n{{tweets}}\n\nClassifique o sentimento e identifique menções urgentes.",
  "temperature": 0.4
}

5. Open Source e Customização

Llama 3.1 70B

{
  "model": "meta-llama/llama-3.1-70b-instruct",
  "temperature": 0.7,
  "max_tokens": 4096
}

Características:

  • Modelo open source da Meta
  • Excelente para fine-tuning
  • Contexto de 128k tokens
  • Ideal para: Aplicações customizadas, controle total, conformidade de dados

Caso de Uso:

// Geração de conteúdo personalizado
{
  "task_name": "Gerar Posts Blog",
  "schedule": "0 10 * * 1,3,5", // Seg, Qua, Sex às 10h
  "model": "meta-llama/llama-3.1-70b-instruct",
  "prompt": "Crie um post de blog sobre {{topic}} no estilo da nossa marca:\n- Tom: {{brand_tone}}\n- Público: {{target_audience}}\n- Palavras-chave: {{keywords}}",
  "temperature": 0.8
}

Modelos Especializados

Processamento Multilíngue

Mixtral 8x7B

  • Suporte nativo a 10+ idiomas
  • Mixture of Experts (MoE) para eficiência
  • Excelente para tradução e conteúdo multilíngue
{
  "model": "mistralai/mixtral-8x7b-instruct",
  "temperature": 0.5,
  "prompt": "Traduza este texto para inglês, espanhol e francês mantendo o tom profissional:\n{{content}}"
}

Busca e RAG (Retrieval-Augmented Generation)

Command R+

  • Otimizado para busca semântica
  • Excelente para RAG e Q&A
  • Suporte a citações de fontes
{
  "model": "cohere/command-r-plus",
  "temperature": 0.3,
  "prompt": "Com base nestes documentos, responda a pergunta e cite as fontes:\n\nDocumentos: {{documents}}\n\nPergunta: {{user_question}}"
}

Análise de Código

Claude 3 Opus

  • Compreensão profunda de código
  • Refatoração e otimização
  • Detecção de vulnerabilidades
{
  "model": "anthropic/claude-3-opus",
  "temperature": 0.2,
  "prompt": "Analise este código e forneça:\n1. Bugs potenciais\n2. Sugestões de otimização\n3. Vulnerabilidades de segurança\n\n```{{language}}\n{{code}}\n```"
}

Como Escolher o Modelo Ideal

Fluxograma de Decisão

graph TD
    A[Início] --> B{Orçamento limitado?}
    B -->|Sim| C{Precisa de velocidade?}
    B -->|Não| D{Tarefa complexa?}
 
    C -->|Sim| E[Gemini 2.0 Flash]
    C -->|Não| F[Claude 3 Haiku]
 
    D -->|Sim| G{Contexto muito longo?}
    D -->|Não| H[Claude 3 Sonnet]
 
    G -->|Sim| I[Gemini 2.5 Pro]
    G -->|Não| J[GPT-4 Turbo]

Critérios de Seleção

  1. Custo por Execução

    • Baixo (< $0.01): Haiku, Flash, Mixtral
    • Médio ($0.01-$0.10): Sonnet, GPT-3.5, Llama
    • Alto (> $0.10): GPT-4, Opus, Gemini Pro
  2. Tamanho do Contexto Necessário

    • Pequeno (< 8k): Maioria dos modelos
    • Médio (8k-128k): GPT-4, Claude, Llama
    • Grande (> 128k): Gemini Pro (2M), Claude (200k)
  3. Requisitos de Velocidade

    • Instantânea (< 1s): Flash, Haiku
    • Rápida (1-3s): Sonnet, GPT-3.5, Mixtral
    • Normal (3-10s): GPT-4, Opus, Gemini Pro
  4. Complexidade da Tarefa

    • Simples: Haiku, GPT-3.5, Flash
    • Média: Sonnet, Llama, Mixtral
    • Complexa: GPT-4, Opus, Gemini Pro

Configuração Avançada

Parâmetros de Temperatura

A temperatura controla a aleatoriedade das respostas:

// Respostas determinísticas (análises, extração de dados)
{ "temperature": 0.0-0.3 }
 
// Respostas equilibradas (Q&A, suporte)
{ "temperature": 0.4-0.7 }
 
// Respostas criativas (conteúdo, brainstorming)
{ "temperature": 0.8-1.0 }

Combinação de Modelos

Você pode usar diferentes modelos em uma pipeline:

// Etapa 1: Classificação rápida (Haiku)
{
  "task_name": "Classificar Email",
  "model": "anthropic/claude-3-haiku",
  "prompt": "Classifique este email como: urgente, normal, spam\n{{email}}"
}
 
// Etapa 2: Resposta detalhada (Opus - apenas para urgentes)
{
  "task_name": "Responder Email Urgente",
  "model": "anthropic/claude-3-opus",
  "prompt": "Crie uma resposta profissional e detalhada:\n{{email}}",
  "condition": "classification == 'urgente'"
}

Monitoramento de Custos

Dashboard de Uso por Modelo

Acesse Settings > Usage para visualizar:

  • Custo total por modelo
  • Número de execuções
  • Tokens consumidos
  • Tendências de uso

Alertas de Custo

Configure alertas automáticos:

{
  "budget_limit": 100.00, // USD
  "alert_threshold": 0.8, // 80% do limite
  "notification_channels": ["email", "webhook"]
}

Recursos Relacionados


Atualizações de Modelos

Novos modelos são adicionados regularmente. Acompanhe nossas atualizações:

  • Newsletter mensal com novos modelos
  • Changelog em /docs/changelog
  • Notificações in-app quando novos modelos estiverem disponíveis

Dica Pro: Comece com Claude 3 Haiku para testes e desenvolvimento. Depois migre para modelos mais caros apenas nas tarefas que realmente necessitam de capacidades avançadas.