🧠FFVAcademy

O ecossistema Anthropic: Claude, modelos, produtos e roadmap

8 min de leitura·+40 XP

A Anthropic lançou Claude em 2023 com uma premissa distinta: safety-first desde a arquitetura, não como feature adicionada depois. Dois anos depois, o ecossistema cresceu de um modelo de API para uma plataforma completa — Claude.ai, Claude Code, MCP, APIs de batch e vision. Entender o mapa antes de usar qualquer produto específico evita usar a ferramenta errada para o trabalho certo.

A família de modelos: Haiku, Sonnet e Opus

Todo release da Anthropic traz uma família com três variantes, que seguem o mesmo padrão de nomes:

ModeloPerfilCasos de uso ideaisCusto relativo
HaikuRápido, baratoModeração, classificação, respostas curtas, alto volume$
SonnetEquilíbrioCódigo, sumarização, análise, uso geral$$
OpusMáxima capacidadeRaciocínio complexo, análise profunda, tarefas com nuance$$$$
# Famílias disponíveis (abril 2026):
# Claude 3    → claude-3-haiku-20240307, claude-3-sonnet-20240229, claude-3-opus-20240229
# Claude 3.5  → claude-3-5-haiku-20241022, claude-3-5-sonnet-20241022
# Claude 4    → claude-haiku-4-5, claude-sonnet-4-5, claude-opus-4-5
# (Claude 4.6) → claude-opus-4-6 (última versão, maior capacidade disponível hoje)

# Regra geral para escolha:
# - Validação, triagem, formatação → Haiku (volume alto, custo baixo)
# - Código, análise, sumarização → Sonnet (equilíbrio real)
# - Planejamento multi-etapa, raciocínio longo → Opus
# - Desenvolvimento interativo → Claude Code (qualquer modelo configurável)

A Anthropic mantém versões datadas dos modelos (ex: claude-3-5-sonnet-20241022) para garantir comportamento estável em produção. Aliases genéricos como claude-sonnet-4-5 sempre apontam para o mais recente da família — útil para experimentação, mas perigoso em sistemas que dependem de saída determinística.

Os produtos: onde Claude vive

ProdutoO que éPara quemAcesso
Claude.aiInterface web conversacionalUsuário final, profissionais, equipes (Claude for Work)Plano gratuito e Pro
API MessagesHTTP REST para integrar Claude em qualquer aplicaçãoDesenvolvedores, equipes de engenhariaChave de API, pay-as-you-go
Claude CodeCLI interativo para desenvolvimento de softwareEngenheiros de software, devsConta Anthropic ou API key
Claude for WorkClaude.ai com controle organizacional (SSO, projects, admin)Empresas, timesPlano Team/Enterprise
Anthropic ConsoleDashboard para gerenciar API keys, ver uso, testar promptsDesenvolvedoresGrátis com conta

A distinção entre Claude.ai e API é fundamental: Claude.ai é uma aplicação pronta para humanos usarem; a API é um primitivo para você construir aplicações. Claude Code está no meio — é uma aplicação mas voltada para desenvolvedores no terminal, com acesso direto ao sistema de arquivos e ao shell.

MCP: o protocolo que conecta tudo

# Model Context Protocol (MCP) — arquitetura simplificada

# Um servidor MCP expõe:
# 1. Tools (funções que Claude pode chamar)
# 2. Resources (dados que Claude pode ler)
# 3. Prompts (templates reutilizáveis)

# Exemplo: servidor MCP para PostgreSQL
# Claude pode chamar: query_database, list_tables, describe_schema

# Configuração em ~/.claude.json (ou settings do Claude Code):
{
  "mcpServers": {
    "postgres": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-postgres"],
      "env": { "DATABASE_URL": "postgresql://localhost/mydb" }
    },
    "github": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-github"],
      "env": { "GITHUB_TOKEN": "ghp_..." }
    },
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem", "/home/user/docs"]
    }
  }
}

# Com isso configurado, Claude pode:
# - Fazer queries no banco ("liste os usuários ativos desta semana")
# - Ler issues do GitHub ("qual o status do PR #42")
# - Acessar arquivos da pasta docs/ sem precisar copiar o conteúdo

MCP resolve o problema de N×M integrações: sem ele, cada agente precisaria de código customizado para cada serviço. Com MCP, qualquer cliente que implemente o protocolo funciona com qualquer servidor — a Anthropic abriu o protocolo e o ecossistema de servidores cresce independentemente.

Constitutional AI e o porquê do foco em segurança

# Constitutional AI (CAI) — o diferencial técnico da Anthropic

# Problema: RLHF puro treina o modelo para agradar humanos
# (que podem preferir respostas antiéticas se soarem confiantes)

# CAI adiciona uma "constituição" — conjunto de princípios:
# - "Seja honesto e não engane o usuário"
# - "Evite conteúdo prejudicial"
# - "Prefira resposta útil mesmo que contraditória com o prompt"

# Durante o treinamento:
# 1. Modelo gera resposta
# 2. Modelo avalia a própria resposta contra os princípios
# 3. Revisa se necessário
# 4. O revisor é treinado com feedback humano (mas sobre princípios, não preferência)

# Na prática para o desenvolvedor:
# - Claude recusa pedidos prejudiciais mas explica POR QUE
# - Claude sinaliza quando não tem certeza (menor taxa de alucinação confiante)
# - Claude não "jailbreaks" facilmente — os princípios são internalizados, não regras superficiais
# - Anthropic publica System Cards e Responsible Scaling Policy (RSP) com commitments públicos

Isso não é apenas marketing. Constitutional AI muda o comportamento do modelo de forma mensurável: Claude tende a ser mais honesto sobre limitações e menos propenso a afirmar com confiança coisas incorretas. Para aplicações em produção, isso importa — você quer um modelo que diz "não sei" quando não sabe, não um que inventa uma resposta plausível.

Preços e janela de contexto: o que muda na prática

ModeloInput (por M tokens)Output (por M tokens)Contexto máximoCache 5min
claude-haiku-4-5~$0.80~$4200k tokensSim
claude-sonnet-4-5~$3~$15200k tokensSim
claude-opus-4-6~$15~$75200k tokensSim
# O que 200k tokens significa na prática?
# 1 token ≈ 0.75 palavras (inglês) / 0.5 palavras (português)
# 200.000 tokens ≈ 150.000 palavras ≈ ~500 páginas de livro

# Custo de um request típico (Sonnet):
# - System prompt: 500 tokens = $0,0015
# - User message + histórico: 2000 tokens = $0,006
# - Resposta gerada: 800 tokens = $0,012
# Total: ~$0,02 por interação (com Sonnet)

# Prompt caching: se seu system prompt é igual em múltiplos requests,
# Anthropic cobra apenas 10% do input cost nos requests subsequentes
# Para APIs com system prompt fixo e alto volume: economia de 80-90% no input

# Batch API: até 50% de desconto para requests não urgentes
# (processa em até 24h — ideal para análise offline de grandes volumes)
Mapa de decisão: Claude.ai para uso pessoal e conversacional. API para integrar Claude na sua aplicação. Claude Code para desenvolvimento interativo no terminal. MCP para conectar Claude a ferramentas externas sem código bespoke. Use Haiku para volume, Sonnet para uso geral, Opus para tarefas que exigem máxima capacidade de raciocínio.
💡
Próximo: Claude Code na prática — instalação, autenticação e os primeiros comandos que mudam como você trabalha.
🧩

Quiz rápido

3 perguntas · Acerte tudo e ganhe o badge 🎯 Gabarito

Continue lendo