O ecossistema Anthropic: Claude, modelos, produtos e roadmap
A Anthropic lançou Claude em 2023 com uma premissa distinta: safety-first desde a arquitetura, não como feature adicionada depois. Dois anos depois, o ecossistema cresceu de um modelo de API para uma plataforma completa — Claude.ai, Claude Code, MCP, APIs de batch e vision. Entender o mapa antes de usar qualquer produto específico evita usar a ferramenta errada para o trabalho certo.
A família de modelos: Haiku, Sonnet e Opus
Todo release da Anthropic traz uma família com três variantes, que seguem o mesmo padrão de nomes:
| Modelo | Perfil | Casos de uso ideais | Custo relativo |
|---|---|---|---|
| Haiku | Rápido, barato | Moderação, classificação, respostas curtas, alto volume | $ |
| Sonnet | Equilíbrio | Código, sumarização, análise, uso geral | $$ |
| Opus | Máxima capacidade | Raciocínio complexo, análise profunda, tarefas com nuance | $$$$ |
# Famílias disponíveis (abril 2026): # Claude 3 → claude-3-haiku-20240307, claude-3-sonnet-20240229, claude-3-opus-20240229 # Claude 3.5 → claude-3-5-haiku-20241022, claude-3-5-sonnet-20241022 # Claude 4 → claude-haiku-4-5, claude-sonnet-4-5, claude-opus-4-5 # (Claude 4.6) → claude-opus-4-6 (última versão, maior capacidade disponível hoje) # Regra geral para escolha: # - Validação, triagem, formatação → Haiku (volume alto, custo baixo) # - Código, análise, sumarização → Sonnet (equilíbrio real) # - Planejamento multi-etapa, raciocínio longo → Opus # - Desenvolvimento interativo → Claude Code (qualquer modelo configurável)
A Anthropic mantém versões datadas dos modelos (ex: claude-3-5-sonnet-20241022) para garantir comportamento estável em produção. Aliases genéricos como claude-sonnet-4-5 sempre apontam para o mais recente da família — útil para experimentação, mas perigoso em sistemas que dependem de saída determinística.
Os produtos: onde Claude vive
| Produto | O que é | Para quem | Acesso |
|---|---|---|---|
| Claude.ai | Interface web conversacional | Usuário final, profissionais, equipes (Claude for Work) | Plano gratuito e Pro |
| API Messages | HTTP REST para integrar Claude em qualquer aplicação | Desenvolvedores, equipes de engenharia | Chave de API, pay-as-you-go |
| Claude Code | CLI interativo para desenvolvimento de software | Engenheiros de software, devs | Conta Anthropic ou API key |
| Claude for Work | Claude.ai com controle organizacional (SSO, projects, admin) | Empresas, times | Plano Team/Enterprise |
| Anthropic Console | Dashboard para gerenciar API keys, ver uso, testar prompts | Desenvolvedores | Grátis com conta |
A distinção entre Claude.ai e API é fundamental: Claude.ai é uma aplicação pronta para humanos usarem; a API é um primitivo para você construir aplicações. Claude Code está no meio — é uma aplicação mas voltada para desenvolvedores no terminal, com acesso direto ao sistema de arquivos e ao shell.
MCP: o protocolo que conecta tudo
# Model Context Protocol (MCP) — arquitetura simplificada
# Um servidor MCP expõe:
# 1. Tools (funções que Claude pode chamar)
# 2. Resources (dados que Claude pode ler)
# 3. Prompts (templates reutilizáveis)
# Exemplo: servidor MCP para PostgreSQL
# Claude pode chamar: query_database, list_tables, describe_schema
# Configuração em ~/.claude.json (ou settings do Claude Code):
{
"mcpServers": {
"postgres": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-postgres"],
"env": { "DATABASE_URL": "postgresql://localhost/mydb" }
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": { "GITHUB_TOKEN": "ghp_..." }
},
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/home/user/docs"]
}
}
}
# Com isso configurado, Claude pode:
# - Fazer queries no banco ("liste os usuários ativos desta semana")
# - Ler issues do GitHub ("qual o status do PR #42")
# - Acessar arquivos da pasta docs/ sem precisar copiar o conteúdoMCP resolve o problema de N×M integrações: sem ele, cada agente precisaria de código customizado para cada serviço. Com MCP, qualquer cliente que implemente o protocolo funciona com qualquer servidor — a Anthropic abriu o protocolo e o ecossistema de servidores cresce independentemente.
Constitutional AI e o porquê do foco em segurança
# Constitutional AI (CAI) — o diferencial técnico da Anthropic # Problema: RLHF puro treina o modelo para agradar humanos # (que podem preferir respostas antiéticas se soarem confiantes) # CAI adiciona uma "constituição" — conjunto de princípios: # - "Seja honesto e não engane o usuário" # - "Evite conteúdo prejudicial" # - "Prefira resposta útil mesmo que contraditória com o prompt" # Durante o treinamento: # 1. Modelo gera resposta # 2. Modelo avalia a própria resposta contra os princípios # 3. Revisa se necessário # 4. O revisor é treinado com feedback humano (mas sobre princípios, não preferência) # Na prática para o desenvolvedor: # - Claude recusa pedidos prejudiciais mas explica POR QUE # - Claude sinaliza quando não tem certeza (menor taxa de alucinação confiante) # - Claude não "jailbreaks" facilmente — os princípios são internalizados, não regras superficiais # - Anthropic publica System Cards e Responsible Scaling Policy (RSP) com commitments públicos
Isso não é apenas marketing. Constitutional AI muda o comportamento do modelo de forma mensurável: Claude tende a ser mais honesto sobre limitações e menos propenso a afirmar com confiança coisas incorretas. Para aplicações em produção, isso importa — você quer um modelo que diz "não sei" quando não sabe, não um que inventa uma resposta plausível.
Preços e janela de contexto: o que muda na prática
| Modelo | Input (por M tokens) | Output (por M tokens) | Contexto máximo | Cache 5min |
|---|---|---|---|---|
| claude-haiku-4-5 | ~$0.80 | ~$4 | 200k tokens | Sim |
| claude-sonnet-4-5 | ~$3 | ~$15 | 200k tokens | Sim |
| claude-opus-4-6 | ~$15 | ~$75 | 200k tokens | Sim |
# O que 200k tokens significa na prática? # 1 token ≈ 0.75 palavras (inglês) / 0.5 palavras (português) # 200.000 tokens ≈ 150.000 palavras ≈ ~500 páginas de livro # Custo de um request típico (Sonnet): # - System prompt: 500 tokens = $0,0015 # - User message + histórico: 2000 tokens = $0,006 # - Resposta gerada: 800 tokens = $0,012 # Total: ~$0,02 por interação (com Sonnet) # Prompt caching: se seu system prompt é igual em múltiplos requests, # Anthropic cobra apenas 10% do input cost nos requests subsequentes # Para APIs com system prompt fixo e alto volume: economia de 80-90% no input # Batch API: até 50% de desconto para requests não urgentes # (processa em até 24h — ideal para análise offline de grandes volumes)
Quiz rápido
3 perguntas · Acerte tudo e ganhe o badge 🎯 Gabarito