🧠FFVAcademy
🧠

IA e ML na AWS: Bedrock, SageMaker, Q e Amigos

10 min de leitura·+50 XP

A AWS tem um zoológico de serviços de IA — e o CLF-C02 (versão 2024+) cobra que você saiba escolher entre eles. A regra de ouro: serviços prontos por domínio (imagem, voz, texto) resolvem 80% dos casos sem escrever modelo nenhum. SageMaker aparece quando você precisa treinar algo específico. Bedrock e Amazon Q são a aposta de GenAI. Entender essa camada evita que você use um canhão pra matar mosquito.

📘 Technology· ~34% do CLF-C02

As 3 camadas de IA/ML na AWS

CamadaServiçosQuando usar
AI Services (prontos)Rekognition · Comprehend · Polly · Transcribe · Translate · Lex · Kendra · Textract · Bedrock · QVocê não tem ciência de dados — quer resolver problema de negócio com API pronta
ML PlatformAmazon SageMaker (Studio, Training, Endpoints, Pipelines, Canvas, JumpStart)Precisa treinar modelo customizado com seus dados
ML Frameworks + InfraEC2 GPU (p5, g6) · Deep Learning AMI · EKS + Karpenter · Trn1/Inf2 (Trainium/Inferentia)Equipe de ML madura quer controle total
💡
Regra prática: comece de cima. Só desça uma camada se a anterior não atender.

Amazon SageMaker

Plataforma completa de ML gerenciada. Cobre do notebook ao endpoint de produção.

RecursoPara que serve
StudioIDE Jupyter-based, o “VS Code do ML”
AutopilotAutoML — encontra o melhor modelo sozinho
CanvasAutoML no-code (para analistas, não engenheiros)
Ground TruthLabeling de dados com humanos (público ou privado)
Feature StoreBanco de features compartilhado entre treino e inferência
JumpStartModelos pré-treinados e soluções prontas
ClarifyDetecta bias e explica decisões do modelo
PipelinesMLOps (CI/CD para modelos)
Model RegistryVersionamento e aprovação de modelos

Opções de deployment: Real-time Endpoint (ms de latência), Serverless Inference (paga por invocação), Async Inference (jobs longos, resultado em S3), Batch Transform (processamento em lote).

Amazon Bedrock

Serviço gerenciado para foundation models (LLMs, modelos de imagem). API única, sem gerenciar GPU. Modelos disponíveis:

  • Anthropic Claude (Sonnet, Opus, Haiku)
  • Meta Llama
  • Amazon Titan (texto, embeddings, imagem)
  • Mistral (Large, 7B, 8x7B)
  • Cohere Command R
  • Stability AI (imagem)
💡
Recursos extras: Knowledge Bases (RAG gerenciado), Agents (tool calling), Guardrails(filtros de segurança), Model Evaluation, Fine-tuning e Provisioned Throughput.

Amazon Q

Assistente GenAI corporativo com duas variantes que caem no exame:

VariantePara quemExemplo
Amazon Q BusinessUsuários de negócioChatbot sobre docs corporativos (SharePoint, Confluence, S3), conectores prontos
Amazon Q DeveloperDesenvolvedoresPlugin IDE (VS Code/JetBrains) que escreve código, sugere correções, explica AWS

Serviços de domínio específico

ServiçoDomínioCaso de uso típico
RekognitionVisão (imagem/vídeo)Detectar rostos, objetos, texto em imagem, moderação de conteúdo, PPE detection
TextractDocumentosExtrai texto + tabelas + formulários de PDFs/imagens (OCR estrutural)
ComprehendNLPSentimento, entidades, tópicos, PII detection/redaction
PollyText-to-SpeechGera áudio natural em 30+ vozes/idiomas
TranscribeSpeech-to-TextTranscreve áudio com speaker diarization, timestamps, vocabulário custom
TranslateTraduçãoTradução neural em 75+ idiomas
LexChatbot conversacionalMesmo engine da Alexa — bots de voz/texto com intents
KendraSearch empresarialBusca NLU sobre SharePoint, S3, Salesforce, Confluence
ForecastSéries temporaisPrevisão de demanda, vendas, energia
PersonalizeRecomendaçãoSistema de recommendation estilo Amazon.com
Fraud DetectorDetecção de fraudeScore de risco para transações, sign-ups

Decisão rápida

📋 Construir um chatbot que responde sobre docs internos

Amazon Q Business (ou Kendra + Bedrock com Knowledge Bases)

Q Business já integra conectores (SharePoint, Confluence, S3), search e GenAI em um produto só. Montar na mão exige Kendra + Bedrock + orquestração.

Alt: Kendra + Lexmais tradicional, mais trabalho.

Alt: SageMaker com modelo própriosó se precisa fine-tuning muito específico.

📋 App mobile que identifica pragas em plantas por foto

Rekognition Custom Labels (ou SageMaker JumpStart)

Rekognition Custom Labels permite treinar com 10-100 imagens por classe sem escrever código de ML. JumpStart tem modelos pré-treinados para vision.

Alt: SageMaker + ResNet customse já tem time de ML.

Alt: API Rekognition basese for objeto comum, não precisa treino.

📋 Redigir PII automaticamente de logs e tickets antes de armazenar

Amazon Comprehend (PII Detection + Redaction)

Comprehend detecta e redige CPF, email, telefone, cartão nativamente. Sem treinar nada.

Alt: Maciepara PII em S3, escaneamento.

Alt: Regex caseirosempre deixa passar algo.

Perguntas típicas (Q&A)

Qual a diferença entre Bedrock e SageMaker?

Bedrock serve foundation models prontos via API (não treina, consome). SageMaker é plataforma completa de ML — você traz seus dados, treina modelos customizados, deploya endpoints. Bedrock = “usar GenAI”, SageMaker = “criar ML”.

Quando usar Kendra em vez de OpenSearch?

Kendra é search baseado em NLU — entende pergunta em linguagem natural (“qual a política de férias?”) e retorna resposta contextual. OpenSearch é search full-text tradicional (keywords, BM25). Kendra custa mais mas exige menos engenharia.

Macie, Comprehend e Rekognition podem detectar PII?

Sim, todos os três — mas com escopos diferentes. Macie escaneia PII em buckets S3. Comprehend detecta e redige PII em texto via API. Rekognition detecta PII em imagens (placas, documentos).
Take-aways: SageMaker = plataforma · Bedrock = foundation models · Q = assistente corporativo · Rekognition = imagem · Textract = docs · Comprehend = texto · Polly/Transcribe = voz · Translate = tradução · Lex = chatbot · Kendra = search empresarial. Vá sempre pela camada mais alta que resolve o problema.
🧩

Quiz rápido

3 perguntas · Acerte tudo e ganhe o badge 🎯 Gabarito