🧠FFVAcademy
💾

EBS, EFS e FSx: Quando Usar Cada Um

12 min de leitura·+60 XP

S3 resolve object storage. Mas aplicações precisam muitas vezes de block (disco que uma instância formata) ou file (compartilhado entre várias máquinas com protocolo NFS/SMB). AWS tem um portfólio confuso aqui — EBS, EFS, quatro variantes de FSx, instance store, Storage Gateway — e o SAA adora testar a escolha certa em cenários específicos. Vamos alinhar os cinco vetores: protocolo, multi-attach, performance, custo e caso de uso.

📘 High-Performing· 24%
📘 Resilient· 26%
📘 Cost-Optimized· 20%

Mapa mental de storage para compute

🗺️ Taxonomia de storage AWS
                     ┌──────────────────────┐
                     │  Preciso de storage  │
                     │  para minha instância│
                     └─────────┬────────────┘
                               │
     ┌─────────────────────────┼─────────────────────────┐
     │                         │                         │
  BLOCK                      FILE                    OBJECT
  (único host)           (multi-host)              (qualquer)
     │                         │                         │
     ├─ EBS (gp3/io2/st1/sc1) │                         └─ S3
     └─ Instance Store         ├─ EFS (NFS / Linux)
        (ephemeral)            ├─ FSx for Windows (SMB)
                               ├─ FSx for Lustre (HPC/ML)
                               ├─ FSx for NetApp ONTAP
                               └─ FSx for OpenZFS

EBS — block storage anexado à EC2

EBS é volume que você anexa a uma EC2 na mesma AZ. Formata, monta, usa como disco local. Persiste após stop, snapshot vai para S3, criptografia via KMS é transparente.

TipoFamíliaIOPS máxThroughput máxCaso de uso
gp3SSD genérico16.0001.000 MB/sPadrão moderno — desacopla IOPS de tamanho, 20% mais barato que gp2
gp2SSD genérico (legado)16.000250 MB/sLegado. 3 IOPS/GB até 16k máx.
io2 Block ExpressSSD premium256.0004.000 MB/sSAP HANA, Oracle, SQL Server críticos
io2SSD premium64.0001.000 MB/sDBs críticos com SLA de durabilidade 99,999%
st1HDD throughput500500 MB/sBig Data, data warehouses, logs sequenciais
sc1HDD cold250250 MB/sArquivamento acessado menos de 1x/dia
AZ-boundVolume existe em uma AZ. Para mover, faça snapshot → crie volume na outra AZ a partir do snapshot.
SnapshotsIncrementais em S3 (não acessível diretamente). Cross-region copy suportado. Fast Snapshot Restore elimina hydrate latency.
Multi-AttachApenas io1/io2 permitem anexar a até 16 instâncias na MESMA AZ. Precisa de cluster-aware FS (não ext4 padrão).
Elastic VolumesPode mudar tipo/tamanho/IOPS ao vivo sem stop. Limite: uma mudança a cada 6h no mesmo volume.
EncryptionKMS. Se habilitada por default na conta, todo volume novo é criptografado. Snapshot de volume encrypted herda encryption.
⚠️
Instance Store ≠ EBS. Instance store é SSD/NVMe local ao hypervisor, altíssima performance (milhões de IOPS) mas efêmero — stop ou failure apaga tudo. Usado para cache, shuffle de Spark, scratch de ML. Disponibilidade por família (i3, i4i, m5d, r5d, etc.).

EFS — NFS gerenciado para Linux

EFS é filesystem POSIX compatível com NFSv4, multi-AZ, elastic (cresce e encolhe automaticamente). Qualquer instância EC2 (ou ECS/EKS/Lambda) monta e compartilha.

DimensãoEFS StandardEFS One Zone
DurabilidadeMulti-AZ na regiãoAZ única
Custo$$$$ (~47% menor)
CasoProduçãoDev/test, backups secundários
Performance modesGeneral Purpose (default, baixa latência) vs Max I/O (escala > 7k ops/s mas latência mais alta). Nova geração Elastic Throughput torna essa escolha menos crítica.
Throughput modesBursting (grátis, escala com tamanho) | Provisioned (pago fixo) | Elastic (auto-scale pay-per-use, recomendado).
IA + LifecycleMove arquivos não acessados para EFS-IA automaticamente após 7/14/30/60/90 dias. Reduz custo em até 92%.
Access PointsEndpoints com POSIX user enforcement + root directory — isola múltiplas apps no mesmo FS.
Cross-regionReplicação para outra região para DR, RPO < 1h.
💡
Lambda + EFS: Lambda pode montar EFS via Access Point na VPC. Útil para modelos ML grandes que não cabem no pacote de 250MB da Lambda. Cold start +1–2s ao montar.

FSx — 4 filesystems especializados

VarianteProtocoloCaso de uso
FSx for Windows File ServerSMB + NTFS ACL + ADApps Windows, share de departamento, home folders
FSx for LustrePOSIX (Linux) + S3-backedHPC, ML training, genômica, mídia (centenas de GB/s)
FSx for NetApp ONTAPSMB + NFS + iSCSILift-and-shift de NetApp, snapshots FlexClone, multi-protocolo
FSx for OpenZFSNFS (v3/v4)Apps Linux/Unix que querem snapshots baratos + clones instantâneos

📋 Cluster HPC de simulação física, 200 nós, lê 10TB de inputs por job

FSx for Lustre linked ao bucket S3

Lustre é filesystem paralelo nativo para HPC. Linkar ao S3 permite hidratar dados sob demanda e devolver resultados sem copiar manualmente.

Alt: EFS Max I/Oescala mas não atinge centenas de GB/s sustentados.

📋 Migração de NetApp on-prem (iSCSI + NFS + SnapMirror) para AWS

FSx for NetApp ONTAP

Mantém APIs, features (SnapMirror, FlexClone, Deduplication) e compatibilidade binária. Redução de risco na migração.

Alt: Refatorar para EFS + EBSviável mas muito mais trabalho.

Storage Gateway — ponte híbrida on-prem ↔ AWS

TipoProtocolo localBackend AWSCaso de uso
File GatewayNFS/SMBS3On-prem vê um share, dados vão para S3 (com classes/lifecycle).
Volume GatewayiSCSIEBS SnapshotsCached Mode (hot on-prem + cold AWS) ou Stored Mode (tudo on-prem + snapshot cloud).
Tape GatewayVTL (iSCSI)Glacier/Deep ArchiveSubstituir biblioteca física de fitas (backup software existente).
Amazon FSx File GatewaySMBFSx for WindowsAcesso local em branch offices a files em FSx central.

Comparação final — cheat sheet do exame

RequisitoEscolha
Disco para EC2, single-host, alta IOPSEBS io2 Block Express
Disco para EC2, padrão, custo-benefícioEBS gp3
Filesystem compartilhado LinuxEFS
Filesystem compartilhado Windows + ADFSx for Windows File Server
HPC / ML training com S3 datasetFSx for Lustre
Migração de NetAppFSx for NetApp ONTAP
Snapshots baratos + clones para testeFSx for OpenZFS
Scratch disk ultra-rápido e descartávelInstance Store
On-prem quer usar S3 como se fosse NFSFile Gateway
Object storage globalS3

Q&A estilo exame

Volume EBS não anexa à instância — qual a primeira coisa a verificar?

Mesma AZ. EBS é AZ-scoped. Se instância está em us-east-1a e o volume foi criado em us-east-1b, attach falha. Snapshot → create volume na AZ correta → attach.

Quero que snapshots EBS existam também em outra região para DR. Como?

aws ec2 copy-snapshot --source-region ... ou use Data Lifecycle Managercom policy cross-region. DLM automatiza snapshot + retention + copy.

EFS em Lambda — quais limites devo saber?

Lambda precisa estar em VPC com acesso ao mount target. 25.000 conexões concorrentes por mount target. IAM deve permitir elasticfilesystem:ClientMount e ClientWrite.

Preciso criptografar um volume EBS já existente que não estava criptografado.

Snapshot → copy snapshot com flag --encrypted + KMS key → create volume do novo snapshot → detach antigo, attach novo. Não tem encryption in-place no EBS.
⚠️
Pegadinhas frequentes:(1) EBS é AZ-scoped, esqueceu e vai errar; (2) gp2 “parece” mais barato mas gp3 ganha em custo × performance quase sempre; (3) EFS é Linux/NFS — se viu Windows no enunciado, pense FSx for Windows; (4) Multi-Attach do io2 é limitado à mesma AZ e exige cluster-aware FS; (5) Instance Store some no stop, não no reboot.
bash
# Criar EBS gp3 com IOPS e throughput customizados
aws ec2 create-volume \
  --availability-zone us-east-1a \
  --size 100 --volume-type gp3 \
  --iops 6000 --throughput 250 \
  --encrypted --kms-key-id alias/ebs-default

# Montar EFS em instância Linux
sudo mount -t efs -o tls fs-0abc123:/ /mnt/efs

# Criar FSx for Lustre linkado a bucket S3
aws fsx create-file-system --file-system-type LUSTRE \
  --storage-capacity 1200 --subnet-ids subnet-xxx \
  --lustre-configuration DataRepositoryAssociations=\
  [{DataRepositoryPath=s3://meu-bucket,FileSystemPath=/data}]
Take-aways: escolha guiada por (1) quem acessa — 1 host = EBS, muitos = EFS/FSx; (2) protocolo — NFS vs SMB vs POSIX; (3) performance — gp3/io2 para latência, Lustre para throughput; (4) persistência — Instance Store nunca em produção crítica.
🧩

Quiz rápido

3 perguntas · Acerte tudo e ganhe o badge 🎯 Gabarito