Blog
Para quem já sabe o básico e quer ir fundo. Aqui o assunto é como os modelos funcionam em produção: memória, roteamento, ferramentas, agentes. O lado técnico que pouca gente explica direito.
Edge = compute geograficamente próximo ao user. Cold start near-zero (V8 isolates vs Lambda). Latency real 10-50ms vs 200-500ms cloud central. Trade-offs: disk, long-running, compute pesado.
Workers runtime (V8 isolates), KV (eventual-consistent kv), D1 (SQLite distribuído), R2 (S3-compatible no egress), Durable Objects (stateful, atomic), Queues, Analytics Engine.
Edge Functions (middleware, API), Edge Runtime (subset Node), ISR (Incremental Static Regeneration), on-demand revalidation, edge caching, streaming SSR nativo.
Deno (TS-first, secure by default, permissions), Deno Deploy (global edge), Bun (Zig-based, 2-4x Node speed, built-in bundler/test/sqlite). Onde cada um cabe vs Node tradicional.
AWS edge compute: CloudFront Functions (lightweight JS, viewer events), Lambda@Edge (full Lambda, cada request mais caro). Quando AWS-native edge faz sentido vs Cloudflare.
HTML streaming (Islands architecture, Astro/Qwik), data collocation (D1/Durable Objects no edge vs DB central), edge auth validation, A/B testing no edge, feature flags.
API real em Cloudflare Workers: D1 pra dados, KV pra cache, R2 pra assets, auth JWT edge-validated, rate limit com Durable Objects. Meta: p99 < 50ms globalmente. Load test geo-distributed.