TL;DR: Cloudflare hat Dynamic Workers in die Open Beta gebracht – eine Technologie, die AI-generierten Code in V8-Isolates ausführt statt in langsamen Containern. Das Ergebnis: Millisekunden-Startzeiten statt Sekunden, unbegrenzte Skalierung, und das aktuell kostenlos in der Beta. Für AI-Agent-Workflows ist das ein echter Gamechanger. Wer heute AI-Agents baut, die Code generieren und ausführen sollen, stand bisher vor einem klaren Bottleneck: Container sind zu langsam, zu teuer und zu schwerfällig für consumer-skalierte Agenten-Workloads. Cloudflare hat am 24. März 2026 eine Antwort auf dieses Problem in die Open Beta gebracht – Dynamic Workers.
Die wichtigsten Punkte
- 📅 Verfügbarkeit: Open Beta seit 24. März 2026 – für alle paid Cloudflare Workers-Nutzer sofort zugänglich; aktuell kostenfrei während der Beta-Phase
- 🎯 Zielgruppe: Entwickler von AI-Agents, Automatisierungs-Builder, Plattformbauer (No-Code-App-Generatoren, MCP-Server-Entwickler)
- 💡 Kernfeature: V8-Isolates statt Container – AI-generierter JavaScript/TypeScript-Code wird on-demand in einer sicheren Sandbox ausgeführt, direkt auf demselben Thread wie der aufrufende Worker
- 🔧 Tech-Stack: Cloudflare Workers, V8-Isolates, TypeScript RPC, MCP (Model Context Protocol),
@cloudflare/codemode
Was bedeutet das für AI-Automation-Engineers?
Das Szenario kennt jeder, der AI-Agents in Produktions-Workflows integriert: Der Agent generiert Code, aber dieser Code muss irgendwo sicher ausgeführt werden – isoliert von deiner App, ohne dass er auf Secrets zugreifen oder Schaden anrichten kann. Die bisherige Lösung: Container. Und die haben ein massives Problem in hochfrequenten Automatisierungs-Stacks: Container vs. Isolates im direkten Vergleich:
| Eigenschaft | Container | Dynamic Workers (Isolates) |
|---|---|---|
| Startzeit | 100ms – mehrere Sekunden | Wenige Millisekunden |
| Speicher | Hunderte MB (OS-Overhead) | Wenige MB |
| Skalierung | Oft globale Concurrency-Limits | Unbegrenzt – Millionen req/s |
| Latenz | Hoch (Netzwerk-Routing zu warmem Container) | Zero-Latency (gleicher Thread) |
| Preis | Hoch (Warm-Keeping notwendig) | Niedrig (pay-per-use) |
| Im Workflow bedeutet das: Wenn dein Agent für jeden User-Request eine frische Sandbox braucht – bei Containern ist das prohibitiv teuer und langsam. Mit Isolates ist das trivial. |
Wie funktioniert es im Automation-Stack?
Das Grundprinzip: Code Mode
Cloudflare propagiert ein Prinzip namens “Code Mode”: Statt dass ein Agent sequenziell Tool-Calls macht (ein Tool → Antwort → nächstes Tool), schreibt der Agent TypeScript-Code, der mehrere API-Calls in einer Funktion zusammenführt. Dieser Code wird dann in einem Dynamic Worker ausgeführt. Das Ergebnis laut Cloudflare: deutlich reduzierter Token-Verbrauch gegenüber klassischen Tool-Calls. Denn nur das finale Ergebnis landet im Kontext-Fenster, nicht jeder Zwischenschritt. Workflow-Diagramm:
LLM generiert TypeScript-Code
↓
env.LOADER.load({ modules, env, globalOutbound: null })
↓
V8-Isolate startet (wenige ms, gleicher Thread)
↓
Agent-Code läuft — hat nur Zugriff auf explizit übergebene APIs
↓
Ergebnis zurück an Haupt-Worker
↓
Isolate wird verworfen (keine Persistenz, kein Leak)
Praktisches Code-Beispiel (direkt aus Cloudflare-Docs)
// LLM generiert diesen Code:
let agentCode = `
export default {
async myAgent(request, env, ctx) {
let history = await env.CHAT_ROOM.getHistory(1000);
return history.filter(msg => msg.author === "alice");
}
}
`;
// Worker lädt und führt aus:
let worker = env.LOADER.load({
compatibilityDate: "2026-03-01",
mainModule: "agent.js",
modules: { "agent.js": agentCode },
// Nur explizit freigegebene APIs sind zugänglich
env: { CHAT_ROOM: chatRoomRpcStub },
// Internet-Zugriff geblockt – Agent kann keine Secrets leaken
globalOutbound: null,
});
// Korrekte Invocation mit Request-Objekt
await worker.getEntrypoint().myAgent(new Request("http://rpc"));
TypeScript als API-Definition: Weniger Tokens, mehr Präzision
Ein entscheidender Vorteil im Automation-Stack: TypeScript-Interfaces als API-Beschreibung für den Agenten sind drastisch kompakter als OpenAPI-Specs. Cloudflare demonstriert das am Beispiel eines Chat-Room-APIs – die TypeScript-Version benötigt ~15 Zeilen, die äquivalente OpenAPI-Spec ~60 Zeilen. Weniger Tokens = niedrigere Inference-Kosten in jedem Workflow-Step.
Integration in bestehende Automatisierungs-Stacks
Vergleich mit bestehenden Sandbox-Lösungen
| Tool | Ansatz | Stärke | Schwäche vs. Dynamic Workers |
|---|---|---|---|
| E2B | Container-basiert | Persistente Sessions, komplexe Setups | Langsamer Start, höhere Kosten |
| Modal | Serverless-Container | GPU-Integration, Batch-Verarbeitung | Container-Overhead |
| Fly.io | Edge-Container | Globale Verteilung | Nicht so extrem-schnell wie Isolates |
| Dynamic Workers | V8-Isolates | Millisekunden, unbegrenzte Skalierung | Nur JavaScript/TypeScript/WASM |
| Wichtige Einschränkung: Dynamic Workers führen nur JavaScript, TypeScript oder WebAssembly aus. Python-Agents direkt in Isolates: nicht optimal (langsamer Load). Aber: LLMs schreiben jeden Code den sie sollen – das ist kein menschliches Präferenz-Problem. |
n8n / Make / Zapier Integration
Dynamic Workers lassen sich als Custom-Code-Step in n8n-Workflows integrieren – per HTTP-Request an einen Cloudflare Worker, der dann die Dynamic Worker Sandbox startet. Das Muster eignet sich besonders für:
- On-demand Code-Ausführung aus LLM-Outputs direkt im Workflow
- Sichere Datenverarbeitung ohne dass der Automation-Stack auf Produktions-Datenbanken zugreift
- Custom Automation Building: Zite.com (Praxis-Beispiel aus dem Cloudflare-Blog) baut damit eine App-Plattform, bei der LLMs CRUD-Apps, Stripe-Integrationen und Google-Calendar-Anbindungen on-the-fly generieren – Millionen von Executions täglich
Credential Injection für sichere API-Calls
Ein unterschätztes Feature für Production-Workflows: HTTP-Filtering mit Credential-Injection. Der Agent macht HTTP-Requests an externe APIs, aber der Host-Worker fängt diese ab und injiziert automatisch Auth-Token – der Agent selbst sieht die Secrets nie und kann sie nicht leaken:
// globalOutbound als Interceptor statt null
env: { globalOutbound: myCredentialInjector }
ROI und Business-Impact
Was das konkret spart
Zeitersparnis pro Workflow-Run:
- Kein Container-Warm-Up: spart 100ms – mehrere Sekunden pro Execution
- Kein Routing zu Remote-Sandbox: spart Netzwerk-Latenz
- Bei 1.000 Agent-Runs/Tag: mehrere Minuten Warte-Zeit eliminiert Kostenreduktion:
- Keine Container “warm halten” notwendig: entfallen komplett
- Preismodell basiert auf Dynamic Workers created daily, Requests und CPU-Zeit – aktuell in Beta kostenfrei
- Token-Einsparung durch Code Mode: deutlich reduzierter Token-Verbrauch = direkte Inference-Kostenreduktion
Reales Beispiel aus dem Cloudflare-Blog
“Zite serviciert jetzt Millionen von Execution Requests täglich dank Dynamic Workers – instant, isoliert und sicher.”
— Antony Toron, CTO & Co-Founder, Zite
Sicherheit: Was “Battle-hardened” konkret bedeutet
Für Production-Deployments relevante Fakten:
- V8 Security Patches werden von Cloudflare innerhalb von Stunden deployed – schneller als Chrome selbst
- Zweite Sandbox-Schicht mit dynamischem Cordoning basierend auf Risk-Assessments
- Hardware-Features (MPK) zur V8-Sandbox-Härtung
- Code-Scanning für malicious patterns – automatische Blockierung oder zusätzliches Sandboxing Caveat aus der infoworld.com-Einschätzung: Isolate-basierte Sandboxes haben andere Sicherheitscharakteristika als hardware-backed VMs. V8-Bugs sind häufiger als Hypervisor-Bugs. Cloudflare hat dafür Defense-in-Depth-Maßnahmen, aber für hochsensitive Daten sollte das im Threat-Modell berücksichtigt werden.
Praktische Nächste Schritte
- Sofort ausprobieren: Du bist auf dem Workers Paid Plan? Starte mit dem Dynamic Workers Starter – Deploy auf Cloudflare mit einem Klick
- Playground testen: Der Dynamic Workers Playground ermöglicht Live-Code-Ausführung mit Echtzeit-Logs – ideal zum Verstehen des Execution-Modells
- MCP-Integration evaluieren: Wenn du bereits MCP-Server einsetzt, schau dir
@cloudflare/codemodean – es wrappet bestehende MCP-Server mit einem einzigencode()-Tool und reduziert so Token-Verbrauch drastisch - n8n-Workflow prototypen: Integriere einen Cloudflare Worker als HTTP-Step in deinen n8n-Workflow, der Dynamic Workers für Code-Execution nutzt