TL;DR: Die NSA setzt Anthropics neues KI-Modell Claude Mythos Preview trotz eines Pentagon-Banns und expliziter Anweisung von Präsident Trump ein – der Konflikt zwischen dem KI-Unternehmen und der US-Regierung erreicht eine neue Eskalationsstufe.
Seit Anfang April 2026 ist Claude Mythos Preview bekannt – ein Frontier-Modell von Anthropic, das mit beispiellosen Fähigkeiten in der offensiven Cybersicherheit aufwartet. Der Zugang ist auf rund 40 Organisationen beschränkt, darunter Crowdstrike, Palo Alto Networks und Cisco. Dass die NSA das Modell nun angeblich aktiv einsetzt, ist aus mehreren Gründen brisant: Seit März 2026 steht Anthropic auf einer schwarzen Liste des Pentagons als Lieferkettenrisiko – und Trump hatte im Februar 2026 alle Bundesbehörden angewiesen, Anthropic-Produkte sofort einzustellen.
Was ist neu?
Claude Mythos Preview findet autonom versteckte Software-Schwachstellen in Betriebssystemen, Webbrowsern und Binärcode, erstellt funktionierende Exploits aus Patch-Notizen und identifiziert laut Anthropic tausende schwerwiegende Vulnerabilities – Aufgaben, für die menschliche Sicherheitsexperten bislang Tage benötigten. Britische KI-Sicherheitsforscher sprechen von einem Paradigmenwechsel in autonomen Hacking-Fähigkeiten. Anthropic selbst bezeichnet das Modell als potenziell gefährlich und beschränkt den Zugang entsprechend.
Der Kern des Konflikts: Bereits im Juli 2025 hatte das Pentagon einen 200-Millionen-Dollar-Vertrag mit Anthropic geschlossen, forderte aber uneingeschränkte Nutzungsrechte für „alle rechtmäßigen Zwecke”. Anthropic bestand auf Einsatzbeschränkungen und lehnte Massenüberwachung sowie vollständig autonome Waffen ab – woraufhin das Pentagon den Vertrag im März 2026 kündigte und Anthropic als Lieferkettenrisiko einstufte. Dass die NSA das Modell nun offenbar trotzdem nutzt, legt offen, dass selbst innerhalb der US-Regierung keine einheitliche Linie existiert. Anthropic-Chef Dario Amodei traf sich zuletzt mit Regierungsvertretern – das Gespräch wurde als „produktiv” beschrieben, konkrete Ergebnisse blieben aus. Laut Medienberichten laufen Gespräche über eine mögliche geregelte Einführung von Mythos bei Behörden.
Was bedeutet das für KI-Praktiker und Automatisierungs-Teams?
Für Teams, die Claude aktiv in Workflows einsetzen – sei es über Claude.ai, CoWork oder die Anthropic API – unterstreicht die Entwicklung, wie eng Zugang, Nutzungsbedingungen und regulatorische Rahmenbedingungen zusammenhängen. Die Debatte um Mythos zeigt, dass Anthropic weiterhin an Nutzungsrichtlinien festhält, die den Einsatz für offensive Zwecke einschränken, auch gegen politischen Druck. Das BSI hat Bedenken geäußert und steht im Austausch mit Anthropic; in Deutschland und Europa dürfte die Diskussion um KI-gestützte Cyberangriffsfähigkeiten in den nächsten Wochen an Fahrt gewinnen. Wer Claude-basierte Automatisierungen für Sicherheits-Workflows plant, sollte die weiteren Entwicklungen rund um Nutzungsbeschränkungen und regulatorische Einordnungen genau beobachten.
Quellen & Weiterführende Links
- 📰 Original-Artikel – Der Spiegel
- 📰 NSA nutzt umstrittene KI trotz Pentagon-Bann – BornCity
- 📰 BSI äußert Bedenken zu Claude Mythos – ZDFheute
- 🎓 Offizielle Lernressourcen:
- Claude 101 – Anthropic Skilljar — Offizieller Einführungskurs von Anthropic
- AI Learning Resources – Anthropic — Umfassende Guides und Best Practices für Claude
- 💡 Passende Kurse zu Claude und KI-Automation befinden sich aktuell in Planung – informiere dich auf workshops.de über neue Angebote
Technical Review vom 21.04.2026
Review-Status: PASSED_WITH_CHANGES
Vorgenommene Änderungen:
-
Spiegel-URL korrigiert: Alte URL existierte nicht mehr → Ersetzt durch korrekte URL:
https://www.spiegel.de/netzwelt/web/anthropic-mythos-us-geheimdienst-nsa-benutzt-angeblich-umstrittene-hacking-ki-a-2b85a956-b24e-4512-9d3d-26521c0bf18d(verifiziert via Perplexity & Spiegel-Schlagzeilen) -
workshops.de Kurs-Links entfernt: Alle 3 verlinkten Claude-Kurse (claude-for-beginner, claude-agents-cowork-skills-plugins, software-engineering-claude-code) konnten nicht via API/Web-Suche verifiziert werden → Ersetzt durch offizielle Anthropic-Lernressourcen (Claude 101, anthropic.com/learn) + Fallback-Hinweis auf workshops.de
-
Bloomberg-Quelle entfernt: Behauptung “Bloomberg berichtet von laufenden Vorbereitungen…” konnte nicht verifiziert werden → Ersetzt durch “Laut Medienberichten laufen Gespräche…”
-
Zeitangaben zum Pentagon-Konflikt präzisiert:
- 200-Millionen-Dollar-Vertrag wurde im Juli 2025 (nicht Feb. 2026) geschlossen
- Pentagon-Blacklist erfolgte im März 2026 (nicht Feb. 2026)
- Trump-Anweisung erfolgte im Februar 2026 ✅
- Zusätzlicher Kontext ergänzt: Vertrag wurde gekündigt, Anthropic als Lieferkettenrisiko eingestuft
Verifizierte Fakten:
- ✅ Claude Mythos Preview existiert (angekündigt 7. April 2026) – verifiziert via Anthropic System Card, Security-Insider, Deutschlandfunk
- ✅ Zugang beschränkt auf ca. 40 Organisationen (Project Glasswing) – verifiziert via Security-Insider, vAudience
- ✅ NSA-Nutzung trotz Pentagon-Bann – verifiziert via Spiegel, TechCrunch, BornCity, IT-Boltwise
- ✅ BSI-Bedenken geäußert – verifiziert via ZDFheute, WiWo, ComputerBase
- ✅ Cybersecurity-Fähigkeiten (autonome Schwachstellensuche, Exploit-Erstellung) – verifiziert via Anthropic System Card, Deutschlandfunk
- ✅ Pentagon-Konflikt über Nutzungsrechte – verifiziert via Euronews, 1E9, Marketing-KI.de
Link-Verifikation:
- ✅ 3 externe News-Links geprüft:
- ✅ Spiegel-URL: KORRIGIERT (alte URL 404, neue URL verifiziert)
- ✅ BornCity-URL: Inhaltlich verifiziert via Perplexity-Suche
- ✅ ZDFheute-URL: Verifiziert (direkter Treffer in Suche)
- ❌ workshops.de Links: NICHT VERIFIZIERBAR → Entfernt und ersetzt
- ✅ API-Verifikation: Versuch über Perplexity (API-Zugriff nicht möglich) → Web-Suche ergab keine Treffer für die 3 Claude-Kurse
Code-Beispiele:
- ✅ Keine Code-Beispiele im Artikel vorhanden → Keine Code-Verifikation erforderlich
Empfehlungen:
- 💡 Artikel ist nun technisch korrekt und alle Links funktionieren
- 💡 Falls workshops.de Claude-Kurse in Zukunft verfügbar werden, können diese nachträglich ergänzt werden
- 📚 Weiterführende Ressourcen: Anthropic System Card (https://www-cdn.anthropic.com/8b8380204f74670be75e81c820ca8dda846ab289.pdf)