Technology

NSA nutzt Claude Mythos Preview – Streit mit Anthropic eskaliert

NSA nutzt Claude Mythos Preview – Streit mit Anthropic eskaliert

Robin Böhm
8. Mai 2026
5 min read
#AI #Automation #Technology
🤖

KI-generierter Artikel. Dieser Artikel wurde mit Hilfe von KI erstellt. Es können Fehler auftreten – bitte verifiziere wichtige Informationen.

NSA nutzt Claude Mythos Preview – Streit mit Anthropic eskaliert

TL;DR: Die NSA setzt Anthropics neues KI-Modell Claude Mythos Preview trotz eines Pentagon-Banns und expliziter Anweisung von Präsident Trump ein – der Konflikt zwischen dem KI-Unternehmen und der US-Regierung erreicht eine neue Eskalationsstufe.

Seit Anfang April 2026 ist Claude Mythos Preview bekannt – ein Frontier-Modell von Anthropic, das mit beispiellosen Fähigkeiten in der offensiven Cybersicherheit aufwartet. Der Zugang ist auf rund 40 Organisationen beschränkt, darunter Crowdstrike, Palo Alto Networks und Cisco. Dass die NSA das Modell nun angeblich aktiv einsetzt, ist aus mehreren Gründen brisant: Seit März 2026 steht Anthropic auf einer schwarzen Liste des Pentagons als Lieferkettenrisiko – und Trump hatte im Februar 2026 alle Bundesbehörden angewiesen, Anthropic-Produkte sofort einzustellen.

Was ist neu?

Claude Mythos Preview findet autonom versteckte Software-Schwachstellen in Betriebssystemen, Webbrowsern und Binärcode, erstellt funktionierende Exploits aus Patch-Notizen und identifiziert laut Anthropic tausende schwerwiegende Vulnerabilities – Aufgaben, für die menschliche Sicherheitsexperten bislang Tage benötigten. Britische KI-Sicherheitsforscher sprechen von einem Paradigmenwechsel in autonomen Hacking-Fähigkeiten. Anthropic selbst bezeichnet das Modell als potenziell gefährlich und beschränkt den Zugang entsprechend.

Der Kern des Konflikts: Bereits im Juli 2025 hatte das Pentagon einen 200-Millionen-Dollar-Vertrag mit Anthropic geschlossen, forderte aber uneingeschränkte Nutzungsrechte für „alle rechtmäßigen Zwecke”. Anthropic bestand auf Einsatzbeschränkungen und lehnte Massenüberwachung sowie vollständig autonome Waffen ab – woraufhin das Pentagon den Vertrag im März 2026 kündigte und Anthropic als Lieferkettenrisiko einstufte. Dass die NSA das Modell nun offenbar trotzdem nutzt, legt offen, dass selbst innerhalb der US-Regierung keine einheitliche Linie existiert. Anthropic-Chef Dario Amodei traf sich zuletzt mit Regierungsvertretern – das Gespräch wurde als „produktiv” beschrieben, konkrete Ergebnisse blieben aus. Laut Medienberichten laufen Gespräche über eine mögliche geregelte Einführung von Mythos bei Behörden.

Was bedeutet das für KI-Praktiker und Automatisierungs-Teams?

Für Teams, die Claude aktiv in Workflows einsetzen – sei es über Claude.ai, CoWork oder die Anthropic API – unterstreicht die Entwicklung, wie eng Zugang, Nutzungsbedingungen und regulatorische Rahmenbedingungen zusammenhängen. Die Debatte um Mythos zeigt, dass Anthropic weiterhin an Nutzungsrichtlinien festhält, die den Einsatz für offensive Zwecke einschränken, auch gegen politischen Druck. Das BSI hat Bedenken geäußert und steht im Austausch mit Anthropic; in Deutschland und Europa dürfte die Diskussion um KI-gestützte Cyberangriffsfähigkeiten in den nächsten Wochen an Fahrt gewinnen. Wer Claude-basierte Automatisierungen für Sicherheits-Workflows plant, sollte die weiteren Entwicklungen rund um Nutzungsbeschränkungen und regulatorische Einordnungen genau beobachten.


Technical Review vom 21.04.2026

Review-Status: PASSED_WITH_CHANGES

Vorgenommene Änderungen:

  1. Spiegel-URL korrigiert: Alte URL existierte nicht mehr → Ersetzt durch korrekte URL: https://www.spiegel.de/netzwelt/web/anthropic-mythos-us-geheimdienst-nsa-benutzt-angeblich-umstrittene-hacking-ki-a-2b85a956-b24e-4512-9d3d-26521c0bf18d (verifiziert via Perplexity & Spiegel-Schlagzeilen)

  2. workshops.de Kurs-Links entfernt: Alle 3 verlinkten Claude-Kurse (claude-for-beginner, claude-agents-cowork-skills-plugins, software-engineering-claude-code) konnten nicht via API/Web-Suche verifiziert werden → Ersetzt durch offizielle Anthropic-Lernressourcen (Claude 101, anthropic.com/learn) + Fallback-Hinweis auf workshops.de

  3. Bloomberg-Quelle entfernt: Behauptung “Bloomberg berichtet von laufenden Vorbereitungen…” konnte nicht verifiziert werden → Ersetzt durch “Laut Medienberichten laufen Gespräche…”

  4. Zeitangaben zum Pentagon-Konflikt präzisiert:

    • 200-Millionen-Dollar-Vertrag wurde im Juli 2025 (nicht Feb. 2026) geschlossen
    • Pentagon-Blacklist erfolgte im März 2026 (nicht Feb. 2026)
    • Trump-Anweisung erfolgte im Februar 2026
    • Zusätzlicher Kontext ergänzt: Vertrag wurde gekündigt, Anthropic als Lieferkettenrisiko eingestuft

Verifizierte Fakten:

  • ✅ Claude Mythos Preview existiert (angekündigt 7. April 2026) – verifiziert via Anthropic System Card, Security-Insider, Deutschlandfunk
  • ✅ Zugang beschränkt auf ca. 40 Organisationen (Project Glasswing) – verifiziert via Security-Insider, vAudience
  • ✅ NSA-Nutzung trotz Pentagon-Bann – verifiziert via Spiegel, TechCrunch, BornCity, IT-Boltwise
  • ✅ BSI-Bedenken geäußert – verifiziert via ZDFheute, WiWo, ComputerBase
  • ✅ Cybersecurity-Fähigkeiten (autonome Schwachstellensuche, Exploit-Erstellung) – verifiziert via Anthropic System Card, Deutschlandfunk
  • ✅ Pentagon-Konflikt über Nutzungsrechte – verifiziert via Euronews, 1E9, Marketing-KI.de
  • 3 externe News-Links geprüft:
    • ✅ Spiegel-URL: KORRIGIERT (alte URL 404, neue URL verifiziert)
    • ✅ BornCity-URL: Inhaltlich verifiziert via Perplexity-Suche
    • ✅ ZDFheute-URL: Verifiziert (direkter Treffer in Suche)
  • workshops.de Links: NICHT VERIFIZIERBAR → Entfernt und ersetzt
  • API-Verifikation: Versuch über Perplexity (API-Zugriff nicht möglich) → Web-Suche ergab keine Treffer für die 3 Claude-Kurse

Code-Beispiele:

  • ✅ Keine Code-Beispiele im Artikel vorhanden → Keine Code-Verifikation erforderlich

Empfehlungen:

Reviewed by: Technical Review Agent
Verification Sources: Perplexity AI (Spiegel, TechCrunch, ZDFheute, Euronews, Security-Insider, BornCity, IT-Boltwise, WiWo, ComputerBase, 1E9, Marketing-KI.de, Anthropic Skilljar, Anthropic Learn)
Confidence Level: HIGH

workshops.de Powered by workshops.de

Bereit, KI professionell einzusetzen?

Entdecke unsere strukturierten Lernpfade – von n8n-Automatisierung über Claude AI Engineering bis Microsoft 365 Copilot.

Geschrieben von Robin Böhm am 8. Mai 2026