TL;DR: Weltweit wurden bis April 2026 über 1.300 Gerichtsverfahren wegen KI-halluzinierter Rechtsdokumente registriert – mit Sanktionen bis über 100.000 USD. Wer LLM-Outputs ungeprüft in professionelle Kontexte einbringt, trägt das Haftungsrisiko persönlich.
Der US-Radiosender NPR berichtete Anfang April 2026 über eine Entwicklung, die für alle relevant ist, die KI-generierte Texte in rechtlich relevanten Workflows einsetzen: Anwälte reichen Schriftsätze ein, die von KI-Tools fabrizierte Gerichtsurteile, erfundene Fundstellen und falsch wiedergegebene Entscheidungen enthalten – und die Justiz reagiert zunehmend scharf. Damien Charlotin, Rechtswissenschaftler an der HEC Paris, betreibt eine Datenbank, die weltweit solche Fälle erfasst. Stand April 2026: mehr als 1.300 Verfahren, allein 800 davon in den USA.
Was ist neu?
Die Menge der Fälle hat sich laut Charlotin seit 2025 erheblich beschleunigt – an einem einzigen Tag wurden zuletzt zehn Fälle an zehn verschiedenen US-Gerichten bekannt. Gleichzeitig steigen die Konsequenzen: Ein US-Bundesgericht in Oregon verhängte vergangenen Monat Sanktionen von insgesamt über 100.000 USD gegen einen Anwalt, der Dokumente mit KI-generierten Fehlern eingereicht hatte. Einige US-Gerichte reagieren bereits mit formellen Kennzeichnungspflichten: Jedes Dokument, das mit KI erstellt oder bearbeitet wurde, muss explizit als solches deklariert werden, damit Gerichte gezielt auf Halluzinationen prüfen können. Da KI mittlerweile in Standard-Kanzleisoftware integriert ist, wäre nach Einschätzung eines von NPR zitierten Anwalts faktisch nahezu jedes Dokument kennzeichnungspflichtig – was die Praktikabilität dieser Regelung in Frage stellt.
Das Problem ist struktureller Natur: Das anglo-amerikanische Fallrecht stützt sich wesentlich auf Präzedenzfälle. Zitiert ein LLM ein nicht existierendes Urteil und der Anwalt prüft es nicht, bricht die gesamte Argumentation zusammen – mit direkten Folgen für die einreichende Person.
Was bedeutet das für AI-Practitioner?
Das verändert konkret, wie Workflows mit LLM-Outputs in professionellen Kontexten gebaut werden müssen. Wer Automatisierungen entwickelt, die KI-generierte Texte in rechtliche, compliance-relevante oder öffentlich eingereichte Dokumente überführen – etwa via n8n, Make oder Claude in Kombination mit Kanzleisoftware – trägt Mitverantwortung dafür, dass Verifikationsschritte fest in den Prozess eingebaut sind. Das gilt nicht nur für Anwälte: Die Haftungsfrage greift immer dort, wo ein Mensch seinen Namen unter ein Dokument setzt, das ein LLM (mit-)erstellt hat, ohne dass die Outputs faktisch überprüft wurden. Halluzinationen sind kein Edge Case – sie sind ein bekanntes, systemisches Verhalten aktueller Sprachmodelle. Professionelle Automatisierungen brauchen daher obligatorische Review-Gates, keine optionalen.
Quellen & Weiterführende Links
- 📰 Original-Artikel: KI-Halluzinationen vor Gericht (heise online)
- 📚 Datenbank von Damien Charlotin (HEC Paris): weltweite Verfahren
- 📰 NPR-Originalbericht: Penalties stack up as AI spreads through the legal system
- 🎓 Workshops & Kurse:
- KI Software Engineer: Modul 1 – Language Models, Agents, Workflows — LLMs verstehen, Prompt-Engineering, Agentic Workflows
- n8n: Modul 1 – Automatisierung mit KI-Agenten — KI-Agenten in professionellen Workflows
- KI und Datenschutz — Rechtliche Grundlagen beim KI-Einsatz