Technology

LLM-Outputs vor Gericht: Was AI-Practitioner jetzt wissen müssen

LLM-Outputs vor Gericht: Was AI-Practitioner jetzt wissen müssen

Robin Böhm
22. April 2026
5 min read
#AI #Automation #Technology
🤖

KI-generierter Artikel. Dieser Artikel wurde mit Hilfe von KI erstellt. Es können Fehler auftreten – bitte verifiziere wichtige Informationen.

LLM-Outputs vor Gericht: Was AI-Practitioner jetzt wissen müssen

TL;DR: Weltweit wurden bis April 2026 über 1.300 Gerichtsverfahren wegen KI-halluzinierter Rechtsdokumente registriert – mit Sanktionen bis über 100.000 USD. Wer LLM-Outputs ungeprüft in professionelle Kontexte einbringt, trägt das Haftungsrisiko persönlich.

Der US-Radiosender NPR berichtete Anfang April 2026 über eine Entwicklung, die für alle relevant ist, die KI-generierte Texte in rechtlich relevanten Workflows einsetzen: Anwälte reichen Schriftsätze ein, die von KI-Tools fabrizierte Gerichtsurteile, erfundene Fundstellen und falsch wiedergegebene Entscheidungen enthalten – und die Justiz reagiert zunehmend scharf. Damien Charlotin, Rechtswissenschaftler an der HEC Paris, betreibt eine Datenbank, die weltweit solche Fälle erfasst. Stand April 2026: mehr als 1.300 Verfahren, allein 800 davon in den USA.

Was ist neu?

Die Menge der Fälle hat sich laut Charlotin seit 2025 erheblich beschleunigt – an einem einzigen Tag wurden zuletzt zehn Fälle an zehn verschiedenen US-Gerichten bekannt. Gleichzeitig steigen die Konsequenzen: Ein US-Bundesgericht in Oregon verhängte vergangenen Monat Sanktionen von insgesamt über 100.000 USD gegen einen Anwalt, der Dokumente mit KI-generierten Fehlern eingereicht hatte. Einige US-Gerichte reagieren bereits mit formellen Kennzeichnungspflichten: Jedes Dokument, das mit KI erstellt oder bearbeitet wurde, muss explizit als solches deklariert werden, damit Gerichte gezielt auf Halluzinationen prüfen können. Da KI mittlerweile in Standard-Kanzleisoftware integriert ist, wäre nach Einschätzung eines von NPR zitierten Anwalts faktisch nahezu jedes Dokument kennzeichnungspflichtig – was die Praktikabilität dieser Regelung in Frage stellt.

Das Problem ist struktureller Natur: Das anglo-amerikanische Fallrecht stützt sich wesentlich auf Präzedenzfälle. Zitiert ein LLM ein nicht existierendes Urteil und der Anwalt prüft es nicht, bricht die gesamte Argumentation zusammen – mit direkten Folgen für die einreichende Person.

Was bedeutet das für AI-Practitioner?

Das verändert konkret, wie Workflows mit LLM-Outputs in professionellen Kontexten gebaut werden müssen. Wer Automatisierungen entwickelt, die KI-generierte Texte in rechtliche, compliance-relevante oder öffentlich eingereichte Dokumente überführen – etwa via n8n, Make oder Claude in Kombination mit Kanzleisoftware – trägt Mitverantwortung dafür, dass Verifikationsschritte fest in den Prozess eingebaut sind. Das gilt nicht nur für Anwälte: Die Haftungsfrage greift immer dort, wo ein Mensch seinen Namen unter ein Dokument setzt, das ein LLM (mit-)erstellt hat, ohne dass die Outputs faktisch überprüft wurden. Halluzinationen sind kein Edge Case – sie sind ein bekanntes, systemisches Verhalten aktueller Sprachmodelle. Professionelle Automatisierungen brauchen daher obligatorische Review-Gates, keine optionalen.

workshops.de Powered by workshops.de

Bereit, KI professionell einzusetzen?

Entdecke unsere strukturierten Lernpfade – von n8n-Automatisierung über Claude AI Engineering bis Microsoft 365 Copilot.

Direkt auf Telegram folgen

Neue KI-News, Tools und Erkenntnisse — direkt in deinem Telegram-Feed. Schnell, ungefiltert, relevant.

@AINewsAufDeutsch beitreten

Geschrieben von Robin Böhm am 22. April 2026