Kommentar mit Quellen aus „beck-aktuell“ und NJW, 8. Juli 2025

Von einer künstlichen Intelligenz überrumpelt zu werden, ist mittlerweile kein Witz mehr – sondern juristischer Alltag. Sie schreibt Schriftsätze, die aussehen wie Schriftsätze, zitiert, was wie Fachliteratur klingt, und haut Fundstellen raus, die so überzeugend wirken, dass niemand merkt: Alles ausgedacht. Doch manchmal eben doch. Und dann kracht es.

Köln, Familiengericht. Ein Schriftsatz, viele Fußnoten, noch mehr Fantasie.

So geschehen in einem Fall vor dem Amtsgericht Köln (Beschluss vom 02.07.2025 – 312 F 130/25), den die Redaktion von beck-aktuell öffentlich gemacht hat. Bis Seite acht läuft alles wie üblich – es geht um das Wechselmodell im Sorgerecht. Dann platzt die juristische KI-Bombe: Das Gericht stellt trocken fest, dass die Fundstellen im Schriftsatz „offenbar mittels künstlicher Intelligenz generiert und frei erfunden“ seien. Zitatende, Realität beginnt.

Die angeblich zitierte Monografie „Brons, Kindeswohl und Elternverantwortung, 2013“? Existiert nicht. Der Autor, dem ein Kommentar im Münchener BGB-Kommentar zugeschrieben wird? Arbeitet woanders. Die Randziffern? Kommen aus einem Paralleluniversum. Eine zitierte Entscheidung aus der FamRZ? Geht plötzlich um Teilerbscheine und Grundbuchberichtigung. Wer’s nicht glaubt: alles dokumentiert in der Beck-Datenbank, öffentlich nachlesbar.

Und was sagt die Gegenseite dazu?
Jetzt wird’s paradox. Der gegnerische Anwalt, Frank Siegburg, berichtet auf LinkedIn, dass er – Zitat – eine bessere KI im Einsatz habe. Nicht etwa: „Ich arbeite noch selbst.“ Nicht: „Ich verlasse mich nicht auf Maschinen.“ Sondern: „Meine KI halluziniert weniger.“ Das klingt ungefähr so, als würde ein Arzt sagen: „Mein Chatbot verschreibt seltener das falsche Medikament.“ Und das in einem Berufsstand, der für sich gern den Begriff „Organ der Rechtspflege“ beansprucht.

Digitale Verantwortungslosigkeit mit Ansage

Dieser Fall zeigt ein größeres Problem. Nicht die KI ist gefährlich – sondern die Art, wie Menschen sie benutzen. Der Schriftsatz war nicht einfach nur schlecht, er war erfunden. Generative Sprachmodelle wie GPT fabrizieren auf Anfrage überzeugende Fakes. Und das wissen die Nutzerinnen und Nutzer. Dass ein Anwalt trotzdem so etwas einreicht, ohne es zu prüfen, ist kein Betriebsunfall – es ist ein Zeichen von Sorglosigkeit, vielleicht sogar von schleichender Verlagerung der Verantwortung: Die Maschine war’s.

Wie beck-aktuell berichtet, wies das Gericht explizit auf den möglichen Berufsrechtsverstoß hin: § 43a Abs. 3 BRAO – Verbreitung von Unwahrheiten – komme in Betracht. Und es bleibt nicht bei der Disziplinarfrage: In den Kommentaren zum Fall diskutieren Jurist:innen auf LinkedIn sogar, ob das bereits ein Fall von (versuchtem) Prozessbetrug sei. Also Vorsatz, Täuschung, Gericht irreführen. Alles möglich, sobald jemand blind auf KI-Fundstellen vertraut.

KI statt Gewissenhaftigkeit – was sagt das Berufsrecht?

Wie ernst das Thema mittlerweile genommen wird, zeigt das Interview der NJW mit Prof. Dr. Matthias Kilian, Direktor des Instituts für Anwaltsrecht der Uni Köln (erschienen am 11.12.2024). Dort betont er: Das Berufsrecht ist technikneutral, aber Verantwortung bleibt beim Anwalt. Ob menschlicher Referendar oder maschinelles Sprachmodell – am Ende zählt nur, was am Gericht ankommt. Die Pflicht zur Kontrolle bleibt. Und der Satz „Ich hab das nur kopiert“ ist keine Entschuldigung, sondern ein Problem.

Interessant ist auch, dass laut Kilian keine Pflicht besteht, den Mandanten über KI-Nutzung zu informieren. Kein Hinweis auf der Rechnung, kein Sternchen im Schriftsatz. Wer heute einen Anwalt beauftragt, kann nicht wissen, ob der Schriftsatz von einem Jura-Studierenden oder von ChatGPT 4.5 Turbo stammt. Und dass sich die Anwaltschaft damit „entkoppelt von Zeit und Wert“ – wie Kilian es formuliert –, ist vielleicht der zynischste Teil an der Sache. Denn Effizienz ersetzt kein Gewissen.

Und jetzt?

Künstliche Intelligenz ist nicht das Problem. Aber der menschliche Umgang damit ist es sehr wohl. Wenn Anwälte Schriftsätze mit erfundenen Fußnoten einreichen und sich gegenseitig KI-Qualitäten um die Ohren hauen wie Teenager auf Reddit, dann hat der Berufsstand ein Glaubwürdigkeitsproblem.

Der Fall vor dem AG Köln ist nicht einfach ein kurioser KI-Fail. Er ist ein Lehrstück über Kontrolle, Verantwortung und eine sehr deutsche Art, mit Digitalisierung umzugehen: Technik geil finden, aber bitte ohne Nachdenken. Der Jurist der Zukunft wird sich entscheiden müssen: Will er Maschine sein oder Mensch? Im Moment sieht es so aus, als wäre ihm das egal – solange die Maschine eloquent genug halluziniert.

Quelle:
Der Beitrag basiert auf der ausführlichen Berichterstattung in beck-aktuell vom 08.07.2025 sowie dem NJW-Interview mit Prof. Dr. Matthias Kilian vom 11.12.2024. Beide erschienen im Verlag C.H. Beck.
Direktlink zum Ausgangsbericht: beck-aktuell.de (Zugriff ggf. nur mit Login).

Teile den Beitrag:

Alle Beiträge kennzeichnen wir hiermit als Werbung. Die Werbekennzeichnung erfolgt, da Marken von Hard- und Software genannt werden. Oftmals werden App-Codes zur Verfügung gestellt sowie Gadgets zum Test. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen. Zudem gehen wir Contentpartnerschaften oder Kooperationen ein. Hilf uns, indem du mit diesem Amazon-Link einkaufst! Lade dir unsere kostenlosen Quiz-Spiele hier herunter!

Hinterlasse eine Antwort