In den USA ist ein Anwalt aufgeflogen, der seine Klageschrift offenbar mit Hilfe von ChatGPT erstellt hat. Dazu muss man wissen, dass das amerikanische Zivilrecht auf Präzedenzfällen beruht (Case Law). Die Kunst eines amerikanischen Anwalts besteht u.a. darin, den Fall zu finden, der eine möglichst große Ähnlichkeit zwischen Sachverhalt und Wunschergebnis aufweist.

In Deutschland sind die Gerichte in der Theorie zwar nicht an Präjudizien gebunden, in der Praxis jedoch schon. Die Instanzgerichte entscheiden Fälle grundsätzlich wie die Obergerichte ihres entsprechenden Gerichtsbezirks. So gehen die Richter sicher, dass ihre Entscheidungen höchstwahrscheinlich nicht kassiert werden. Wenn die Dezernatsfälle reibungslos abgearbeitet wurden, gibt es ein Häkchen in der Personalakte in der Rubrik „Zuverlässigkeit“.

Die Entscheidungen der Gerichte werden bei uns in elektronischen Datenbanken gespeichert und vereinzelt auch in Fachzeitschriften veröffentlicht. Dies wiederum ermöglicht, dass Anwälte die Entscheidungen der Gerichte mit hinreichender Sicherheit prognostizieren können, sofern sie ihre Hausaufgaben machen. Das Beste, was einem Anwalt passieren kann, ist, dass er beim BGH abschreiben kann. Das macht er jedoch nicht mit ChatGPT, sondern mit Cut&Paste unter Angabe der Quelle. Diese Quelle hebt er idealerweise so stark hervor, dass sie nicht mehr zu übersehen ist. Kritisch wird es hingegen, wenn Anwälte keine Urteile zitieren, sondern die Privatmeinung irgendwelcher Professoren, die sie in der Literatur gefunden haben. Das heißt übersetzt, dass sie vermutlich eine sog. „Mindermeinung“ vertreten und damit höchstwahrscheinlich vor Gericht unterliegen.

Das Problem des amerikanischen Kollegen besteht nicht darin, dass er „unerlaubte Hilfsmittel“ verwendet hat, denn wie er seine Klageschrift formuliert, ist seine Sache, sondern, dass er die Urteilszitate der KI nicht geprüft hat. Das ist pure Schlampigkeit, die selbstverständlich die Anwaltshaftung auslöst.

Im deutschen Rechtsraum dürfte ChatGPT bei Klageschriften keine Anwendung finden, weil die Struktur der Schriftsätze dies auch nicht erfordert. Den Sachverhalt kann eine KI nicht schildern, weil sie ihn nicht kennt und zumindest bislang auch nicht zwischen erheblichem und unerheblichem Vorbringen unterscheiden kann. Für die Rechtsausführungen, die sich im Regelfall aufgrund der Trivialität von Alltagsfällen erübrigen, braucht man sie nicht. KI kann allenfalls zur Urteilsrecherche in den juristischen Datenbanken eingesetzt werden, was jedoch aufgrund fehlender Schnittstellen aktuell nicht möglich ist.