Die künstliche Intelligenz ChatGPT macht den Alltag von vielen Menschen einfacher. Doch bei einem Anwalt aus New York ist die Sache jetzt nach hinten losgegangen. Denn er nutzte das Programm für einen wichtigen Fall, den er vor Gericht vorbrachte. Dabei ging allerdings so einiges schief.

Die KI hat zahlreiche Präzedenzfälle erfunden, die der Anwalt vor der Verhandlung offenbar nicht auf deren Wahrheitsgehalt geprüft hat.

ChatGPT blamiert Anwalt vor Gericht

Für viele ist ChatGPT mittlerweile zu einem unverzichtbaren Tool geworden. Sei es zu Recherchezwecken oder zum Verfassen von bestimmten Texten. Das wollte sich auch ein Anwalt aus New York zunutze machen. Er vertrat einen Mandanten, der eine Airline verklagt, da er angeblich von einem Servierwagen am Knie verletzt wurde. Um den Fall zu gewinnen, suchte der Jurist schließlich mithilfe der KI nach Präzedenzfällen, die den Richter überzeugen sollten. Und siehe da: der Chatbot spuckte tatsächlich mehrere Fälle aus, die scheinbar genau die gleiche Thematik hatten.

Die Verweise hatten sogar Namen wie „Petersen gegen Iran Air“ oder „Martinez gegen Delta Airlines“. Der Anwalt stellte dem Bot zur Absicherung noch die Frage, ob diese Fälle alle real wären und tatsächlich so stattgefunden hätten. Die Antwort von ChatGPT: „Ja“. Also zog er mit ausreichend Material vor Gericht und gab das Recherchierte selbstbewusst zum Besten. Einziges Problem dabei: Keinen einzigen dieser Fälle samt Urteile gab es in Wirklichkeit. Wie es scheint, hat die KI alles frei erfunden und sich die Informationen von zahlreichen anderen Gerichtsverhandlungen zusammengesponnen.

Spott und Häme in der Branche

Laut New York Times galt der Anwalt eigentlich als sehr erfahren – schließlich arbeitete er bereits seit mehr als drei Jahrzehnten erfolgreich vor Gericht. Dass gerade ihm ein derartiges Malheur passiert, sorgt in der Branche für mächtig Spott. Vor allem auf Twitter wird die Leichtgläubigkeit des Juristen aktuell aufs Korn genommen. Doch die Aktion könnte nun auch berufliche Konsequenzen haben. Denn laut der New Yorker Zeitung hat der zuständige Richter Anfang Juni eine Anhörung angesetzt, bei der es rein nur um mögliche Folgen für den Anwalt geht.

In den USA sei es möglich, in Datenbanken einzusehen und Urteile miteinander zu vergleichen. Demnach hätten sich auch die Fälle, die von ChatGPT „recherchiert“ wurden, dort befinden müssen. Der Anwalt hätte also auch eine Möglichkeit gehabt, alles zu überprüfen, bevor er damit vor den Richter trat. Er selbst schwört allerdings unter Eid, dass er das Gericht mit den frei erfundenen Gerichtsverhandlungen nicht habe täuschen wollen.

Achtung vor Falsch-Informationen

Auch wenn ChatGPT einige Aufgaben gut beherrscht, ist dennoch Vorsicht geboten! Denn nicht alles, was sich die künstliche Intelligenz zusammenspinnt, hat auch seine Richtigkeit. Dadurch, dass sämtliche Daten, mit denen das Programm gefüttert wurde, nicht weiter als bis September 2021 zurückgehen, ist die Verbreitung von falschen Informationen hier vorprogrammiert. Solltet ihr die KI also für wichtige Tasks im Alltag nutzen – unbedingt alles gegenchecken. Vor allem Zitate und Fakten können hier anfällig für Fehler sein.