ChatGPT Chatbot Fabrizierte Rechtsfälle, die rechtlichen Debatten auslösen

ChatGPT Chatbot Fabrizierte Rechtsfälle, die rechtlichen Debatten auslösen

In den letzten Monaten wurde viel darüber gesprochen, wie die neue Welle KI-gestützter Chatbots, darunter auch ChatGPT, zahlreiche Branchen, darunter auch die Rechtsbranche, auf den Kopf stellen könnte.

Doch wenn man sich die jüngsten Ereignisse in einem Fall in New York ansieht, scheint es, als könnte es noch eine Weile dauern, bis hochqualifizierte Anwälte von der Technologie verdrängt werden.

Die bizarre Episode begann, als Roberto Mata eine kolumbianische Fluggesellschaft verklagte, nachdem er behauptet hatte, er habe auf einem Flug nach New York City eine Verletzung erlitten.

Die Fluggesellschaft Avianca bat den Richter, die Klage abzuweisen, woraufhin Matas Anwaltsteam ein Schreiben verfasste, in dem es ein halbes Dutzend ähnlicher Fälle zitierte, um den Richter davon zu überzeugen, den Fall ihres Mandanten weiter zu verfolgen. die New York Times gemeldet.

Das Problem war, dass die Anwälte der Fluggesellschaft und der Richter keine Beweise für die im Schriftsatz genannten Fälle finden konnten. Warum? Weil ChatGPT sie alle erfunden hatte.

Der Autor des Schriftsatzes, Steven A. Schwartz – ein sehr erfahrener Anwalt der Kanzlei Levidow, Levidow & Oberman – gab in einer eidesstattlichen Erklärung zu, dass er den vielgerühmten Chatbot ChatGPT von OpenAI zur Suche nach ähnlichen Fällen verwendet habe, sagte jedoch, dass sich dieser „als unzuverlässig erwiesen“ habe.

Schwartz sagte dem Richter, er habe ChatGPT zuvor nicht verwendet und sei sich „deshalb der Möglichkeit nicht bewusst gewesen, dass dessen Inhalt falsch sein könnte“.

Beim Verfassen des Briefes bat Schwartz ChatGPT sogar um die Bestätigung, dass die Fälle tatsächlich stattgefunden haben. Der stets hilfsbereite Chatbot bejahte dies und sagte, dass Informationen über sie in „seriösen juristischen Datenbanken“ zu finden seien.

Der Anwalt, um den es im Zentrum des Sturms ging, sagte, er „bedauere zutiefst“, ChatGPT zur Erstellung des Schriftsatzes verwendet zu haben, und beharrte darauf, dass er dies „in Zukunft nie wieder tun werde, ohne die Echtheit des Schriftsatzes absolut überprüft zu haben“.

Angesichts dessen, was er als eine Klageschrift bezeichnete, die voller „falscher Gerichtsentscheidungen mit falschen Zitaten und falschen internen Verweisen“ sei und die Situation als beispiellos beschrieb, ordnete Richter Castel für Anfang nächsten Monats eine Anhörung an, um über mögliche Strafen zu beraten.

ChatGPT und andere Chatbots dieser Art sind zwar beeindruckend in der Art und Weise, wie sie fließende Texte in hoher Qualität produzieren, aber sie sind auch dafür bekannt, Dinge zu erfinden und sie so zu präsentieren, als wären sie real – etwas, das Schwartz zu seinem Leidwesen erfahren musste. Das Phänomen ist als „Halluzination“ bekannt und stellt eine der größten Herausforderungen für die menschlichen Entwickler hinter den Chatbots dar, wenn sie versuchen, diese sehr problematische Falte auszubügeln.

Verwandt :  Die 6 wichtigsten Möglichkeiten, das Problem zu beheben, dass das Microsoft Teams-Besprechungs-Add-in in Outlook für Windows nicht angezeigt wird

In einem weiteren aktuellen Beispiel für ein generatives KI-Tool halluziniert ein Australischer Bürgermeister beschuldigt ChatGPT Lügen über ihn zu verbreiten, darunter auch, dass er vor über einem Jahrzehnt während seiner Tätigkeit bei einer Bank wegen Bestechung im Gefängnis saß.

Der Bürgermeister, Brian Hood, war in dem Fall tatsächlich als Informant tätig gewesen und wurde nie eines Verbrechens angeklagt. Daher war er ziemlich verärgert, als die Leute begannen, ihn über die Umschreibung der Geschichte durch den Chatbot zu informieren.

Moyens I/O-Personal. motivierte Sie und gab Ratschläge zu Technologie, persönlicher Entwicklung, Lebensstil und Strategien, die Ihnen helfen werden.