ChatGPT KI-gesteuerte Chatbots haben Probleme mit Halluzinationen: OpenAI arbeitet an Lösungen

ChatGPT KI-gesteuerte Chatbots haben Probleme mit Halluzinationen: OpenAI arbeitet an Lösungen

Trotz aller Aufregung um ChatGPT und ähnliche KI-gestützte Chatbots weisen die textbasierten Tools immer noch einige schwerwiegende Probleme auf, die gelöst werden müssen.

Dazu gehört ihre Tendenz, Dinge zu erfinden und als Tatsache darzustellen, wenn sie die Antwort auf eine Frage nicht kennen. Dieses Phänomen wird als „Halluzination“ bezeichnet. Wie Sie sich vorstellen können, kann es schwerwiegende Folgen haben, jemandem, der einen der neuen, leistungsstarken Chatbots verwendet, Unwahrheiten als Tatsachen zu präsentieren.

Solche Probleme wurden kürzlich bei einem Vorfall deutlich, bei dem ein erfahrener New Yorker Anwalt Fälle anführte – die von ChatGPT vorgeschlagen wurden –, die sich als nie stattgefunden herausstellten. Der Anwalt muss aufgrund seiner Vorgehensweise mit Sanktionen rechnen.

Ein weiterer Vorfall erregte im April große Aufmerksamkeit, als ChatGPT offenbar die Geschichte umschrieb, indem er sagte, ein australischer Bürgermeister war wegen Bestechung im Gefängnis während er für eine Bank arbeitete, obwohl er in dem Fall als Whistleblower auftrat.

Um die Chatbot-Technologie zuverlässiger zu machen, konzentrieren sich die Ingenieure von OpenAI derzeit auf die Verbesserung der Software, um diese problematischen Vorkommnisse zu reduzieren und hoffentlich zu eliminieren, wie sie bekannt gaben.

In einem am Mittwoch veröffentlichten Forschungspapier und aufgegriffen von CNBCOpenAI sagte, dass Chatbots „eine Tendenz aufweisen, in Momenten der Unsicherheit Fakten zu erfinden“, und fügte hinzu: „Diese Halluzinationen sind besonders in Bereichen problematisch, die mehrstufiges Denken erfordern, da ein einziger logischer Fehler ausreicht, um eine viel umfangreichere Lösung zunichte zu machen.“

Um die Fehltritte des Chatbots zu beheben, arbeiten die Ingenieure von OpenAI an Möglichkeiten, wie sich die KI-Modelle selbst belohnen können, wenn sie auf dem Weg zu einer Antwort korrekte Daten ausgeben, anstatt sich erst am Ende zu belohnen. Das System könnte zu besseren Ergebnissen führen, da es mehr eine menschliche Denkkette beinhaltet, so die Ingenieure.

Einige Experten äußerten jedoch Zweifel an der Arbeit und sagten gegenüber CNBC, sie sei von geringem Nutzen, solange sie nicht in ChatGPT integriert sei, das in der Zwischenzeit weiter halluzinieren werde. OpenAI hat nicht gesagt, ob und wann es seine Arbeit in seine generativen KI-Tools integrieren könnte.

Obwohl es gut zu wissen ist, dass OpenAI an der Lösung des Problems arbeitet, könnte es eine Weile dauern, bis wir Verbesserungen sehen. In der Zwischenzeit kann ChatGPT, wie OpenAI selbst sagt, gelegentlich falsche Informationen generieren. Bestätigen Sie daher unbedingt seine Antworten, wenn sie Teil wichtiger Aufgaben sind.

Verwandt :  Nvidia enthüllt Latte3D: Text-to-3D Generative AI Modell – GTC 2024.

Moyens I/O-Personal. motivierte Sie und gab Ratschläge zu Technologie, persönlicher Entwicklung, Lebensstil und Strategien, die Ihnen helfen werden.