Microsofts Bing Chat ist in einem viel besseren Zustand als bei seiner Veröffentlichung im Februar, aber es ist schwer, die Probleme zu übersehen, die der GPT-4-basierte Chatbot bei seiner Veröffentlichung hatte. Er sagte uns, er wolle schließlich menschlich sein, und brach oft in wirre Antworten aus. Und laut einem neuen Bericht wurde Microsoft vor solchen Antworten gewarnt und entschied sich trotzdem, Bing Chat zu veröffentlichen.
Entsprechend das Wall Street JournalOpenAI, das Unternehmen hinter ChatGPT und dem GPT-4-Modell, das Bing Chat antreibt, warnte Microsoft vor der Integration seines frühen KI-Modells in Bing Chat. Insbesondere wies OpenAI auf „ungenaue oder bizarre“ Antworten hin, die Microsoft offenbar ignorierte.
Der Bericht beschreibt eine einzigartige Spannung zwischen OpenAI und Microsoft, die in den letzten Jahren eine Art offene Partnerschaft eingegangen sind. Die Modelle von OpenAI basieren auf Microsoft-Hardware (einschließlich Tausender Nvidia-GPUs), und Microsoft nutzt die Technologie des Unternehmens für Bing, Microsoft Office und Windows selbst. Anfang 2023 investierte Microsoft sogar 10 Milliarden US-Dollar in OpenAI und kam damit nur knapp dem vollständigen Kauf des Unternehmens nahe.
Trotzdem behauptet der Bericht, dass Microsoft-Mitarbeiter Probleme mit dem eingeschränkten Zugriff auf die Modelle von OpenAI hätten und dass sie besorgt seien, dass ChatGPT den von KI überfluteten Bing Chat in den Schatten stellen könnte. Um die Sache noch schlimmer zu machen, berichtet das Wall Street Journal, dass sowohl OpenAI als auch Microsoft die Technologie von OpenAI verkaufen, was zu Situationen führt, in denen Anbieter mit Kontakten beider Unternehmen zu tun haben.
Das größte Problem ist laut Bericht, dass Microsoft und OpenAI versuchen, mit einem ähnlichen Produkt Geld zu verdienen. Da Microsoft OpenAI zwar unterstützt, aber nicht kontrolliert, kann der ChatGPT-Entwickler Partnerschaften mit anderen Unternehmen eingehen, von denen einige direkt mit den Produkten von Microsoft konkurrieren können.
Nach allem, was wir gesehen haben, waren die Warnungen von OpenAI stichhaltig. Kurz nach der Veröffentlichung von Bing Chat beschränkte Microsoft die Anzahl der Antworten, die Benutzer in einer einzelnen Sitzung erhalten konnten. Und seitdem hat Microsoft diese Beschränkung langsam aufgehoben, während das GPT-4-Modell in Bing Chat verfeinert wurde. Berichten zufolge beziehen sich einige Microsoft-Mitarbeiter häufig auf „Sydney“ und machen sich damit über die frühen Tage von Bing Chat (Codename Sydney) und seine Antworten lustig.