Projekt Q: Enthüllung der mysteriösen Durchbrüche von OpenAI

Projekt Q: Enthüllung der mysteriösen Durchbrüche von OpenAI

Im Wirbel der Spekulationen um die plötzliche Entlassung und Wiedereinstellung von OpenAI-CEO Sam Altman gibt es im Kern der Kontroverse ein zentrales Fragezeichen. Warum wurde Altman überhaupt vom Vorstand gefeuert?

Möglicherweise haben wir endlich einen Teil der Antwort, und dieser hat mit dem Umgang mit einem mysteriösen OpenAI-Projekt mit dem internen Codenamen „Q*“ – oder Q Star – zu tun. Die Informationen sind begrenzt, aber hier ist alles, was wir bisher über die potenziell bahnbrechenden Entwicklungen wissen.

Was ist Projekt Q*?

Bevor wir fortfahren, ist anzumerken, dass alle Einzelheiten zu Projekt Q* – einschließlich seiner Existenz – aus einigen neuen Berichten im Anschluss an das Drama um Altmans Entlassung stammen. Reporter bei Reuters sagte am 22. November, dass ihm die Informationen von „zwei mit der Angelegenheit vertrauten Personen“ zugespielt worden seien, und gewährte damit einen Blick hinter die Kulissen der internen Vorgänge in den Wochen vor der Entlassung.

Dem Artikel zufolge handelte es sich bei Project Q* um ein neues Modell, das sich durch herausragende Leistungen beim Erlernen und Ausführen von Mathematik auszeichnete. Berichten zufolge war es zwar noch nicht weit genug fortgeschritten, um Mathematikaufgaben auf Grundschulniveau zu lösen, aber als Ausgangspunkt schien es vielversprechend, eine bisher unbekannte Intelligenz der beteiligten Forscher zu demonstrieren.

Das klingt harmlos, oder? Nun, nicht so schnell. Die Existenz von Q* war angeblich so beängstigend, dass mehrere Forscher des Teams einen Brief an den Vorstand schrieben, um vor dem Projekt zu warnen, da es „die Menschheit bedrohen“ könnte.

Andere Versuche, Q* zu erklären, sind dagegen nicht ganz so neuartig – und sicher nicht so weltbewegend. Der Chef-KI-Wissenschaftler bei Meta, Yann LeCun, getwittert Dieses Q* hat damit zu tun, „autoregressive Token-Vorhersage durch Planung“ zu ersetzen, um die Zuverlässigkeit von LLM (Large Language Model) zu verbessern. Laut LeCun haben alle Konkurrenten von OpenAI daran gearbeitet und OpenAI hat speziell für dieses Problem eine neue Anstellung gefunden.

Bitte ignorieren Sie die Flut an völligem Unsinn über Q*.
Eine der größten Herausforderungen bei der Verbesserung der LLM-Zuverlässigkeit besteht darin, die auto-regressive Token-Vorhersage durch Planung zu ersetzen.

So ziemlich jedes Top-Labor (FAIR, DeepMind, OpenAI usw.) arbeitet daran und einige haben bereits veröffentlicht …

– Yann LeCun (@ylecun) 24. November 2023

LeCuns Punkt scheint nicht zu sein, dass eine solche Entwicklung nicht wichtig ist – sondern dass es sich nicht um eine unbekannte Entwicklung handelt, über die derzeit kein anderer KI-Forscher spricht. In den Antworten auf diesen Tweet reagiert LeCun jedoch abschätzig auf Altman, indem er sagt, er habe eine „lange Geschichte der Selbsttäuschung“ und deutet an, dass die Berichterstattung über Q* ihn nicht davon überzeugt, dass ein bedeutender Fortschritt beim Problem der Planung in erlernten Modellen erzielt wurde.

Verwandt :  Vorstellung SearchGPT: Die ChatGPT-betriebene Suchmaschine erklärt

War Q* wirklich der Grund, warum Sam Altman gefeuert wurde?

Von Beginn der Spekulationen um die Entlassung von Sam Altman an war sein Ansatz zum Thema Sicherheit einer der Hauptverdächtigen. Altman war derjenige, der OpenAI dazu drängte, sich von seinen Wurzeln als gemeinnützige Organisation abzuwenden und sich in Richtung Kommerzialisierung zu bewegen. Dies begann mit der öffentlichen Einführung von ChatGPT und der späteren Einführung von ChatGPT Plus, die beide diese neue Ära der generativen KI einleiteten und Unternehmen wie Google dazu veranlassten, ihre Technologie ebenfalls an die Öffentlichkeit zu bringen.

Die ethischen und sicherheitstechnischen Bedenken hinsichtlich der öffentlichen Verfügbarkeit dieser Technologie waren schon immer vorhanden, trotz aller Aufregung darüber, wie sie die Welt bereits verändert hat. Größere Bedenken hinsichtlich der Geschwindigkeit der Entwicklung der Technologie sind ebenfalls gut dokumentiert, insbesondere beim Sprung von GPT-3.5 auf GPT-4. Einige sind der Meinung, dass sich die Technologie zu schnell entwickelt und es keine ausreichende Regulierung oder Aufsicht gibt. Laut dem Reuters-Bericht wurde „die Kommerzialisierung von Fortschritten, bevor die Konsequenzen verstanden wurden“ als einer der Gründe für Altmans anfängliche Entlassung genannt.

Obwohl wir nicht wissen, ob Altman in dem oben erwähnten Brief zu Q* ausdrücklich erwähnt wurde, wird dieser auch als einer der Gründe für die Entscheidung des Vorstands genannt, Altman zu entlassen – die inzwischen rückgängig gemacht wurde.

Es ist erwähnenswert, dass Altman nur wenige Tage vor seiner Entlassung auf einem KI-Gipfel erwähnte, er sei ein paar Wochen zuvor „im Raum“ gewesen, als eine wichtige „Entdeckungsgrenze“ vorgeschoben wurde. Der Zeitpunkt lässt darauf schließen, dass dies möglicherweise ein Hinweis auf einen Durchbruch bei Q* war, und wenn ja, würde dies bestätigen, dass Altman eng in das Projekt eingebunden war.

Wenn man alles zusammennimmt, scheint es, als ob die Bedenken hinsichtlich der Kommerzialisierung von Anfang an vorhanden waren und sein Umgang mit Q* lediglich der Tropfen war, der das Fass zum Überlaufen brachte. Die Tatsache, dass der Vorstand über die rasante Entwicklung (und vielleicht auch Altmans eigene Einstellung dazu) so besorgt war, dass er seinen Star-CEO entlassen wollte, ist schockierend.

Um einige der Spekulationen zu beenden, Der Rand wurde Berichten zufolge von „einer mit der Angelegenheit vertrauten Person“ mitgeteilt, dass der angebliche Brief über Q* nie beim Vorstand angekommen sei und dass die „Forschungsfortschritte des Unternehmens“ kein Grund für Altmans Entlassung gewesen seien.

Wir müssen warten, bis weitere Berichte ans Licht kommen, bevor wir eine richtige Erklärung für das ganze Drama haben.

Verwandt :  ChatGPT-App funktioniert nicht auf Ihrem iPhone? 9 Lösungen zum Ausprobieren

Ist dies wirklich der Beginn der AGI?

AGI, die Abkürzung für „Artificial General Intelligence“, ist das Ziel von OpenAI von Anfang an. Obwohl der Begriff für verschiedene Menschen unterschiedliche Bedeutungen hat, hat OpenAI AGI immer als „autonome Systeme definiert, die Menschen in den meisten wirtschaftlich wertvollen Aufgaben übertreffen“, wie es im Reuters-Bericht heißt. Nichts in dieser Definition bezieht sich auf „selbstbewusste Systeme“, was häufig mit AGI gemeint ist.

Dennoch scheinen Fortschritte in der KI-Mathematik auf den ersten Blick kein großer Schritt in diese Richtung zu sein. Schließlich helfen uns Computer schon seit Jahrzehnten bei der Mathematik. Aber die Fähigkeiten von Q* sind nicht nur die eines Rechners. Mathekenntnisse zu erlernen erfordert menschliche Logik und Argumentation, und Forscher scheinen zu denken, dass das eine große Sache ist. In Bezug auf Schreiben und Sprache darf ein LLM in seinen Antworten und Reaktionen flexibler sein und oft eine breite Palette von Antworten auf Fragen und Aufforderungen geben. Aber in der Mathematik ist es genau das Gegenteil, wo es oft nur eine einzige richtige Antwort auf ein Problem gibt. Der Reuters-Bericht legt nahe, dass KI-Forscher glauben, dass diese Art von Intelligenz sogar „auf neuartige wissenschaftliche Forschung angewendet werden könnte“.

Offensichtlich scheint sich Q* noch in den Anfängen der Entwicklung zu befinden, aber es scheint der größte Fortschritt zu sein, den wir seit GPT-4 gesehen haben. Wenn man dem Hype Glauben schenken darf, sollte es sicherlich als ein wichtiger Schritt auf dem Weg zur AGI angesehen werden, zumindest wie sie von OpenAI definiert wird. Je nach Ihrer Perspektive ist das entweder Grund für optimistische Begeisterung oder existenzielle Angst.

Aber vergessen wir nicht die oben erwähnten Bemerkungen von LeCun. Was auch immer Q* ist, man kann wohl davon ausgehen, dass OpenAI nicht das einzige Forschungslabor ist, das sich an dieser Entwicklung versucht. Und wenn es am Ende nicht der Grund für Altmans Entlassung ist, wie der Bericht von The Verge behauptet, ist es vielleicht doch keine so große Sache, wie der Reuters-Bericht behauptet.

Moyens I/O-Personal. motivierte Sie und gab Ratschläge zu Technologie, persönlicher Entwicklung, Lebensstil und Strategien, die Ihnen helfen werden.