Grok! Es geht vielleicht nicht so leicht über die Lippen wie ChatGPT oder Windows Copilot, aber es ist trotzdem ein Chatbot mit großem Sprachmodell. Grok wurde von xAI entwickelt, einem Ableger der Programmierer, die nach dem Kauf von X (früher bekannt als Twitter) durch Elon Musk dabei blieben, und soll direkt mit den GPT-4-Modellen von OpenAI, Googles Bard und einer Reihe anderer öffentlich zugänglicher Chatbots konkurrieren.
Grok soll im November 2023 auf den Markt kommen und soll ein Chatbot mit weniger Filtern als andere KIs sein. Man sagt, er habe „ein bisschen Witz und eine rebellische Ader“.
Es ist nur für X Premium-Benutzer
Möchten Sie selbst mit Grok herumspielen? Sie können das, wenn Sie ein X Premium+ Abonnent und auch in den USA wohnen (oder ein VPN verwenden). Trotzdem gibt es eine Warteliste, um den Prototyp auszuprobieren, es gibt also keine Garantie, dass Sie hineinkommen.
Obwohl man erwarten könnte, dass die App einem größeren Publikum zugänglich gemacht wird, wenn sie die Betaphase hinter sich hat, hat Musk angedeutet, dass Grok auf absehbare Zeit ein exklusives Feature für Premium+ X-Abonnenten bleiben wird.
Es ist ein Chatbot
Nur wenige Wochen nachdem Musk darüber gesprochen hatte, wie gefährlich die jüngsten Fortschritte in der KI seien, brachte er Grok in einer Betaversion auf den Markt. Er behauptete zwar, dass der Kommunikationsstil offener und weniger themenorientiert sein würde, aber letztendlich ist es ein Chatbot wie jeder andere auch.
Das liegt daran, dass es auf ganz ähnliche Weise aufgebaut wurde. Es handelt sich um eine KI mit großem Sprachmodell, was bedeutet, dass es mit vielen Trainingsdaten aufgebaut wurde, einige von X, einige aus dem gesamten Internet. Uns wurde gesagt, dass es auf dem Grok-1-Langsprachenmodell (LLM) mit rund 33 Milliarden Parametern läuft. Damit liegt es hinter Metas LLaMa und OpenAIs GPT-4, die 70 Milliarden bzw. 1,76 Billionen Parameter haben. Es wurde auch nur ein paar Monate lang trainiert, während die Zusammenstellung anderer Modelle Jahre gedauert hat.
Dies könnte der Grund sein, warum Grok genauso anfällig (wenn nicht sogar noch anfälliger) für Halluzinationen zu sein scheint wie andere KIs wie ChatGPT. Es erfindet oft Fakten oder zitiert nicht existierende Quellen, wenn es um sachliche Antworten gebeten wird.
Es verwendet Daten von X
Einer der großen Verkaufsargumente von Grok ist, dass es Live-Daten von X bringt. Während andere Sprachmodelle Google oder Bing verwenden, um aktuelle Informationen zu finden und ihre Antworten auf Benutzereingaben zu ergänzen, kann Grok seine Antworten auf aktuelle Informationen von X stützen. Dadurch erhält Grok Zugriff auf Informationen, die andere Chatbots nicht haben, aber es bedeutet auch, dass es aufgrund des schieren Ausmaßes seiner Verbreitung auf X seit Musks Übernahme potenziell anfälliger für Fehlinformationen ist.
Das bedeutet jedoch, dass es Zugriff auf Musks X-Konto hat. Das bedeutet, dass es stimmt ihm nicht immer zu.
Es soll anti-woke sein, ist es aber nicht
Ein Hauptgrund für Musks Übernahme von X und die Einführung von Grok war sein eigener Versuch, sich gegen das zu wehren, was er als „Wokeness“ bezeichnet. Grok sollte eine KI sein, die gesellschaftliche Höflichkeit zugunsten einer bestimmten Art von Humor ablehnt und in ihren politischen Vorurteilen nach rechts tendiert. Das hat sich jedoch nicht bewahrheitet. Tatsächlich beschweren sich viele der ursprünglichen Fans von Musk und Grok jetzt darüber, dass die KI erfasst von „aufgeweckten Programmierern“.”
Wurde Grok von aufgeweckten Programmierern übernommen?
Ich mache mir hier große Sorgen. https://t.co/lrlOJ79Mzz
– Wall Street Silver (@WallStreetSilv) 8. Dezember 2023
In Wirklichkeit basierten Groks Trainingsdaten auf den gleichen Daten wie jede andere KI: den Menschen, die online miteinander interagieren. Daher war es wahrscheinlich, dass Grok sich allmählich wie die anderen KIs da draußen anhörte.
Im Standardmodus reagierte Grok nach den meisten Forschern mit eine offenkundig neutrale Antwort wenn man zu Themen befragt wird, die von rechten Kommentatoren als kontrovers angesehen werden, wie Waffenkontrolle, Klimawandel oder widerlegte Verschwörungstheorien. Wenn man jedoch vom standardmäßigen „Spaß“-Modus in den normalen Modus wechselt, liefert er begründetere Antworten.
Es ist von ChatGPT übernommen
Es wurde festgestellt, dass Grok manchmal Antworten gibt, als wäre es ChatGPT. Das liegt nicht daran, dass es auf derselben Technologie wie ChatGPT basiert, sondern daran, dass es seit der Veröffentlichung von ChatGPT im Web trainiert wurde. Das hat dazu geführt, dass es KI-geschriebene Inhalte aufsaugt, und in einem Fall eine OpenAI-Datenschutzrichtliniedie es anschließend seinen Benutzern zurückmeldete, als ob es sie geschrieben hätte.
Dies ist ein Problem, das von einer Reihe von Experten angeführt wurde und das sich bei allen LLM-KIs verschlimmern könnte, wenn es nicht behoben wird. In einer Welt, in der KIs jeden Tag Berge von recyceltem Inhalt erstellen können und dies auch tun, müssen KI-Entwickler eine Möglichkeit finden, zwischen KI- und menschlichen Inhalten zu unterscheiden, damit sie ihre zukünftigen Modelle nicht nur mit KI-generierten Inhalten trainieren.
Der Name stammt aus einem Heinlein-Roman
Wenn Sie sich fragen, woher der bizarre Name stammt: „Grok“ ist ein Neologismus aus dem Roman von Robert Heinlein, Fremder in einem fremden Land. Die ursprüngliche Bedeutung war „intuitiv oder durch Empathie verstehen, eine Beziehung zu jemandem aufbauen“. Das klingt nach einem hehren Ziel für eine KI, aber wahrscheinlich wurde es hier in der Art und Weise eingesetzt, wie es in den Jahrzehnten nach Heinleins Werk in der Programmiergemeinschaft bekannt wurde: Etwas so vollständig verstehen, dass es Teil der eigenen Identität wird.
Grok soll uns so gut verstehen, dass es Ist uns. Wir glauben, es ist noch nicht so weit.