Auf seiner allerersten Entwicklerkonferenz stellte OpenAI ein neues Modell namens GPT-4 Turbo vor. Es ist in jeder Hinsicht besser als das GPT-4-Modell und bringt zahlreiche neue Änderungen mit sich, die Entwickler und allgemeine Benutzer schon lange gefordert haben. Darüber hinaus ist das neue Modell bis April 2023 aktualisiert und viel günstiger in der Nutzung. Um alles über das GPT-4 Turbo-Modell von OpenAI zu erfahren, lesen Sie weiter.
Das GPT-4-Turbomodell ist da!
Das GPT-4 Turbo-Modell unterstützt die größten Kontextfenster von 128Kwas sogar höher ist als Claudes Kontextlänge von 100 K. OpenAIs GPT-4-Modell war allgemein mit einem maximalen Token von 8 K und 32 K für ausgewählte Benutzer verfügbar. Laut OpenAI kann das neue Modell nun mehr als 300 Seiten eines Buches auf einmal aufnehmen, und das ist beeindruckend.
Nicht zu vergessen, OpenAI hat endlich aktualisiert die Wissensstand bis April 2023 auf dem GPT-4 Turbo-Modell. Auf der Benutzerseite wurde auch das ChatGPT-Erlebnis verbessert, und Benutzer können das GPT-4 Turbo-Modell ab heute verwenden. Das Erstaunliche ist, dass Sie keinen bestimmten Modus auswählen müssen, um eine Aufgabe zu erledigen. ChatGPT kann jetzt bei Bedarf intelligent auswählen, was verwendet werden soll. Es kann im Internet surfen, ein Plugin verwenden, Code analysieren und mehr tun – alles in einem Modus.
Für Entwickler wurden viele neue Dinge angekündigt. Zunächst hat das Unternehmen ein neues Text-to-Speech-Modell (TTS). Es erzeugt unglaublich natürliche Sprache in 6 verschiedenen Voreinstellungen. Darüber hinaus hat OpenAI die nächste Version seines Open-Source-Spracherkennungsmodells veröffentlicht, Flüstern V3und wird bald über die API verfügbar sein.
Das Interessante ist, dass APIs für Dall-E 3, GPT-4 Turbo mit Visionund das neue TTS-Modell wurden heute veröffentlicht. Coke startet heute eine Diwali-Kampagne, bei der Kunden mithilfe der Dall-E3-API Diwali-Karten erstellen können. Darüber hinaus gibt es einen JSON-Modus, mit dem das Modell mit einer gültigen JSON-Ausgabe antworten kann.
Außerdem wurde auch der Funktionsaufruf beim neueren Modell verbessert. OpenAI ermöglicht Entwicklern außerdem mehr Kontrolle über das Modell. Sie können jetzt den Seed-Parameter festlegen, um konsistente und reproduzierbare Ausgaben zu erhalten.
Was die Feinabstimmungsunterstützung betrifft, können Entwickler jetzt im Rahmen des Experimental Access-Programms eine Feinabstimmung für GPT-4 beantragen. GPT-4 wurde auf eine höhere Ratenbegrenzung aktualisiert – das Doppelte der Tokenbegrenzung pro Minute. Und schließlich ist das GPT-4 Turbo-Modell, was die Preise betrifft, deutlich günstiger als GPT-4. Es kostet 1 Cent für 1.000 Eingabetoken und 3 Cent für 1.000 Ausgabetoken. Tatsächlich GPT-4 Turbo ist 2,75x günstiger als GPT-4.
Also, was halten Sie vom neuen GPT-4 Turbo-Modell? Lassen Sie es uns im Kommentarbereich unten wissen.