All die verrückten Dinge, die die Leute mit dem neuen Sprachmodus von ChatGPT machen 1

All die verrückten Dinge, die die Leute mit dem neuen Sprachmodus von ChatGPT machen

Erweiterter Sprachmodus von ChatGPT kam am Dienstag für einige ausgewählte OpenAI-Abonnenten ausgewählt, Teil der mit Spannung erwarteten Alpha-Version dieser Funktion zu sein.

Die Funktion wurde erstmals im Mai angekündigt. Sie soll das herkömmliche textbasierte Kontextfenster abschaffen und stattdessen natürliche, gesprochene Wörter verwenden, die auf lebensechte Weise wiedergegeben werden. Sie funktioniert in einer Vielzahl von regionale Akzente und Sprachen. Laut OpenAIErweiterte Stimme, „bietet natürlichere Gespräche in Echtzeit, erlaubt es Ihnen, jederzeit zu unterbrechen, und erkennt und reagiert auf Ihre Emotionen.

Es gibt einige Einschränkungen bei den Funktionen, die Benutzer vom Sprachmodus erwarten können. Das System spricht mit einer von vier voreingestellten Stimmen und kann nicht die Stimmen anderer Personen imitieren – weder von Einzelpersonen noch von Persönlichkeiten des öffentlichen Lebens.

Tatsächlich blockiert die Funktion Ausgaben, die von den vier Voreinstellungen abweichen, komplett. Darüber hinaus generiert das System weder urheberrechtlich geschütztes Audiomaterial noch Musik. Also war das Erste, was jemand tat, es Beatboxen zu lassen.

Fortgeschrittene Stimme als B-Boy

Yo ChatGPT Erweiterte Voice-Beatboxen pic.twitter.com/yYgXzHRhkS

– Ethan Sutin (@EthanSutin) 30. Juli 2024

Alpha-Benutzer Ethan Sutin hat einen Thread auf X (ehemals Twitter) gepostet, der eine Reihe von Antworten von Advanced Voice zeigt, darunter die obige, in der die KI einen kurzen „Geburtstags-Rap“ herunterspult und dann mit Beatboxing fortfährt. Man kann die KI zwischen den Beats tatsächlich digital atmen hören.

Fortgeschrittene Stimme als Geschichtenerzähler

Das ist wirklich großartig

Ich habe die ominösen Geräusche nicht erwartet pic.twitter.com/DnK8AVdWjV

– Kesku (@yoimnotkesku) 30. Juli 2024

Obwohl es Advanced Voice untersagt ist, Lieder im Ganzen zu komponieren, kann es Hintergrund-Soundeffekte für die Gutenachtgeschichten erzeugen, die es vorträgt.

Im obigen Beispiel von Kesku fügt die KI ihrer Geschichte über den abtrünnigen Cyborg gut getimte Crashs und Slams hinzu, nachdem sie aufgefordert wurde: „Erzähl mir einen spannenden Action-Thriller mit Science-Fiction-Elementen und schaffe Atmosphäre, indem du entsprechende Geräusche zu den Geschehnissen machst (z. B. ein laut heulender Sturm).“

Schaut euch die Werke von OpenAI an, ihr Mächtigen und Verzweifelten!

das ist das wildeste. Man kann sich wirklich wie ein Regisseur fühlen, der einen Shakespeare-Schauspieler anleitet! pic.twitter.com/GUQ1z8rjIL

– Ethan Sutin (@EthanSutin) 31. Juli 2024

Die KI ist außerdem in der Lage, spontan realistische Charaktere zu erschaffen, wie das obige Beispiel von Sutin zeigt.

Verwandt :  Die neue Wiedergabeliste von Pandora the Drop ähnelt stark dem Release-Radar von Spotify

Advanced Voice als emotionaler Sprecher

Khan!!!!!! pic.twitter.com/xQ8NdEojSX

– Ethan Sutin (@EthanSutin) 30. Juli 2024

Das neue Feature klingt unter anderem deshalb so lebensecht, weil es Emotionen wie ein Mensch ausdrücken kann. Im obigen Beispiel stellt Ethan Sutin das berühmte Star Trek II Szene. In den beiden folgenden Beispielen zwingt der Benutzer Cristiano Giardina die KI, in verschiedenen Tönen und verschiedenen Sprachen zu sprechen.

ChatGPT Advanced Voice Mode spricht Japanisch (aufgeregt) pic.twitter.com/YDL2olQSN8

– Cristiano Giardina (@CrisGiardina) 31. Juli 2024

ChatGPT Erweiterter Sprachmodus spricht Armenisch (normal, aufgeregt, wütend) pic.twitter.com/SKm73lExdX

– Cristiano Giardina (@CrisGiardina) 31. Juli 2024

Fortgeschrittene Stimme als Tierfreund

🐈 pic.twitter.com/UZ0odgaJ7W

– Ethan Sutin (@EthanSutin) 30. Juli 2024

Die stimmlichen Fähigkeiten der KI beschränken sich nicht auf menschliche Sprachen. Im obigen Beispiel wird Advanced Voice angewiesen, Katzengeräusche zu machen, und tut dies mit unfehlbarer Genauigkeit.

Versuchen #ChatGPTist der neue erweiterte Sprachmodus, der gerade als Alpha veröffentlicht wurde. Es fühlt sich an, als würde man mit einem sehr sachkundigen Freund per Facetime sprechen, was in diesem Fall sehr hilfreich war – er hat uns mit unserem neuen Kätzchen beruhigt. Es kann Fragen in Echtzeit beantworten und die Kamera auch als Eingabe verwenden! pic.twitter.com/Xx0HCAc4To

– Manuel Sainsily (@ManuVision) 30. Juli 2024

Benutzer können der KI nicht nur Fragen zu ihren biologischen Katzenfreunden stellen, sondern auch wie eine Katze klingen und in Echtzeit personalisierte Tipps und Ratschläge erhalten.

Advanced Voice als Echtzeitübersetzer

Echtzeit-Übersetzung Japanisch mit #ChatGPT’s neuer erweiterter Sprachmodus + Vision Alpha! Noch ein nützliches Beispiel! pic.twitter.com/wDXrgYQkZE

– Manuel Sainsily (@ManuVision) 31. Juli 2024

Advanced Voice kann auch die Kamera Ihres Geräts nutzen, um bei der Übersetzung zu helfen. Im obigen Beispiel richtet der Benutzer Manuel Sainsily sein Telefon auf einen GameBoy Advanced, auf dem die japanischsprachige Version eines Pokémon-Spiels läuft, und lässt die KI den Dialog auf dem Bildschirm vorlesen, während er spielt.

Das Unternehmen weist darauf hin, dass Video- und Bildschirmfreigabe nicht Teil der Alpha-Version sein werden, sondern zu einem späteren Zeitpunkt verfügbar sein werden. OpenAI plant, die Alpha-Version „im Laufe der nächsten Wochen“ auf weitere Plus-Abonnenten auszuweiten und sie „im Herbst“ allen Plus-Benutzern zur Verfügung zu stellen.