Am Dienstag, 15. Mai 2024 fand das OpenAI Spring Update statt. Alle erwarteten, dass eine „Suchmaschine“ vorgestellt würde. Aber es kam anders. Lesen Sie im heutigen Post, was angekündigt wurde.
Was wurde angekündigt
Letzen Dienstag hat OpenAI eine neue Version seines Chatbots ChatGPT: GPT-4o vorgestellt. Das „o“ steht für „omni“ (von lateinischen „omnis“ was „alles“ bedeutet) und deutet an, dass es für „alle“ gedacht ist.
Sehen, hören, sprechen: Das neue KI-Sprachmodell GPT-4o soll, so schreibt es OpenAI in der Ankündigung, „ein Schritt hin zu einer viel natürlicheren Mensch-Computer-Interaktion sein“.
Diese neue Version bringt zahlreiche Verbesserungen und Erweiterungen mit sich, die beeindruckend sind und uns auch in der Schule vor neue Herausforderungen stellen.
Hier sind die wichtigsten und spannendsten Highlights:
Zugang
GPT-4o ist für allen registrierte Nutzerinnen und Nutzer verfügbar. Der Rollout erfolgt schrittweise in den nächsten Wochen. Mit dem kostenlosen Zugang ist nun auch ein eingeschränkter Zugriff auf erweiterte Datenanalyse, Dateiuploads, Bilderkennung, Online-Suche und individuelle GPTs kostenlos möglich. Siehe auch Post «KI-Assistent Web2-Unterricht» vom 3. Dezember 2023.
Aussehen
Das Aussehen hat sich verändert und wirkt aufgeräumter. Die Einstellungen sind nun ins Fenster oben rechts gewandert. Siehe (1) kostenlose Version und (2) ChatGPT Plus.
Geschwindigkeit
Das neue Modell antwortet viel schneller, da die Anzahl der Token geändert wurde. Token sind wie kleine Bausteine, aus denen Wörter und Sätze bestehen. Weil das neue Modell weniger von diesen kleinen Bausteinen braucht, um eine Antwort zu geben, kann es schneller reagieren und schneller antworten
Quelle: https://openai.com/index/hello-gpt-4o/
Sprachfunktion
Die Sprachfunktion wurde stark verbessert und hat viele verblüfft, da sie fast menschlich klingt Laut OpenAI kann GPT-4o Emotionen anhand der Stimme, des Blicks oder der Atmung erkennen. Die KI simuliert auch selbst menschliche Emotionen und kann ihre Stimmlage spontan ändern. Die Voice Option ist kostenpflichtig und nur im Abonnement verfügbar.
Ein Beispiel für eine Echtzeit-Übersetzung wurde ebenfalls vorgestellt.
Und hier wie GPT-4o mit hoher Geschwindigkeit zählen kann:
Ich benutze die Sprachfunktion schon länger, um mir neues Wissen anzueignen. Die Antwortzeiten bei Anfragen haben sich sichtlich verbessert. In den letzten Tagen kam aber immer wieder die Antwort «I am having problems right know», es scheint, dass im Moment viele Benutzer die Sprachfunktion nutzen.
Visuelle Funktion
Die visuelle Funktion, bei der man ein Foto hochlädt und Fragen dazu stellt, war schon vorher möglich. Jetzt aber wurde eindrucksvoll demonstriert, wie die Kamera mit der Sprachfunktion zusammenarbeiten kann. Die Informationen der Kamera werden gestreamt und sofort verarbeitet. Schauen Sie sich das folgende Beispiel an, um zu sehen, was in Zukunft möglich sein wird:
Bilder
Die Erstellung von Bildern mit GPT-4o wurde verbessert. Bisher hatte die KI Schwierigkeiten, Text in Bildern zu erzeugen. In diesem Beispiel sieht man links (1) die Eingabe, die gemacht wurde und (2) das Ergebnis. Fantastisch.
Weitere Beispiele finden Sie hier. Scrollen Sie nach unten und wählen Sie aus:
Datenanalyse für Alle
Die Datenanalyse steht nun allen zur Verfügung. Sehen Sie sich den Clip an, um zu erfahren, wie Daten mit GPT-4o erstellt und anschliessend analysiert werden können.
Desktop-App
Unerwartet wurde eine Desktop-App für Plus-User angekündigt. Diese ist jedoch vorerst nur für macOS verfügbar. Es ist unklar, wann eine Windows-Version erscheinen wird. Es ist möglich, dass Microsoft hier eine Rolle spielt, um keine Konkurrenz für den eigenen Copilot zu schaffen.
Alle Informationen
Weitere Informationen zur Ankündigung von GPT-4o finden Sie auf der OpenAI-Seite hier:
Introducing GPT-4o and more tools to ChatGPT free users | OpenAI
Fazit
Die neuesten Entwicklungen von GPT-4o haben mich sehr beeindruckt und gleichzeitig finde ich es erschreckend, wie schnell diese Modelle besser werden und lernen. Schon vor der Einführung des neuen Modells habe ich die Sprachfunktion zum Lernen beim Kochen genutzt. Der Vorteil dabei war, dass ich die Hände frei hatte und trotzdem Fragen stellen konnte. Bei meinen ersten Tests hat sich die Funktion in Geschwindigkeit und Tonalität (auch auf Deutsch) stark verbessert. Ich bin überzeugt, dass diese Option bald auch in der kostenlosen Version zur Verfügung stehen wird.
Mit dieser Option werden unsere Schülerinnen und Schüler einen persönlichen „Buddy“ haben, mit dem sie sich unterhalten können, der ihnen bei Aufgaben hilft, Feedback gibt oder mit dem sie Sprachen lernen können.
Natürlich bringt die KI auch Herausforderungen mit sich. Eine davon ist, unsere Schülerinnen und Schüler zu motivieren, die Freude am Lernen nicht zu verlieren und gleichzeitig eine kritische Haltung gegenüber der KI zu bewahren. Ich versuche dies, zu erreichen, indem ich mit den Klassen KI einsetze und darüber diskutiere.
Nächste Woche werde ich mit einer Klasse die Analysefunktion in Excel anschauen und mit ihnen über die Chancen und Gefahren diskutieren. Wie sieht Ihr Plan aus?
Besten Dank für den informativen Text, der mir hilft, mich auf knappem Raum mit neuen Errungenschaften etwas vertraut zu machen. Was bei mir, trotz mehrmaliger Bemühungen, nicht funktioniert, ist die Sprach-Ein- und Ausgabe. Ich kann zwar über die Eingabe von Google Sprache in Text umwandeln, aber ChatGPT bleibt bei mir konsequent stumm und ich möchte mir nicht mit einer anderen App den Prompt vorlesen lassen. Ist die Sprachausgabe nur bei der Bezahlversion möglich?
Danke für eine kurze Antwort und einen schönen Tag noch!
Grüezi Daniel
Das habe ich auch manchmal. Manchmal hat es genützt die App zu schliessen und wieder zu öffnen.
Dann hat es plötzlich wieder funktioniert. Warum ist mir nicht klar.
Herzliche Grüsse
Renée