OpenAI lanciert GPT-4
OpenAI lanciert sein neues Sprachmodell GPT-4, den Nachfolger von GPT-3.5, auf dem die aktuellen Version von ChatGPT basiert. Neu ist unter anderem, dass die KI nun Bilder interpretieren kann.
15. März 2023 - OpenAI lanciert sein neues Sprachmodell GPT-4, den Nachfolger von GPT-3.5, auf dem die aktuellen Version von ChatGPT basiert. Neu ist unter anderem, dass die KI nun Bilder interpretieren kann.
OpenAI, der Entwickler des auf dem Sprachmodell GPT-3.5 basierenden KI-Chatbot ChatGPT, lanciert mit GPT-4 den Nachfolger seines Sprachmodells. Der erste auffällige Unterschied zum Vorgänger mit der Versionsnummer 3.5 ist wohl, dass GPT-4 als multimodales Modell auch mit Bildmaterial umgehen und dieses mit Sprache beschreiben kann. Weiter, so Open-AI-CEO Sam Altman in einem ausführlichen Blogpost, habe GPT-4 einen höheren Grenzwert, wenn es darum geht, komplexere und mehr Inhalte zu verarbeiten, kreativer und "menschlicher" zu sein. Das Modell zeige "bei verschiedenen beruflichen und akademischen Benchmarks Leistungen auf menschlichem Niveau", so Altman. Auch soll GPT-4 weniger fehlerbehaftet sein als der Vorgänger und 40 % wahrscheinlicher eine inhaltlich korrekte Antwort geben können. Nach wie vor kann die AI sich aber auch Antworten ausdenken und stellenweise sehr ungenau sein, wie die Entwickler einräumen.
Trainiert wurde das Modell auf der für KI optimierten Supercomputern in der Azure-Cloud von Microsoft. Zugänglich ist das neue Modell zum einen für Abonnenten von ChatGPT Plus via chat.openai.com. OpenAI zieht es weiter in Betracht, gegebenenfalls ein neues Subscription-Level für intensiverern Gebrauch von GPT-4 zu lancieren und eine limitierte Gratis-Version zur Verfügung zu stellen.
Weiter kann das neue Sprachmodell über eine API genutzt werden. Die Warteliste für den Zugang zur API ist offen, an dieser Stelle kann man sich eintragen. (win)