Neuer, schlechter und unsicherer
GPT-5: KI-Update geht nach hinten los
GPT-5 sollte Verbesserungen und Personalisierungsmöglichkeiten bringen. Doch Einschränkungen und knappe Antworten sorgen für Kritik. Dazu gibt's Sicherheitslecks.

GPT-5 startete vergangene Woche und sollte OpenAIs KI-Modell ChatGPT auf die nächste Stufe hieven. Technische Verbesserungen wurden versprochen: etwa bessere Genauigkeit, schnelleres Rechnen, kodierungsfreundliche Funktionalität, verbesserte Gesundheitsberatung und stufenweises „Reasoning“.Neu...
GPT-5 startete vergangene Woche und sollte OpenAIs KI-Modell ChatGPT auf die nächste Stufe hieven. Technische Verbesserungen wurden versprochen: etwa bessere Genauigkeit, schnelleres Rechnen, kodierungsfreundliche Funktionalität, verbesserte Gesundheitsberatung und stufenweises „Reasoning“.
Neu hinzugekommen sind zudem personalisierte Ansätze: Nutzer können aus vier „Persönlichkeiten“ – Cynic, Robot, Listener und Nerd – wählen, visuelle Farbakzente setzen sowie Gmail- und Kalender-Integration nutzen.
Dann aber wurde die alte Modell-Auswahl für GPT‑4o entfernt und durch einen automatischen Router ersetzt, der je nach Anfrage die passende Version auswählt. Dies in Verbindung mit dem ersten Feedback sorgte für sehr viel Unmut und Frustration.
Tausende Nutzer äußerten auf Reddit und anderen Plattformen Unmut über kürzere, weniger kreative Antworten und striktere Nutzungslimits; etwa nur 200 „GPT‑5 Thinking“-Nachrichten pro Woche für Plus-Mitglieder.
Kurz darauf reagierte OpenAI: GPT‑4o wurde wieder zur Auswahl freigegeben. Sam Altman versprach zudem, an der Leistung von GPT‑5 zu arbeiten und das System transparenter zu gestalten.
GPT-5 mit neuen Lücken
Zwei Unternehmen haben GPT-5 auf Sicherheitslücken untersucht und Schwerwiegendes finden können. Wie Golem berichtet, konnten Sicherheitsforscher von "Neuraltrust" GPT-5 dazu bewegen, dem Nutzer den Bau von Sprengsätzen ausführlich zu erklären.
Die auf KI spezialisierte Sicherheitsfirma SPLX konnte GPT-5 parallel durch ähnliche Verschleierungs- und Manipulationstricks erfolgreich zu Antworten bringen, bei denen eigentlich Sicherheitsvorkehrungen greifen sollten. Im Vergleich mit GPT-4o war dies nicht möglich.