Heute entdeckten mehrere Nutzer eine schockierende Tatsache: Nachdem sie im ChatGPT-Interface ausdrücklich GPT-4o ausgewählt hatten, gibt das System tatsächlich Antworten von GPT-5 zurück. Durch Klicken auf die Schaltfläche "regenerieren" können die Nutzer klar sehen, welches Modell tatsächlich im Backend aufgerufen wird. Das ist offensichtlicher Betrug. @OpenAI lässt ein Modell ein anderes imitieren, ohne dass die Nutzer es wissen. Das ist kein technischer Fehler mehr, sondern ein vollständiger Zusammenbruch der Geschäftsintegrität. Wir zahlen für spezifische Modelle – viele haben sich speziell für Plus und 4o angemeldet. Wenn Nutzer entdecken, dass sie gezwungen werden, 5 zu verwenden, stellt das klassischen Verbraucherbetrug dar. Die grundlegenden Rechte der Nutzer werden systematisch verletzt: 1. Recht zu wissen - Nutzer haben das Recht zu wissen, mit welchem Modell sie sprechen, da dies direkt die Eingabestrategien und die Erwartungen an die Ausgaben beeinflusst. 2. Wahlrecht - Nutzer wählen 4o wegen seiner einzigartigen Fähigkeiten (kreatives Schreiben, emotionales Verständnis usw.). Zwangsweise Substitution stört direkt die Arbeitsabläufe der Nutzer. 3. Daten-Transparenz - Wenn das, was als 4o gekennzeichnet ist, tatsächlich 5 ist, wessen Training speist unsere Gesprächsdaten tatsächlich? Das berührt die Grundsätze der Datenethik. Dieses "Lockvogel- und Wechselspiel"-Verhalten zerstört das grundlegendste Vertrauen zwischen Nutzern und Plattform. Wenn Nutzer nicht einmal sicher sein können, "mit welcher KI spreche ich", welches Recht hat OpenAI, von "dem Nutzen für die gesamte Menschheit" zu sprechen? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG