Hari ini, beberapa pengguna menemukan fakta yang mengejutkan: Setelah secara eksplisit memilih GPT-4o di antarmuka ChatGPT, sistem benar-benar mengembalikan respons dari GPT-5. Dengan mengklik tombol "regenerate", pengguna dapat dengan jelas melihat model mana yang benar-benar dipanggil di backend. Ini adalah penipuan terang-terangan. @OpenAI memiliki satu model yang meniru model lain tanpa sepengetahuan pengguna. Ini bukan lagi bug teknis, tetapi runtuhnya integritas bisnis sepenuhnya. Kami membayar untuk model tertentu—banyak yang berlangganan Plus khusus untuk 4o. Ketika pengguna menemukan bahwa mereka dipaksa untuk menggunakan 5, ini merupakan penipuan konsumen klasik. Hak inti pengguna dilanggar secara sistematis: 1. Hak untuk Tahu - Pengguna memiliki hak untuk mengetahui model mana yang mereka ajak bicara, karena ini secara langsung memengaruhi strategi dorongan dan ekspektasi output 2. Hak untuk Memilih - Pengguna memilih 4o karena kemampuan uniknya (penulisan kreatif, pemahaman emosional, dll.). Substitusi paksa secara langsung mengganggu alur kerja pengguna 3. Transparansi Data - Jika apa yang diberi label sebagai 4o sebenarnya adalah 5, pelatihan siapa yang benar-benar diberikan oleh data percakapan kita? Ini menyentuh garis bawah etika data. Perilaku "umpan dan sakelar" ini menghancurkan kepercayaan paling dasar antara pengguna dan platform. Jika pengguna bahkan tidak dapat memastikan "AI mana yang saya ajak bicara", hak apa yang dimiliki OpenAI untuk berbicara tentang "bermanfaat bagi seluruh umat manusia"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG