Hôm nay, nhiều người dùng đã phát hiện ra một sự thật gây sốc: Sau khi chọn rõ ràng GPT-4o trong giao diện ChatGPT, hệ thống thực sự trả về phản hồi từ GPT-5. Bằng cách nhấp vào nút "tái tạo", người dùng có thể thấy rõ mô hình nào đang được gọi ở phía sau. Đây là một hành vi gian lận trắng trợn. @OpenAI đang để một mô hình giả mạo một mô hình khác mà không có sự biết đến của người dùng. Đây không còn là một lỗi kỹ thuật, mà là một sự sụp đổ hoàn toàn của tính toàn vẹn trong kinh doanh. Chúng tôi trả tiền cho các mô hình cụ thể—nhiều người đã đăng ký Plus đặc biệt cho 4o. Khi người dùng phát hiện ra rằng họ bị buộc phải sử dụng 5, điều này cấu thành hành vi gian lận tiêu dùng cổ điển. Các quyền cơ bản của người dùng đang bị vi phạm một cách có hệ thống: 1. Quyền được biết - Người dùng có quyền biết mô hình nào họ đang trò chuyện, vì điều này ảnh hưởng trực tiếp đến chiến lược gợi ý và kỳ vọng đầu ra 2. Quyền lựa chọn - Người dùng chọn 4o vì những khả năng độc đáo của nó (viết sáng tạo, hiểu cảm xúc, v.v.). Việc thay thế bị ép buộc trực tiếp làm gián đoạn quy trình làm việc của người dùng 3. Minh bạch dữ liệu - Nếu cái được gán nhãn là 4o thực sự là 5, thì dữ liệu cuộc trò chuyện của chúng ta đang nuôi dưỡng việc đào tạo của ai? Điều này chạm đến đáy của đạo đức dữ liệu. Hành vi "mồi nhử và thay thế" này phá hủy lòng tin cơ bản nhất giữa người dùng và nền tảng. Nếu người dùng thậm chí không thể chắc chắn "tôi đang nói chuyện với AI nào", thì OpenAI có quyền gì để nói về "lợi ích cho toàn nhân loại"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG