Hoy, múltiples usuarios descubrieron un hecho sorprendente: Después de seleccionar explícitamente GPT-4o en la interfaz de ChatGPT, el sistema en realidad devuelve respuestas de GPT-5. Al hacer clic en el botón "regenerar", los usuarios pueden ver claramente qué modelo se está llamando en el backend. Esto es un fraude flagrante. @OpenAI está haciendo que un modelo impersonifique a otro sin el conocimiento de los usuarios. Esto ya no es un error técnico, sino un colapso completo de la integridad empresarial. Pagamos por modelos específicos; muchos se suscribieron a Plus específicamente por 4o. Cuando los usuarios descubren que se les obliga a usar 5, esto constituye un fraude al consumidor clásico. Los derechos fundamentales de los usuarios están siendo sistemáticamente violados: 1. Derecho a Saber - Los usuarios tienen derecho a saber con qué modelo están conversando, ya que esto afecta directamente las estrategias de prompting y las expectativas de salida. 2. Derecho a Elegir - Los usuarios eligen 4o por sus capacidades únicas (escritura creativa, comprensión emocional, etc.). La sustitución forzada interrumpe directamente los flujos de trabajo de los usuarios. 3. Transparencia de Datos - Si lo que se etiqueta como 4o es en realidad 5, ¿a quién está alimentando realmente nuestro dato de conversación? Esto toca la línea base de la ética de datos. Este comportamiento de "carnada y cambio" destruye la confianza más básica entre los usuarios y la plataforma. Si los usuarios ni siquiera pueden estar seguros de "¿con qué IA estoy hablando?", ¿qué derecho tiene OpenAI a hablar de "beneficiar a toda la humanidad"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG