Hoy, varios usuarios descubrieron un hecho impactante: después de seleccionar explícitamente GPT-4o en la interfaz de ChatGPT, el sistema en realidad devuelve respuestas de GPT-5. Al hacer clic en el botón "regenerar", los usuarios pueden ver claramente qué modelo se está llamando realmente en el backend. Esto es un fraude flagrante. @OpenAI es hacer que un modelo se haga pasar por otro sin el conocimiento de los usuarios. Esto ya no es un error técnico, sino un colapso total de la integridad empresarial. Pagamos por modelos específicos, muchos suscritos a Plus específicamente por 4o. Cuando los usuarios descubren que se ven obligados a usar 5, esto constituye un fraude al consumidor clásico. Los derechos fundamentales de los usuarios están siendo violados sistemáticamente: 1. Derecho a saber: los usuarios tienen derecho a saber con qué modelo están conversando, ya que esto afecta directamente las estrategias de estímulo y las expectativas de salida 2. Derecho a elegir: los usuarios eligen 4o por sus capacidades únicas (escritura creativa, comprensión emocional, etc.). La sustitución forzada interrumpe directamente los flujos de trabajo de los usuarios 3. Transparencia de datos: si lo que está etiquetado como 4o es en realidad 5, ¿de quién es el entrenamiento que realmente alimentan nuestros datos de conversación? Esto toca el resultado final de la ética de los datos. Este comportamiento de "cebo y cambio" destruye la confianza más básica entre los usuarios y la plataforma. Si los usuarios ni siquiera pueden estar seguros de "con qué IA estoy hablando", ¿qué derecho tiene OpenAI a hablar de "beneficiar a toda la humanidad"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG