🧵 У міру того, як лабораторії штучного інтелекту намагаються масштабувати RL, одне питання має значення: коли ви повинні припинити попереднє навчання та почати RL? Ми потренували 5 моделей Qwen (0.6B→14B) з RL на GSM8K і знайшли щось дике: У маленьких моделях спостерігаються стрибки, схожі на емерджентність. У великих моделях віддача зменшується. Закон масштабування? Не те, чого ви очікували