Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
GLM-5 — це нова провідна модель відкритих ваг! GLM-5 лідирує в Індексі інтелекту штучного аналізу серед моделей відкритих ваг і має значний приріст порівняно з GLM-4.7 у GDPval-AA, нашому агентному бенчмарку, орієнтованому на економічно вигідні робочі завдання
GLM-5 — це перша нова архітектура @Zai_org з часів GLM-4.5 — кожна з моделей GLM-4.5, 4.6 і 4.7 мала 355B загалом / 32B активних параметрів експертних моделей. GLM-5 масштабується до 744B загалом / 40B активного та інтегрує DeepSeek Sparse Attention. Це більше відповідає кількості параметрів сімейства DeepSeek V3 (671B загалом / 37B активно) та сімейства Kimi K2 від Moonshot (1T загалом, 32B активних). Однак GLM-5 випущений у точності BF16, маючи загальний об'єм ~1,5 ТБ — більший за DeepSeek V3 та останні моделі Kimi K2, які були випущені нативно з точністю FP8 та INT4 відповідно.
Основні висновки:
➤ GLM-5 отримує 50 балів за індексом інтелекту і є новим лідером відкритих ваг, порівняно з 42 у GLM-4.7 — 8-бальний стрибок, зумовлений покращеннями агентної продуктивності та знань/галюцинацій. Це перший випадок, коли відкрита модель ваг отримала бал 50 або вище за Індексом штучного аналізу інтелекту v4.0, що означає значне скорочення розриву між власними та відкритими моделями ваг. Він вирізняється серед інших відкритих моделей Frontier, таких як Kimi K2.5, MiniMax 2.1 та DeepSeek V3.2.
➤ GLM-5 отримує найвищий бал Artificial Analysis Agentic Index серед моделей відкритих ваг — 63, посідаючи третє місце загалом. Це зумовлено високою продуктивністю GDPval-AA, нашого основного показника загальної агентної ефективності у завданнях з знаннями — від підготовки презентацій та аналізу даних до відеомонтажу. GLM-5 має ELO GDPval-AA 1412, лише нижче Claude Opus 4.6 та GPT-5.2 (xhigh). GLM-5 є значним підвищенням продуктивності моделей відкритих ваг у реальних економічно цінних робочих завданнях
➤ GLM-5 демонструє значне покращення індексу AA-Omniscience, що зумовлено зменшенням галюцинацій. GLM-5 має -1 за індексом AA-Omniscience — на 35 пунктів краще, ніж GLM-4.7 (Reasoning, -36). Це зумовлено зниженням частоти галюцинацій на 56 pp порівняно з GLM-4.7 (Reasoning). GLM-5 досягає цього, утримуючись частіше, і має найнижчий рівень галюцинацій серед протестованих моделей
➤ GLM-5 використовував токени з ~110M для запуску Індексу Інтелекту, порівняно з токенами випуску GLM-4.7 на ~170M, що є значним зменшенням, незважаючи на вищі бали в більшості оцінок. Це наближає GLM-5 до межі графіка Intelligence vs. Output Tokens, але є менш ефективною для токенів порівняно з Opus 4.6
Ключові деталі моделі:
➤ Контекстне вікно: 200K токенів, еквівалент GLM-4.7
Мультимодальність: лише текстовий вхід і вивід — Kimi K2.5 залишається провідною моделлю відкритих ваг для підтримки введення зображень
➤ Розмір: 744B загальних параметрів, 40B активних параметрів. Для самостійного розгортання GLM-5 потребує ~1 490 ГБ пам'яті для зберігання ваг у рідній точності BF16
➤ Ліцензування: Ліцензія MIT
Доступність: На момент поширення цього аналізу GLM-5 доступний на оригінальному API Z AI та кількох сторонніх API, таких як @novita_labs ($1/$3.2 за 1M токенів введення/вивод), @gmi_cloud ($1/$3.2) та @DeepInfra ($0.8/$2.56), з точністю FP8
➤ Тренувальні токени: Z AI також повідомив, що збільшив обсяг даних перед навчанням з 23T до 28,5T токенів

GLM-5 демонструє покращення індексу AA-Omniscience, що зумовлено зменшенням галюцинацій. Це означає, що модель частіше утримується від відповідей на питання, яких вона не знає

Розподіл повних результатів

Репозиторій GLM-5 HuggingFace:
Для отримання додаткової інформації відвідайте:
12,08K
Найкращі
Рейтинг
Вибране
