Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Z.ai
Phòng thí nghiệm AI đằng sau các mô hình GLM, dành riêng để truyền cảm hứng cho sự phát triển của AGI để mang lại lợi ích cho nhân loại.
https://t.co/x14hb3jO7O
GLM thường được coi là chỉ là một mô hình lập trình, nhưng vị trí số 1 của nó trong mã nguồn mở trên Artificial Analysis lại kể một câu chuyện khác. Những điều mà mọi người có thể bỏ qua: độ ảo giác thấp, hiệu suất mạnh mẽ trong các nhiệm vụ có giá trị kinh tế, và khả năng lý luận và tác động hàng đầu.
Ngoài các tiêu chuẩn đánh giá, nó cũng xử lý tốt các cuộc trò chuyện hàng ngày và vai trò.

Artificial Analysis2 giờ trước
GLM-5 là mô hình mở trọng số dẫn đầu mới! GLM-5 dẫn đầu Chỉ số Trí tuệ Phân tích Nhân tạo giữa các mô hình mở trọng số và đạt được những bước tiến lớn so với GLM-4.7 trong GDPval-AA, tiêu chuẩn tác vụ công việc có giá trị kinh tế của chúng tôi.
GLM-5 là kiến trúc mới đầu tiên của @Zai_org kể từ GLM-4.5 - mỗi mô hình GLM-4.5, 4.6 và 4.7 đều có tổng cộng 355B / 32B mô hình hỗn hợp chuyên gia hoạt động. GLM-5 mở rộng lên 744B tổng cộng / 40B hoạt động, và tích hợp DeepSeek Sparse Attention. Điều này đưa GLM-5 gần hơn với số lượng tham số của gia đình DeepSeek V3 (671B tổng cộng / 37B hoạt động) và gia đình Kimi K2 của Moonshot (1T tổng cộng, 32B hoạt động). Tuy nhiên, GLM-5 được phát hành với độ chính xác BF16, có kích thước tổng cộng khoảng ~1.5TB - lớn hơn DeepSeek V3 và các mô hình Kimi K2 gần đây đã được phát hành natively với độ chính xác FP8 và INT4 tương ứng.
Những điểm chính:
➤ GLM-5 đạt 50 điểm trên Chỉ số Trí tuệ và là nhà lãnh đạo mới trong các mô hình mở trọng số, tăng từ điểm số 42 của GLM-4.7 - một bước nhảy 8 điểm nhờ vào những cải tiến trong hiệu suất tác vụ và kiến thức/hallucination. Đây là lần đầu tiên một mô hình mở trọng số đạt được điểm số 50 hoặc cao hơn trên Chỉ số Trí tuệ Phân tích Nhân tạo v4.0, đại diện cho sự thu hẹp đáng kể khoảng cách giữa các mô hình trọng số độc quyền và mở. Nó đứng trên các mô hình mở trọng số tiên tiến khác như Kimi K2.5, MiniMax 2.1 và DeepSeek V3.2.
➤ GLM-5 đạt được điểm số cao nhất trên Chỉ số Tác vụ Nhân tạo Phân tích Nhân tạo trong số các mô hình mở trọng số với điểm số 63, xếp hạng thứ ba tổng thể. Điều này được thúc đẩy bởi hiệu suất mạnh mẽ trong GDPval-AA, tiêu chí chính của chúng tôi cho hiệu suất tác vụ công việc kiến thức từ việc chuẩn bị thuyết trình và phân tích dữ liệu cho đến chỉnh sửa video. GLM-5 có ELO GDPval-AA là 1412, chỉ đứng sau Claude Opus 4.6 và GPT-5.2 (xhigh). GLM-5 đại diện cho một sự nâng cao đáng kể trong hiệu suất của các mô hình mở trọng số trên các tác vụ công việc có giá trị kinh tế thực tế.
➤ GLM-5 cho thấy sự cải thiện lớn trên Chỉ số AA-Omniscience, nhờ vào việc giảm hallucination. GLM-5 đạt điểm -1 trên Chỉ số AA-Omniscience - một cải thiện 35 điểm so với GLM-4.7 (Reasoning, -36). Điều này được thúc đẩy bởi việc giảm 56 điểm phần trăm trong tỷ lệ hallucination so với GLM-4.7 (Reasoning). GLM-5 đạt được điều này bằng cách kiêng khem thường xuyên hơn và có mức độ hallucination thấp nhất trong số các mô hình đã được thử nghiệm.
➤ GLM-5 đã sử dụng ~110 triệu token đầu ra để chạy Chỉ số Trí tuệ, so với ~170 triệu token đầu ra của GLM-4.7, một sự giảm đáng kể mặc dù có điểm số cao hơn trong hầu hết các đánh giá. Điều này đưa GLM-5 gần hơn tới ranh giới của biểu đồ Trí tuệ so với Token Đầu ra, nhưng kém hiệu quả hơn về token so với Opus 4.6.
Chi tiết mô hình chính:
➤ Cửa sổ ngữ cảnh: 200K token, tương đương với GLM-4.7
Đa phương tiện: Chỉ đầu vào và đầu ra văn bản - Kimi K2.5 vẫn là mô hình mở trọng số hàng đầu hỗ trợ đầu vào hình ảnh.
➤ Kích thước: 744B tham số tổng cộng, 40B tham số hoạt động. Để tự triển khai, GLM-5 sẽ yêu cầu ~1,490GB bộ nhớ để lưu trữ các trọng số ở độ chính xác BF16 gốc.
➤ Giấy phép: Giấy phép MIT
Sẵn có: Tại thời điểm chia sẻ phân tích này, GLM-5 có sẵn trên API của Z AI và một số API bên thứ ba như @novita_labs ($1/$3.2 cho 1 triệu token đầu vào/đầu ra), @gmi_cloud ($1/$3.2) và @DeepInfra ($0.8/$2.56), ở độ chính xác FP8.
➤ Token Đào tạo: Z AI cũng cho biết đã tăng khối lượng dữ liệu tiền đào tạo từ 23T lên 28.5T token.

1,79K
Hàng đầu
Thứ hạng
Yêu thích
