Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Analisis independen model AI dan penyedia hosting - pilih model dan penyedia API terbaik untuk kasus penggunaan Anda
IBM telah meluncurkan Granite 4.0 - keluarga baru model bahasa bobot terbuka mulai dari 3B hingga 32B. Analisis Buatan disediakan akses pra-rilis, dan pembandingan kami menunjukkan Granite 4.0 H Small (parameter total/aktif 32B/9B) mencetak Indeks Kecerdasan 23, dengan kekuatan khusus dalam efisiensi token
Hari ini IBM merilis empat model baru: Granite 4.0 H Small (32B/9B total/parameter aktif), Granite 4.0 H Tiny (7B/1B), Granite 4.0 H Micro (3B/3B) dan Granite 4.0 Micro (3B/3B). Kami mengevaluasi Granite 4.0 Small (dalam mode non-penalaran) dan Granite 4.0 Micro menggunakan Indeks Kecerdasan Analisis Buatan. Model granit 4.0 menggabungkan sejumlah kecil lapisan perhatian bergaya transformator standar dengan sebagian besar lapisan Mamba yang mengklaim dapat mengurangi kebutuhan memori tanpa memengaruhi kinerja
Poin utama pembandingan:
➤ 🧠 Granit 4.0 H Kecerdasan Kecil: Dalam non-penalaran, Granit 4.0 H Small mendapat skor 23 pada indeks Kecerdasan Analisis Buatan - lompatan +8 poin pada Indeks dibandingkan dengan IBM Granite 3.3 8B (Non Reasoning). Granit 4.0 H Tempat kecil di depan Gemma 3 27B (22) tetapi di belakang Mistral Small 3.2 (29), EXAONE 4.0 32B (Non-Reasoning, 30) dan Qwen3 30B A3B 2507 (Non-Reasoning, 37) dalam kecerdasan
➤ ⚡ Kecerdasan Mikro Granit 4.0: Pada Indeks Kecerdasan Analisis Buatan, skor Mikro Granit 4.0 16. Ini menempati posisi di depan Gemma 3 4B (15) dan LFM 2 2,6B (12).
➤ ⚙️ Efisiensi token: Granite 4.0 H Small dan Micro menunjukkan efisiensi token yang mengesankan - Granite 4.0 Small menggunakan 5.2M, sedangkan Granite 4.0 Micro menggunakan 6.7 juta token untuk menjalankan Indeks Kecerdasan Analisis Buatan. Kedua model token lebih sedikit daripada Granite 3.3 8B (Non-Reasoning) dan sebagian besar model non-penalaran bobot terbuka lainnya yang lebih kecil dari parameter total 40B (kecuali Qwen3 0.6B yang menggunakan 1.9 juta token keluaran)
Detail model utama:
➤ 🌐 Ketersediaan: Keempat model tersedia di Hugging Face. Granite 4.0 H Small tersedia di Replika dan dihargai $0,06/$0,25 per 1 juta token input/output
➤ 📏 Jendela Konteks: 128K token
➤ ©️ Lisensi: Model Granite 4.0 tersedia di bawah lisensi Apache 2.0


30,47K
DeepSeek telah meluncurkan V3.2 Exp dengan arsitektur DeepSeek Sparse Attention (DSA) baru mereka yang mengklaim dapat mengurangi dampak penskalaan kuadrat komputasi dengan panjang konteks
Kami telah secara independen membandingkan V3.2 Exp sebagai pencapaian kecerdasan yang serupa dengan DeepSeek V3.1 Terminus; DeepSeek telah beralih menggunakan V3.2 untuk titik akhir API utama mereka dan telah mengurangi harga API sebesar >50%. Dengan harga API pihak pertama DeepSeek yang diperbarui, biaya untuk menjalankan Indeks Kecerdasan Analisis Buatan turun dari $114 menjadi $41.
DeepSeek mengklaim telah "sengaja menyelaraskan" konfigurasi pelatihan V3.1 Terminus dan V3.2 Exp. Pencocokan kinerja V3.1 Kinerja Terminus tampaknya menunjukkan bahwa manfaat kinerja arsitektur DeepSeek Spare Attention tidak mengorbankan kecerdasan.
Poin utama pembandingan:
➤ 🧠 Tidak ada perubahan dalam kecerdasan agregat: Dalam mode penalaran, DeepSeek V3.2 Exp mendapat skor 57 pada Indeks Kecerdasan Analisis Buatan. Kami melihat ini setara dalam kecerdasan dengan DeepSeek V3.1 Terminus (Penalaran)
➤ 📈 Tidak ada penurunan dalam penalaran konteks panjang: Terlepas dari perubahan arsitektur DeepSeek, V3.2 Exp (Penalaran) tampaknya tidak menunjukkan penurunan dalam penalaran konteks panjang - mencetak sedikit peningkatan dalam AA-LCR.
➤ ⚡ Performa non-penalaran: Dalam mode non-penalaran, DeepSeek V3.2 Exp tidak menunjukkan penurunan kecerdasan, cocok dengan DeepSeek V3.1 Terminus dengan skor 46 pada Indeks Kecerdasan Analisis Buatan
➤ ⚙️ Efisiensi token: Untuk DeepSeek V3.2 Exp (Reasoning), penggunaan token untuk menjalankan Indeks Kecerdasan Analisis Buatan sedikit menurun dari 67M menjadi 62M dibandingkan dengan V3.1 Terminus. Penggunaan token tetap tidak berubah untuk varian non-penalaran
➤💲Harga: DeepSeek telah secara signifikan mengurangi harga per token untuk API pihak pertama mereka dari $0,56/$1,68 menjadi $0,28/$0,42 per 1 juta token input/output - pengurangan masing-masing 50% dan 75% dalam harga token input dan output.
Detail model lainnya:
➤ ©️ Lisensi: DeepSeek V3.2 Exp tersedia di bawah Lisensi MIT
➤ 🌐 Ketersediaan: DeepSeek V3.2 Exp tersedia melalui DeepSeek API, yang telah menggantikan DeepSeek V3.1 Terminus. Pengguna masih dapat mengakses DeepSeek V3.1 Terminus melalui API DeepSeek sementara hingga 15 Oktober
➤ 📏 Ukuran: DeepSeek V3.2 Exp memiliki 671B total parameter dan 37B parameter aktif. Ini sama dengan semua model sebelumnya dalam seri DeepSeek V3 dan R1

40,93K
ServiceNow telah merilis Apriel-v1.5-15B-Thinker, model penalaran bobot terbuka 15B yang memimpin kategori Model Kecil kami (parameter <40B)
💼 Gambaran Umum: Apriel-v1.5-15B-Thinker adalah model penalaran bobot terbuka parameter 15B yang padat. Ini bukan model pertama yang dirilis ServiceNow tetapi merupakan lompatan substansial dalam kecerdasan yang dicapai dibandingkan dengan rilis sebelumnya
🧠 Intelijen: Model ini mencetak skor 52 dalam Indeks Kecerdasan Analisis Buatan. Ini menempatkannya setara dengan DeepSeek R1 0528, yang memiliki arsitektur parameter 685B yang jauh lebih besar. Model ServiceNow mendapat skor yang sangat baik dalam perilaku penting untuk agen perusahaan, seperti instruksi mengikuti (62% di IFBench, di depan gpt-oss-20B, penalaran) dan konversi multi-putaran & penggunaan alat (68% di τ²-Bench Telecom, di depan gpt-oss-120B, penalaran). Hal ini membuatnya sangat cocok untuk kasus penggunaan agen, yang kemungkinan merupakan fokus mengingat ServiceNow aktif di ruang agen perusahaan
⚙️ Token output dan verbositas: Model ini menghasilkan sejumlah besar token keluaran bahkan di antara model penalaran - menggunakan token penalaran dan jawaban gabungan ~110 juta untuk menyelesaikan Indeks Kecerdasan Analisis Buatan
🖥️ Akses: Belum ada penyedia inferensi nirserver yang melayani model, tetapi sekarang tersedia di Hugging Face untuk inferensi lokal atau penyebaran mandiri. Model ini telah dirilis di bawah lisensi MIT, mendukung penggunaan komersial tanpa batas
i️ Jendela konteks: Model ini memiliki jendela konteks asli 128k token.
Selamat kepada @ServiceNowRSRCH atas hasil yang mengesankan ini!

73,92K
Teratas
Peringkat
Favorit