Un anello mancante tra i Trasformatori e il cervello? 🧠
Dragon Hatchling (BDH) è una nuova architettura LLM basata su una rete biologicamente ispirata e senza scala di particelle neuronali che interagiscono localmente. Rivaleggia con le prestazioni di GPT2, ma è progettata per l'interpretabilità.
Qwen ha appena rilasciato Qwen3-4B-SafeRL su Hugging Face
Un modello allineato alla sicurezza che utilizza l'apprendimento per rinforzo per essere robusto contro i prompt dannosi senza sacrificare l'utilità.
I modelli multimodali unificati traggono davvero beneficio dall'unificazione?
Presentiamo RealUnify, un nuovo benchmark per valutare la sinergia della capacità bidirezionale tra comprensione e generazione. Scopriamo che i modelli attuali faticano ancora a integrare efficacemente queste abilità.