Ci sono forse ~20-25 articoli che contano. Implementali e avrai catturato ~90% dell'alpha dietro i moderni LLM. Tutto il resto è guarnizione. Vuoi quella lista? Non cercare oltre... I 26 articoli essenziali (+5 risorse bonus) per padroneggiare LLM e Transformers Questa lista collega le basi dei Transformer con il ragionamento, MoE e il cambiamento agentico Ordine di lettura consigliato 1. Attention Is All You Need (Vaswani et al., 2017) > L'articolo originale sui Transformer. Copre l'autoattenzione, > l'attenzione multi-testa e la struttura encoder-decoder > (anche se la maggior parte dei moderni LLM sono solo decoder.) 2. The Illustrated Transformer (Jay Alammar, 2018) > Ottimo costruttore di intuizioni per comprendere > l'attenzione e il flusso dei tensori prima di immergersi nelle implementazioni 3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018) > Fondamenti lato encoder, modellazione del linguaggio mascherato, > e apprendimento delle rappresentazioni che ancora plasmano le architetture moderne 4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020) > Ha stabilito l'apprendimento in contesto come una reale...