Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ci sono forse ~20-25 articoli che contano.
Implementali e avrai catturato ~90% dell'alpha dietro i moderni LLM.
Tutto il resto è guarnizione.
Vuoi quella lista? Non cercare oltre...
I 26 articoli essenziali (+5 risorse bonus)
per padroneggiare LLM e Transformers
Questa lista collega le basi dei Transformer
con il ragionamento, MoE e il cambiamento agentico
Ordine di lettura consigliato
1. Attention Is All You Need (Vaswani et al., 2017)
> L'articolo originale sui Transformer. Copre l'autoattenzione,
> l'attenzione multi-testa e la struttura encoder-decoder
> (anche se la maggior parte dei moderni LLM sono solo decoder.)
2. The Illustrated Transformer (Jay Alammar, 2018)
> Ottimo costruttore di intuizioni per comprendere
> l'attenzione e il flusso dei tensori prima di immergersi nelle implementazioni
3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018)
> Fondamenti lato encoder, modellazione del linguaggio mascherato,
> e apprendimento delle rappresentazioni che ancora plasmano le architetture moderne
4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020)
> Ha stabilito l'apprendimento in contesto come una reale...
Principali
Ranking
Preferiti
