Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Es gibt vielleicht ~20-25 wichtige Arbeiten.
Wenn du diese umsetzt, hast du ~90% des Alpha hinter modernen LLMs erfasst.
Alles andere ist Garnitur.
Willst du diese Liste? Suche nicht weiter...
Die Top 26 Essentiellen Arbeiten (+5 Bonusressourcen)
zum Beherrschen von LLMs und Transformern
Diese Liste verbindet die Grundlagen der Transformer
mit dem Denken, MoE und dem agentischen Wandel
Empfohlene Leseordnung
1. Attention Is All You Need (Vaswani et al., 2017)
> Das ursprüngliche Transformer-Papier. Behandelt Selbstaufmerksamkeit,
> Multi-Head-Attention und die Encoder-Decoder-Struktur
> (auch wenn die meisten modernen LLMs nur Decoder sind.)
2. The Illustrated Transformer (Jay Alammar, 2018)
> Großartige Intuition für das Verständnis
> von Aufmerksamkeit und Tensorfluss, bevor man in Implementierungen eintaucht
3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018)
> Grundlagen auf der Encoder-Seite, maskiertes Sprachmodellieren,
> und Repräsentationslernen, die moderne Architekturen weiterhin prägen
4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020)
> Etablierte das In-Context-Lernen als eine echte...
Top
Ranking
Favoriten
