Existem talvez ~20-25 artigos que importam. Implemente esses e você capturou ~90% do alfa por trás dos LLMs modernos. Todo o resto é guarnição. Quer essa lista? Não procure mais... Os 26 Melhores Trabalhos Essenciais (+5 Recursos Bônus) para Masterização de LLMs e Transformers Esta lista faz a ponte entre as fundações do Transformer com o raciocínio, MoE e mudança agential Ordem de leitura recomendada 1. Atenção é tudo o que você precisa (Vaswani et al., 2017) > O artigo original do Transformer. Cobre a autoatenção, > atenção multi-cabeças e a estrutura codificador-decodificador > (mesmo que a maioria dos LLMs modernos seja apenas decodificador.) 2. O Transformador Ilustrado (Jay Alammar, 2018) > Ótimo construtor de intuição para entender > atenção e fluxo tensorial antes de mergulhar nas implementações 3. BERT: Pré-treinamento de transformadores bidirecionais profundos (Devlin et al., 2018) > Fundamentos do lado do codificador, modelagem de linguagem mascarada, > e aprendizagem representativa que ainda moldam as arquiteturas modernas 4. Modelos de Linguagem são Aprendizes de Poucos Tiros (GPT-3) (Brown et al., 2020) > Estabelecimento do aprendizado em contexto como algo real...