Nvidia dovrebbe acquisire huggingface come un modo economico per costruire integrazioni più profonde tra CUDA e l'ecosistema open-source. Quasi economico come addestrare i principali modelli open di per sé, e in linea con una maggiore apertura da parte di Nvidia nel 2025.
Mentre sto esprimendo opinioni forti, penso anche che gli hub ambientali open-source siano sopravvalutati. L'integrazione con i sistemi di addestramento + inferenza è troppo complessa al momento, quindi dovrebbero essere più su misura piuttosto che pronti all'uso.
La gente è arrabbiata per questo, ma si tratta principalmente di sentire parlare troppo degli ambienti e non abbastanza dei sistemi. La gente ha interpretato questo come un subtweet di prime intellect, ma non riguarda solo loro. Il lavoro principale di prime intellect, secondo me, è davvero sul lato dei sistemi di addestramento rl.
le persone non si rendono conto di quante startup mi contattano riguardo agli ambienti RL per XYZ
63,11K