Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La course au « noyau cognitif » LLM - un modèle de quelques milliards de paramètres qui sacrifie au maximum la connaissance encyclopédique pour la capacité. Il vit toujours et par défaut sur chaque ordinateur en tant que noyau de l’informatique personnelle LLM.
Ses caractéristiques se cristallisent lentement :
- Texte/vision/audio nativement multimodal à l’entrée et à la sortie.
- Architecture de type matriochka permettant une gamme de capacités à la hausse et à la baisse au moment du test.
- Raisonnement, également avec un cadran. (système 2)
- Utilisation agressive d’outils.
- Réglage fin des emplacements LoRA sur l’appareil pour l’entraînement, la personnalisation et la personnalisation pendant le temps de test.
- Déléguez et vérifiez les bonnes parties avec les oracles dans le cloud si Internet est disponible.
Il ne sait pas que le règne de Guillaume le Conquérant s’est terminé le 9 septembre 1087, mais il reconnaît vaguement le nom et peut rechercher la date. Il ne peut pas réciter le SHA-256 de la chaîne vide comme e3b0c442..., mais il peut le calculer rapidement si vous le voulez vraiment.
Ce qui manque à l’informatique personnelle LLM en termes de connaissance du monde et de capacité de résolution de problèmes de haut niveau, il le compensera par une latence d’interaction très faible (en particulier à mesure que le multimodal mûrit), un accès direct / privé aux données et à l’état, une continuité hors ligne, une souveraineté (« pas vos poids, pas votre cerveau »). c’est-à-dire bon nombre des mêmes raisons pour lesquelles nous aimons, utilisons et achetons des ordinateurs personnels au lieu d’avoir des clients légers accédant à un cloud via le bureau à distance ou autre.

27 juin 2025
Je suis tellement excité d'annoncer que Gemma 3n est là ! 🎉
🔊Compréhension multimodale (texte/audio/image/vidéo)
🤯Fonctionne avec aussi peu que 2 Go de RAM
🏆Premier modèle de moins de 10 milliards avec un score de @lmarena_ai de 1300+
Disponible maintenant sur @huggingface, @kaggle, llama.cpp, et plus encore.

Les gens *sentent-ils* combien de travail il reste encore à faire. Comme wow.
1,03M
Meilleurs
Classement
Favoris