Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Stanford vient-il de tuer le fine-tuning des LLM ?
Ce nouvel article de Stanford, intitulé Agentic Context Engineering (ACE), prouve quelque chose d'incroyable : vous pouvez rendre les modèles plus intelligents sans changer un seul poids.
Voici comment cela fonctionne :
Au lieu de réentraîner le modèle, ACE fait évoluer le contexte lui-même. Le modèle écrit son propre prompt, réfléchit à ce qui a fonctionné et à ce qui n'a pas fonctionné, puis le réécrit. Encore et encore. Cela devient un système d'auto-amélioration.
Pensez-y comme si le modèle tenait un carnet vivant où chaque échec devient une leçon et chaque succès devient une règle.
Les résultats sont impressionnants :
- 10,6 % de mieux que les agents alimentés par GPT-4 sur AppWorld
- 8,6 % d'amélioration sur les tâches de raisonnement financier
- 86,9 % de coûts et de latence en moins
Aucune donnée étiquetée requise. Juste des boucles de rétroaction.
Voici la partie contre-intuitive :
Tout le monde recherche des prompts courts et clairs. ACE fait le contraire. Il construit des playbooks denses et évolutifs qui s'accumulent au fil du temps.
Il s'avère que les LLM n'ont pas besoin de simplicité. Ils ont besoin de densité de contexte.
La question ici est comment gérer toutes ces informations et cette expérience.
C'est là que la construction d'une couche de mémoire en temps réel pour les Agents (par exemple, @zep_ai) peut être une excellente solution et un domaine de recherche actif à l'avenir.
Qu'en pensez-vous ?
J'ai lié l'article dans le tweet suivant !
____
Si vous l'avez trouvé intéressant, partagez-le avec votre réseau.
Trouvez-moi → @akshay_pachaar ✔️
Pour plus d'informations et de tutoriels sur les LLM, les Agents IA et l'apprentissage automatique !

Lien vers le document :
61,64K
Meilleurs
Classement
Favoris