Hat Stanford gerade das Fine-Tuning von LLMs abgeschafft? Dieses neue Papier von Stanford, genannt Agentic Context Engineering (ACE), beweist etwas Wildes: Man kann Modelle intelligenter machen, ohne ein einziges Gewicht zu ändern. So funktioniert es: Anstatt das Modell neu zu trainieren, entwickelt ACE den Kontext selbst weiter. Das Modell schreibt seinen eigenen Prompt, reflektiert darüber, was funktioniert hat und was nicht, und schreibt ihn dann neu. Immer wieder. Es wird zu einem selbstverbessernden System. Stell dir vor, das Modell führt ein lebendiges Notizbuch, in dem jeder Fehler eine Lektion und jeder Erfolg eine Regel wird. Die Ergebnisse sind beeindruckend: - 10,6 % besser als GPT-4-gesteuerte Agenten auf AppWorld - 8,6 % Verbesserung bei finanziellen Denkaufgaben - 86,9 % geringere Kosten und Latenz Keine gekennzeichneten Daten erforderlich. Nur Feedback-Schleifen. Hier ist der kontraintuitive Teil: Alle jagen nach kurzen, klaren Prompts. ACE macht das Gegenteil. Es erstellt dichte, sich entwickelnde Handbücher, die sich im Laufe der Zeit kumulieren. Es stellt sich heraus, dass LLMs keine Einfachheit brauchen. Sie brauchen Kontextdichte. Die Frage hier ist, wie man all diese Informationen und Erfahrungen verwalten kann. Hier kann der Aufbau einer Echtzeit-Speicherschicht für Agenten (z. B. @zep_ai) eine großartige Lösung und ein aktives Forschungsfeld für die Zukunft sein. Was sind deine Gedanken? Ich habe das Papier im nächsten Tweet verlinkt! ____ Wenn du es aufschlussreich fandest, teile es mit deinem Netzwerk. Finde mich → @akshay_pachaar ✔️ Für weitere Einblicke und Tutorials zu LLMs, KI-Agenten und maschinellem Lernen!
Link zum Papier:
38,28K