Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Zabil Stanford právě jemné ladění LLM?
Tento nový článek ze Stanfordu, nazvaný Agentic Context Engineering (ACE), dokazuje něco divokého: můžete dělat modely chytřejšími, aniž byste změnili jedinou váhu.
Funguje to následovně:
Namísto přetrénování modelu vyvíjí ACE samotný kontext. Model napíše vlastní výzvu, zamyslí se nad tím, co fungovalo a co ne, a pak ji přepíše. Znovu a znovu. Stává se z toho sebezdokonalující se systém.
Představte si to jako model živého zápisníku, kde se každý neúspěch stává lekcí a každý úspěch se stává pravidlem.
Výsledky jsou působivé:
- O 10,6 % lepší než agenti využívající GPT-4 v AppWorld
- 8,6% zlepšení v úkolech finančního uvažování
- O 86,9 % nižší náklady a latence
Nejsou vyžadována žádná označená data. Jen smyčky zpětné vazby.
Zde je ta neintuitivní část:
Všichni se honí za krátkými, čistými nápovědami. ACE dělá pravý opak. Vytváří hutné, vyvíjející se scénáře, které se v průběhu času sčítají.
Ukázalo se, že LLM nepotřebují jednoduchost. Potřebují hustotu kontextu.
Otázkou je, jak se všemi těmito informacemi a zkušenostmi naložit.
To je místo, kde může být vytvoření paměťové vrstvy v reálném čase pro agenty (např. @zep_ai ) skvělým řešením a aktivní oblastí výzkumu do budoucna.
Jaké jsou vaše názory?
Odkazoval jsem na tento článek v dalším tweetu!
____
Pokud vám to připadalo užitečné, sdílejte to znovu se svou sítí.
Najdi mě → @akshay_pachaar ✔️
Další poznatky a návody na LLM, AI agenty a strojové učení!

Odkaz na článek:
53,05K
Top
Hodnocení
Oblíbené