Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Czy Stanford właśnie zabił fine-tuning LLM?
Ten nowy artykuł z Stanfordu, zatytułowany Agentic Context Engineering (ACE), udowadnia coś szalonego: można uczynić modele mądrzejszymi bez zmiany ani jednego ciężaru.
Oto jak to działa:
Zamiast ponownie trenować model, ACE rozwija sam kontekst. Model pisze własny prompt, zastanawia się, co zadziałało, a co nie, a następnie go przepisuje. W kółko. Staje się systemem samodoskonalącym się.
Pomyśl o tym jak o modelu prowadzącym żywy notatnik, w którym każda porażka staje się lekcją, a każdy sukces regułą.
Wyniki są imponujące:
- 10,6% lepsze niż agenci zasilani GPT-4 w AppWorld
- 8,6% poprawy w zadaniach związanych z rozumowaniem finansowym
- 86,9% niższe koszty i opóźnienia
Nie wymaga danych oznaczonych. Tylko pętle sprzężenia zwrotnego.
Oto część, która jest sprzeczna z intuicją:
Wszyscy gonią za krótkimi, czystymi promptami. ACE robi odwrotnie. Buduje gęste, ewoluujące podręczniki, które kumulują się z czasem.
Okazuje się, że LLM-y nie potrzebują prostoty. Potrzebują gęstości kontekstu.
Pytanie brzmi, jak zarządzać wszystkimi tymi informacjami i doświadczeniem.
To tutaj budowanie warstwy pamięci w czasie rzeczywistym dla Agentów (np. @zep_ai) może być świetnym rozwiązaniem i aktywnym obszarem badań w przyszłości.
Jakie są Twoje przemyślenia?
Link do artykułu znajdziesz w następnym tweecie!
____
Jeśli uznałeś to za interesujące, podziel się z siecią.
Znajdź mnie → @akshay_pachaar ✔️
Po więcej informacji i tutoriali na temat LLM-ów, AI Agentów i Uczenia Maszynowego!

Link do dokumentu:
61,63K
Najlepsze
Ranking
Ulubione