Czy Stanford właśnie zabił fine-tuning LLM? Ten nowy artykuł z Stanfordu, zatytułowany Agentic Context Engineering (ACE), udowadnia coś szalonego: można uczynić modele mądrzejszymi bez zmiany ani jednego ciężaru. Oto jak to działa: Zamiast ponownie trenować model, ACE rozwija sam kontekst. Model pisze własny prompt, zastanawia się, co zadziałało, a co nie, a następnie go przepisuje. W kółko. Staje się systemem samodoskonalącym się. Pomyśl o tym jak o modelu prowadzącym żywy notatnik, w którym każda porażka staje się lekcją, a każdy sukces regułą. Wyniki są imponujące: - 10,6% lepsze niż agenci zasilani GPT-4 w AppWorld - 8,6% poprawy w zadaniach związanych z rozumowaniem finansowym - 86,9% niższe koszty i opóźnienia Nie wymaga danych oznaczonych. Tylko pętle sprzężenia zwrotnego. Oto część, która jest sprzeczna z intuicją: Wszyscy gonią za krótkimi, czystymi promptami. ACE robi odwrotnie. Buduje gęste, ewoluujące podręczniki, które kumulują się z czasem. Okazuje się, że LLM-y nie potrzebują prostoty. Potrzebują gęstości kontekstu. Pytanie brzmi, jak zarządzać wszystkimi tymi informacjami i doświadczeniem. To tutaj budowanie warstwy pamięci w czasie rzeczywistym dla Agentów (np. @zep_ai) może być świetnym rozwiązaniem i aktywnym obszarem badań w przyszłości. Jakie są Twoje przemyślenia? Link do artykułu znajdziesz w następnym tweecie! ____ Jeśli uznałeś to za interesujące, podziel się z siecią. Znajdź mnie → @akshay_pachaar ✔️ Po więcej informacji i tutoriali na temat LLM-ów, AI Agentów i Uczenia Maszynowego!
Link do dokumentu:
61,63K