Stanford tocmai a ucis reglarea fină a LLM? Această nouă lucrare de la Stanford, numită Agentic Context Engineering (ACE), dovedește ceva sălbatic: poți face modele mai inteligente fără a schimba o singură greutate. Iată cum funcționează: În loc să reantreneze modelul, ACE evoluează contextul în sine. Modelul își scrie propriul prompt, reflectă asupra a ceea ce a funcționat și a ceea ce nu, apoi îl rescrie. Din nou și din nou. Devine un sistem care se auto-îmbunătățește. Gândiți-vă la asta ca la modelul care ține un caiet viu în care fiecare eșec devine o lecție și fiecare succes devine o regulă. Rezultatele sunt impresionante: - Cu 10,6% mai bun decât agenții alimentați de GPT-4 pe AppWorld - Îmbunătățire cu 8,6% a sarcinilor de raționament financiar - Costuri și latență cu 86,9% mai mici Nu sunt necesare date etichetate. Doar bucle de feedback. Iată partea contraintuitivă: Toată lumea urmărește solicitări scurte și curate. ACE face opusul. Construiește manuale dense, în evoluție, care se compun în timp. Se pare că LLM-urile nu au nevoie de simplitate. Au nevoie de densitate de context. Întrebarea aici este cum să gestionăm toate aceste informații și experiență. Aici construirea unui strat de memorie în timp real pentru agenți (de exemplu, @zep_ai ) poate fi o soluție excelentă și un domeniu activ de cercetare în viitor. Ce părere ai? Am legat lucrarea în următorul tweet! ____ Dacă ți s-a părut perspicace, redistribuie cu rețeaua ta. Găsește-mă → @akshay_pachaar ✔️ Pentru mai multe informații și tutoriale despre LLM-uri, agenți AI și Machine Learning!
Link către lucrare:
53,04K