Tappoiko Stanford juuri LLM:n hienosäädön? Tämä uusi Stanfordin tutkimus nimeltä Agentic Context Engineering (ACE) todistaa jotain hurjaa: voit tehdä malleista älykkäämpiä muuttamatta yhtään painoa. Näin se toimii: Sen sijaan, että ACE kouluttaisi mallin uudelleen, se kehittää itse kontekstia. Malli kirjoittaa oman kehotteensa, pohtii, mikä toimi ja mikä ei, ja kirjoittaa sen sitten uudelleen. Uudestaan ja uudestaan. Siitä tulee itseään parantava järjestelmä. Ajattele sitä kuin mallia, joka pitää elävää muistikirjaa, jossa jokaisesta epäonnistumisesta tulee oppitunti ja jokaisesta menestyksestä sääntö. Tulokset ovat vaikuttavia: - 10,6 % parempi kuin GPT-4-pohjaiset agentit AppWorldissä - 8,6 % parannus taloudellisen päättelyn tehtävissä - 86,9 % pienemmät kustannukset ja latenssi Merkityjä tietoja ei tarvita. Vain palautesilmukoita. Tässä on intuitiivisen vastakkainen osa: Kaikki jahtaavat lyhyitä, puhtaita kehotteita. ACE toimii päinvastoin. Se rakentaa tiheitä, kehittyviä pelikirjoja, jotka kasaantuvat ajan myötä. Osoittautuu, että LLM:t eivät tarvitse yksinkertaisuutta. Ne tarvitsevat kontekstitiheyttä. Kysymys on siitä, kuinka hallita kaikkea tätä tietoa ja kokemusta. Tässä reaaliaikaisen muistikerroksen rakentaminen agenteille (esim. @zep_ai ) voi olla loistava ratkaisu ja aktiivinen tutkimusalue jatkossa. Mitä mieltä olet? Olen linkittänyt artikkelin seuraavassa twiitissä! ____ Jos se oli mielestäsi oivaltava, jaa se uudelleen verkostosi kanssa. Etsi minut → @akshay_pachaar ✔️ Lisää näkemyksiä ja opetusohjelmia LLM:istä, tekoälyagenteista ja koneoppimisesta!
Linkki artikkeliin:
38,28K