Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tappoiko Stanford juuri LLM:n hienosäädön?
Tämä uusi Stanfordin tutkimus nimeltä Agentic Context Engineering (ACE) todistaa jotain hurjaa: voit tehdä malleista älykkäämpiä muuttamatta yhtään painoa.
Näin se toimii:
Sen sijaan, että ACE kouluttaisi mallin uudelleen, se kehittää itse kontekstia. Malli kirjoittaa oman kehotteensa, pohtii, mikä toimi ja mikä ei, ja kirjoittaa sen sitten uudelleen. Uudestaan ja uudestaan. Siitä tulee itseään parantava järjestelmä.
Ajattele sitä kuin mallia, joka pitää elävää muistikirjaa, jossa jokaisesta epäonnistumisesta tulee oppitunti ja jokaisesta menestyksestä sääntö.
Tulokset ovat vaikuttavia:
- 10,6 % parempi kuin GPT-4-pohjaiset agentit AppWorldissä
- 8,6 % parannus taloudellisen päättelyn tehtävissä
- 86,9 % pienemmät kustannukset ja latenssi
Merkityjä tietoja ei tarvita. Vain palautesilmukoita.
Tässä on intuitiivisen vastakkainen osa:
Kaikki jahtaavat lyhyitä, puhtaita kehotteita. ACE toimii päinvastoin. Se rakentaa tiheitä, kehittyviä pelikirjoja, jotka kasaantuvat ajan myötä.
Osoittautuu, että LLM:t eivät tarvitse yksinkertaisuutta. Ne tarvitsevat kontekstitiheyttä.
Kysymys on siitä, kuinka hallita kaikkea tätä tietoa ja kokemusta.
Tässä reaaliaikaisen muistikerroksen rakentaminen agenteille (esim. @zep_ai ) voi olla loistava ratkaisu ja aktiivinen tutkimusalue jatkossa.
Mitä mieltä olet?
Olen linkittänyt artikkelin seuraavassa twiitissä!
____
Jos se oli mielestäsi oivaltava, jaa se uudelleen verkostosi kanssa.
Etsi minut → @akshay_pachaar ✔️
Lisää näkemyksiä ja opetusohjelmia LLM:istä, tekoälyagenteista ja koneoppimisesta!

Linkki artikkeliin:
38,28K
Johtavat
Rankkaus
Suosikit