Jeg vil ikke ha GPT-6, jeg vil ha en GPT-5 som kontinuerlig kan trenes på min voksende kodebase/domene, slik at den ikke trenger å lære alt på nytt hver gang jeg kaller den. Jeg er så lei av å lære den på nytt hvordan man skriver riktig HVM-kode. Er det noen som jobber med det, i det hele tatt?
Hvor dårlig skrevet er ikke dette innlegget hvis folk seriøst tror AGENTS .md er det jeg ber om. Gutter, vær oppmerksomme. Den store mengden ting jeg trenger for å lære modellen er rett og slett ikke kan læres ved å spørre alene ... LLM-er er som skapninger som gyter til eksistens, lever i et kort øyeblikk og deretter forsvinner. Hvis de bruker 97 % av livet på å lære domenet ditt, sitter du igjen med 3 % for det faktiske arbeidet. Det er problemet jeg snakker om. Det jeg virkelig tenker på er at jeg kontinuerlig bør finjustere en god modell på kodebasen min hver natt. Jeg er ikke sikker på om det er en forferdelig idé av en eller annen grunn, men å ha den domenespesifikke kunnskapen bakt inn i vektene ville frigjøre konteksten til å bli 100 % brukt til å gjøre nyttig arbeid
Hvor dårlig skrevet er ikke dette innlegget hvis folk seriøst tror AGENTS .md er det jeg ber om. Gutter, vær oppmerksomme. Den store mengden domenespesifikke konsepter og ferdigheter jeg trenger for å lære modellen for at den skal være nyttig, er rett og slett for stor til å bli undervist ved å spørre alene ... Se, LLM-er er som skapninger som gyter til eksistens, lever i et kort øyeblikk og deretter forsvinner. Hvis de bruker 97 % av livet på å lære domenet ditt, sitter du igjen med 3 % for det faktiske arbeidet. Det er problemet jeg snakker om. Det jeg virkelig tenker på er at jeg kontinuerlig bør finjustere en god modell på kodebasen min hver natt. Jeg er ikke sikker på om det er en forferdelig idé av en eller annen grunn, men å ha den domenespesifikke kunnskapen bakt inn i vektene ville frigjøre konteksten til å bli 100 % brukt til å gjøre nyttig arbeid
Hvor dårlig skrevet er ikke dette innlegget hvis folk seriøst tror AGENTS .md er det jeg ber om. Gutter, vær oppmerksomme. Mengden domenespesifikke konsepter og ferdigheter jeg trenger for å lære modellen er rett og slett for stor. Å spørre alene er ikke løsningen Se, LLM-er er som skapninger som gyter til eksistens, lever i et kort øyeblikk og deretter forsvinner. Hvis de bruker 97 % av livet på å lære domenet ditt, sitter du igjen med 3 % for det faktiske arbeidet. Det er problemet jeg snakker om Det jeg virkelig tenker på er at jeg kontinuerlig bør finjustere en god modell på kodebasen min hver natt. Jeg er ikke sikker på om det er en forferdelig idé av en eller annen grunn, men å ha den domenespesifikke kunnskapen bakt inn i vektene ville frigjøre konteksten til å bli 100 % brukt til å gjøre nyttig arbeid
TLDR La meg finjustere GPT-5 pls
237,41K