Jag vill inte ha GPT-6, jag vill ha en GPT-5 som kontinuerligt kan tränas på min växande kodbas/domän, så att den inte behöver lära sig allt på nytt varje gång jag ringer den. Jag är så trött på att lära den hur man skriver korrekt HVM-kod. Är det någon som arbetar med det, över huvud taget?
Hur dåligt skrivet är det här inlägget om folk på allvar tror att AGENTS .md är vad jag ber om. Killar, var uppmärksamma. Den stora mängd saker jag behöver lära modellen är att det helt enkelt inte går att lära sig genom att bara mana... LLM:er är som varelser som dyker upp, lever ett kort ögonblick och sedan försvinner. Om de spenderar 97 % av sin livstid på att lära sig din domän, har du 3 % kvar för det faktiska arbetet. Det är det problemet jag pratar om. Vad jag verkligen tänker på är att jag kontinuerligt ska finjustera en bra modell på min kodbas varje natt. Jag är inte säker på om det är en hemsk idé av någon anledning, men att ha den domänspecifika kunskapen inbakad i vikterna skulle frigöra sammanhanget för att tillämpas till 100 % för att göra användbart arbete
Hur dåligt skrivet är det här inlägget om folk på allvar tror att AGENTS .md är vad jag ber om. Killar, var uppmärksamma. Den stora mängden domänspecifika begrepp och färdigheter som jag behöver lära ut modellen för att den ska vara användbar är helt enkelt för stor för att läras ut genom att bara fråga ... Du förstår, LLM:er är som varelser som dyker upp, lever ett kort ögonblick och sedan försvinner. Om de spenderar 97 % av sin livstid på att lära sig din domän, har du 3 % kvar för det faktiska arbetet. Det är det problemet jag pratar om. Vad jag verkligen tänker på är att jag kontinuerligt ska finjustera en bra modell på min kodbas varje natt. Jag är inte säker på om det är en hemsk idé av någon anledning, men att ha den domänspecifika kunskapen inbakad i vikterna skulle frigöra sammanhanget för att tillämpas till 100 % för att göra användbart arbete
Hur dåligt skrivet är det här inlägget om folk på allvar tror att AGENTS .md är vad jag ber om. Killar, var uppmärksamma. Mängden domänspecifika begrepp och färdigheter som jag behöver lära ut modellen är helt enkelt för stor. Enbart uppmaningar är inte lösningen Du förstår, LLM:er är som varelser som dyker upp, lever ett kort ögonblick och sedan försvinner. Om de spenderar 97 % av sin livstid på att lära sig din domän, har du 3 % kvar för det faktiska arbetet. Det är det problemet jag pratar om Vad jag verkligen tänker på är att jag kontinuerligt ska finjustera en bra modell på min kodbas varje natt. Jag är inte säker på om det är en hemsk idé av någon anledning, men att ha den domänspecifika kunskapen inbakad i vikterna skulle frigöra sammanhanget för att tillämpas till 100 % för att göra användbart arbete
tldr låt mig finjustera GPT-5 pls
238,5K