Ik wil geen GPT-6, ik wil een GPT-5 die continu kan worden getraind op mijn groeiende codebase/domein, zodat het niet alles opnieuw hoeft te leren elke keer dat ik het aanroep. Ik ben zo moe van het opnieuw leren hoe je correcte HVM-code schrijft. Werkt er iemand daar eigenlijk aan?
Hoe slecht geschreven is deze post als mensen serieus denken dat AGENTS .md is wat ik vraag. Jongens, let op. De enorme hoeveelheid dingen die ik het model moet leren, kan simpelweg niet alleen door prompts worden onderwezen... LLM's zijn als wezens die in bestaan komen, een kort moment leven en dan verdwijnen. Als ze 97% van hun levensduur besteden aan het leren van jouw domein, houd je 3% over voor het daadwerkelijke werk. Dat is het probleem waar ik het over heb. Wat me echt bezighoudt, is dat ik een goed model elke nacht continu zou moeten bijschaven op mijn codebase. Ik weet niet zeker of dat om welke reden dan ook een vreselijk idee is, maar het hebben van de domeinspecifieke kennis ingebakken in de gewichten zou de context vrijmaken om 100% toegepast te worden voor nuttig werk.
Hoe slecht geschreven is deze post als mensen serieus denken dat AGENTS .md is wat ik vraag. Jongens, let op. De enorme hoeveelheid domeinspecifieke concepten en vaardigheden die ik het model moet leren om het nuttig te maken, is gewoon te groot om alleen door middel van prompts te leren... Zie, LLM's zijn als wezens die in bestaan komen, een kort moment leven en dan verdwijnen. Als ze 97% van hun levensduur besteden aan het leren van jouw domein, houd je 3% over voor het daadwerkelijke werk. Dat is het probleem waar ik het over heb. Wat me echt bezighoudt, is dat ik een goed model continu zou moeten bijschaven op mijn codebase, elke nacht. Ik weet niet zeker of dat om welke reden dan ook een vreselijk idee is, maar het hebben van de domeinspecifieke kennis ingebakken in de gewichten zou de context vrijmaken om 100% toegepast te worden voor nuttig werk.
Hoe slecht geschreven is deze post als mensen serieus denken dat AGENTS .md is wat ik vraag. Jongens, let op. De hoeveelheid domeinspecifieke concepten en vaardigheden die ik het model moet leren is gewoon te groot. Alleen prompten is niet de oplossing Zie, LLM's zijn als wezens die in bestaan komen, een kort moment leven en dan verdwijnen. Als ze 97% van hun levensduur besteden aan het leren van jouw domein, houd je 3% over voor het daadwerkelijke werk. Dat is het probleem waar ik het over heb Wat me echt bezighoudt is dat ik een goed model continu zou moeten bijschaven op mijn codebase, elke nacht. Ik weet niet zeker of dat om welke reden dan ook een vreselijk idee is, maar het hebben van de domeinspecifieke kennis ingebakken in de gewichten zou de context vrijmaken om 100% toegepast te worden voor nuttig werk.
tldr laat me gpt-5 fijn afstemmen alsjeblieft
238,49K