Hörde från en entreprenör på OpenAI att en intern modell var så bra på att generera kod att den började fixa buggar i själva testramverket. Utvecklare var tvungna att separera dess utdata från sina egna verktyg eftersom den fortsatte att korrigera saker som de inte bad den om.