在这种上下文处理水平下,模型是否愚蠢几乎无关紧要 你可以为每个特定用例构建一个256K的卡带(比如,使用5.2-xhigh),并让一个协调者来打乱它们 这个所谓的“轻量”模型可以像任何东西一样前沿