Além de ter uma grande quantidade de dados de treinamento e excelentes recursos de raciocínio lógico, as ferramentas de IA também possuem um poderoso recurso de pensamento paralelo: GPT ou outras ferramentas são mecanismos de linguagem com um vasto universo de conhecimento e podem realizar raciocínio lógico em velocidades ultra-altas. O raciocínio dos humanos comuns é: linear, lento e requer recuperação de memória. A IA pode fazer cálculos paralelos em milhares de caminhos de inferência ao mesmo tempo e, em seguida, apresentar os mais prováveis de serem úteis. Por exemplo, se você fizer uma pergunta, a IA calcula instantaneamente 200 ~ 2000 respostas viáveis ao mesmo tempo, pontua, classifica, mescla e produz a combinação ideal. GPT diz: Você faz uma pergunta e eu gero um "universo de respostas candidatas" e escolho automaticamente aquela que mais se assemelha à que você gostaria e faz mais sentido. (Parece que há uma tendência a agradá-lo) No coração do GPT, a Atenção é uma estrutura natural de "pensamento paralelo". Ele permite que o modelo se concentre em várias partes da entrada ao mesmo tempo, explore vários caminhos de raciocínio ao mesmo tempo e gere vários cálculos de candidatos ao mesmo tempo, e as cabeças de atenção são as "unidades de pensamento paralelo". Inferência paralela = paralelismo de cabeças de atenção + paralelismo gerado por árvores + paralelismo de cadeias de inferência multiversão. Eles vêm de: Atenção, um "pensamento multifocal" paralelo natural. Pesquisa de feixe / árvore de pensamento, geração de caminho de resposta de vários candidatos. Self-Consistency & Reasoning Engine, validação cruzada de cadeia de inferência multi-versão, escolha o melhor.