Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Além de ter uma grande quantidade de dados de treinamento e excelentes recursos de raciocínio lógico, as ferramentas de IA também possuem um poderoso recurso de pensamento paralelo:
GPT ou outras ferramentas são mecanismos de linguagem com um vasto universo de conhecimento e podem realizar raciocínio lógico em velocidades ultra-altas.
O raciocínio dos humanos comuns é: linear, lento e requer recuperação de memória. A IA pode fazer cálculos paralelos em milhares de caminhos de inferência ao mesmo tempo e, em seguida, apresentar os mais prováveis de serem úteis.
Por exemplo, se você fizer uma pergunta, a IA calcula instantaneamente 200 ~ 2000 respostas viáveis ao mesmo tempo, pontua, classifica, mescla e produz a combinação ideal.
GPT diz: Você faz uma pergunta e eu gero um "universo de respostas candidatas" e escolho automaticamente aquela que mais se assemelha à que você gostaria e faz mais sentido. (Parece que há uma tendência a agradá-lo)
No coração do GPT, a Atenção é uma estrutura natural de "pensamento paralelo". Ele permite que o modelo se concentre em várias partes da entrada ao mesmo tempo, explore vários caminhos de raciocínio ao mesmo tempo e gere vários cálculos de candidatos ao mesmo tempo, e as cabeças de atenção são as "unidades de pensamento paralelo".
Inferência paralela = paralelismo de cabeças de atenção + paralelismo gerado por árvores + paralelismo de cadeias de inferência multiversão. Eles vêm de: Atenção, um "pensamento multifocal" paralelo natural. Pesquisa de feixe / árvore de pensamento, geração de caminho de resposta de vários candidatos. Self-Consistency & Reasoning Engine, validação cruzada de cadeia de inferência multi-versão, escolha o melhor.
Melhores
Classificação
Favoritos

