Noam Brown, ricercatore di OpenAI, parla dell'allucinazione con il nuovo modello di ragionamento IMO: > I matematici erano soliti passare al setaccio le soluzioni dei modelli perché i sistemi precedenti capovolgevano silenziosamente una disuguaglianza o facevano un passo falso, creando risposte allucinate. > Brown afferma che il modello di ragionamento IMO aggiornato ora tende a dire "non sono sicuro" ogni volta che manca una prova valida, il che riduce drasticamente quegli errori nascosti. In breve, il modello mostra un chiaro allontanamento dalle allucinazioni verso un ragionamento affidabile e consapevole.
220,55K