Geoffrey Hinton twierdzi, że halucynacje AI powinny być nazywane konfabulacjami Ani ludzki mózg, ani modele AI nie przechowują wspomnień w szafce na dokumenty; oba konstruują przypomnienia na bieżąco, wykorzystując siły połączeń Z tego powodu oba będą pewnie generować wiarygodne odpowiedzi, nie znając prawdy.