Föll ner i ett mindre fel kaninhål efter att ha läst om Paul Christianos "Hur misslyckande ser ut" (den kom upp vid kurvan och jag kämpar för att förstå "förlust av kontroll"-scenarier) och man, alla beslutsteoretiska grejer bara omedelbart stöter på det haltande problemet direkt
Att bestämma om ett givet program kommer att mata ut en viss symbol för specifika indata är halvt avgörbart och därför ekvivalent med stoppproblemet. Alla "läs den andra agentens källkod"-baserade beslutsteori faller sönder på grund av detta faktum.
Faktum är att alla *reflekterande* beslutsteorier faller sönder på grund av detta faktum. TDT ET. al. fungerar endast i situationer där agenter inte är helt klara. Inte särskilt användbart.
Det här med logisk osäkerhet håller dock ganska bra
@azsantosk här är faktiskt en vild och ogrundad uppfattning; Att addera sannolikhet tar oss från en diskret till en kontinuerlig inställning och det är det som tar bort oavgörbarheten Det skulle vara en så vacker sats
@azsantosk så antingen är vi över eller under Turing
@azsantosk antingen har omega hyperberäkning (är en trollkarl) eller så är våra agenter inte särskilt intressanta
@azsantosk då är jag verkligen inte kapabel till självmodifiering och många andra saker som förutsätts av de olika beslutsteorierna om mindre fel dot com
10,23K