Jeg ser ikke nok folk som snakker om dette. Dette er en Tesla på FSD Beta som autonomt navigerer i en McDonald's drive-thru, men det er ikke den overveldende delen. Bilen forstår hele den sosiale sekvensen: Den VET å stoppe ved bestillingsstasjonen. Den VET når bestillingen er fullført og trekker seg autonomt fremover. I det siste vinduet forlater det eksakte øyeblikket kortet hans returneres - ikke når maten overleveres. Det er ikke bare å følge en vei; det er å erkjenne at transaksjonen er fullført. Seriøst, @Tesla_Al, hvordan fungerer dette? Er det å analysere lydsignaler? Gjenkjenne spesifikke overleveringer med visjon?