Artsen vertrouwen vaak op medische beelden samen met onderzoeken, laboratoriumtests en patiëntgeschiedenissen om hen te helpen patiënten te diagnosticeren. Maar zelfs de beste vision-language modellen die zijn ontworpen om deze beelden te interpreteren, maken fouten. Soms hallucineren ze. Om dit probleem aan te pakken hebben onderzoekers van MBZUAI een nieuwe benadering ontwikkeld genaamd MOTOR, een stap richting het nauwkeuriger maken van AI-tools in klinische omgevingen. Het combineert retrieval-augmented generation (RAG) met een algoritme genaamd optimale transport om klinisch relevante beelden en tekst op te halen, rangschikt ze en voert ze in bij een vision-language model voor verwerking. Het onderzoek, geleid door PhD-student Mai A. Shaaban, werd gepresenteerd op #MICCAI2025. Lees hier meer over MOTOR: