B 16:10 - 16:35
Chyby při autonomním řížení nebo při detekci COVID-19 mohou ovlivnit lidské životy, a tak je nezbytné, aby se jim umělá inteligence vyhnula. Neuronové sítě, které se při těchto úkolech používají, nevysvětlují proč se rozhodly tak jak se rozhodly nebo s jakou jistotou, a tak je těžké každé takové chybě porozumět nebo jí do budoucna zabránit. Explainable AI (vysvětlitelná umělá inteligence) jsou metody, které řeší tento problém, a tak v případě, kdy by mohla umělá inteligence selhat, přenechá řešení člověku a dělá pouze taková rozhodnutí, kde si je jista. Při detekci onemocnění COVID-19 na rentgenových nebo CT snímcích dokáže takováto technologie nahradit experta, ale co když nemocného pacienta neodhalí?