Archív: 2020

Explainable AI pro detekci COVID-19

B 16:10 - 16:35

Chyby při autonomním řížení nebo při detekci COVID-19 mohou ovlivnit lidské životy, a tak je nezbytné, aby se jim umělá inteligence vyhnula. Neuronové sítě, které se při těchto úkolech používají, nevysvětlují proč se rozhodly tak jak se rozhodly nebo s jakou jistotou, a tak je těžké každé takové chybě porozumět nebo jí do budoucna zabránit. Explainable AI (vysvětlitelná umělá inteligence) jsou metody, které řeší tento problém, a tak v případě, kdy by mohla umělá inteligence selhat, přenechá řešení člověku a dělá pouze taková rozhodnutí, kde si je jista. Při detekci onemocnění COVID-19 na rentgenových nebo CT snímcích dokáže takováto technologie nahradit experta, ale co když nemocného pacienta neodhalí?

Pavel Macenauer

Pavel Macenauer je softwarovým inženýrem v NXP Machine Learning R&D skupině zaměřené na mikroprocesory a mikrokontrolery a absolventem oboru Grafika a Multimédia na FIT VUT. Aktuálně se věnuje vývoji produktů pro strojové učení od NXP nebo přispívá např. do frameworků jako Arm NN od společnosti Arm. Dříve pracoval na RTOS aplikacích pro letecký průmysl ve společnosti Honeywell a patří mezi zakladatele jednoho z největších českých fotografických webů fotoaparat.cz.