Z důvodů zdravotní situace v ČR je akce odložena na začátek února 2021.

V případě, že se po vyhlášení nového termínu nebudete moci akce zúčastnit, Vám bude poplatek na základě Vaší žádosti vrácen. Způsob podání žádosti bude upřesněn společně s vyhlášením nového termínu (Toto se netýká první 42 registrovaných studentů FIT, kteří mají akci zdarma (poplatek jim bude automaticky vrácen)).

Explainable AI pro detekci COVID-19

Místnost E105 - 16:10

Chyby při autonomním řížení nebo při detekci COVID-19 mohou ovlivnit lidské životy, a tak je nezbytné, aby se jim umělá inteligence vyhnula. Neuronové sítě, které se při těchto úkolech používají, nevysvětlují proč se rozhodly tak jak se rozhodly nebo s jakou jistotou, a tak je těžké každé takové chybě porozumět nebo jí do budoucna zabránit. Explainable AI (vysvětlitelná umělá inteligence) jsou metody, které řeší tento problém, a tak v případě, kdy by mohla umělá inteligence selhat, přenechá řešení člověku a dělá pouze taková rozhodnutí, kde si je jista. Při detekci onemocnění COVID-19 na rentgenových nebo CT snímcích dokáže takováto technologie nahradit experta, ale co když nemocného pacienta neodhalí?

Pavel Macenauer

Pavel Macenauer je softwarovým inženýrem v NXP Machine Learning R&D skupině zaměřené na mikroprocesory a mikrokontrolery a absolventem oboru Grafika a Multimédia na FIT VUT. Aktuálně se věnuje vývoji produktů pro strojové učení od NXP nebo přispívá např. do frameworků jako Arm NN od společnosti Arm. Dříve pracoval na RTOS aplikacích pro letecký průmysl ve společnosti Honeywell a patří mezi zakladatele jednoho z největších českých fotografických webů fotoaparat.cz.