Aktualita

Kategorie: novinka

Dne: 7. října 2025

V říjnu obhajuje svou disertační práci Anton Firc z Ústavu inteligentních systémů

[img]

Rádi bychom vás pozvali na veřejnou obhajobu disertační práce Ing. Antona Firce, která se uskuteční v úterý 21. 10. 2025 od 15:00 v místnosti C209. Práce vznikla pod vedení školitele doc. Kamila Malinky.

Anton Firc je členem výzkumné skupiny Security@FIT a mimo jiné i držitelem Ceny Josepha Fouriera. Ve svém výzkumu se soustředí na bezpečnostní dopady hlasových deepfakes. Kyberbezpečnosti se věnuje od dob magisterského studia, kdy jej oslovilo téma diplomové práce vypsané právě Kamilem Malinkou: „Hledal jsem k deepfakes podrobnější informace – a možnosti technologie, která, obrazně řečeno, dokáže stvořit jiného člověka, mě velmi zaujaly. Kolem roku 2020 šlo o neprozkoumané téma. Cokoliv jsme dělali, bylo svým způsobem nové. Přechod na doktorát byl pak už jen přirozeným krokem.“ Situace se od té doby zásadně změnila a dnes jsou naši výzkumníci často konfrontováni s poptávkou jak po popularizaci tématu, tak i s prosbami o nástroje a konkrétní odbornou spolupráci, jak Firc přiznává v rozhovoru z léta letošního roku.

Fircova disertační práce vychází z premisy, že audio deepfakes představují od počátku hrozbu pro počítačovou bezpečnost, protože zvyšují účinnost útoků sociálního inženýrství a umožňují obcházet systémy rozpoznávání řečníků. Dosavadní výzkum se soustředil hlavně na detekci, ale chyběl mu ucelený bezpečnostní rámec vycházející z pochopení útočníka, jeho cílů a postupů, takže nebylo jasné, jak má detekce fungovat a jak podle toho budovat obranu proti hlasovým deepfakes. Práce Antona Firce se soustředí právě na to, jak hlasové deepfakes strukturovaně hodnotit z pohledu kybernetické bezpečnosti a na základě toho navrhovat účinné obrany. Klíčovým krokem je pochopení modelu útočníka, což je samo předpokladem pro následný vývoj a hodnocení metod ochrany. Součástí práce je tak mimo jiné návrh rámce hodnocení detekčních metod, který řeší známé problémy detekce deepfake, jako je špatná generalizace a omezená srovnatelnost. Z analýzy vyplývá, že lidé nedokážou deepfakes při skutečných útocích spolehlivě rozpoznat. Proto je zapotřebí rozšířený model ochrany proti deepfake hrozbám, který zahrnuje více opatření aktivních v různých fázích životního cyklu deepfake a nabízí strukturovanou ochranu. Autor se věnuje i širokému kontextu hlasových deepfakes, jako je informovanost veřejnosti coby proaktivní obranná strategie.

S abstraktem disertační práce se můžete seznámit zde.

Na obhajobu jste srdečně zváni!

Sdílet článek

Nahoru