Detail výsledku

Deepfakes a lidé: dokážeme ještě rozlišit pravou řeč od umělé?

MALINKA, K.; FIRC, A.; HANÁČEK, P. Deepfakes a lidé: dokážeme ještě rozlišit pravou řeč od umělé?. DSM Data Security Management, 2023, roč. 2023, č. 04, s. 22-26. ISSN: 1211-8737.
Název anglicky
Deepfakes and humans: can we still distinguish real speech from deepfake speech?
Typ
článek v časopise
Jazyk
česky
Autoři
Abstrakt

Deepfakes se bohužel pomalu, ale jistě dostávají do titulků zpráv. Tuto pozici získávají převážně kvůli svému negativnímu použití při úspěšných útocích. Tyto útoky (např. finanční podvody, kdy se útočník vydává za někoho jiného) cílí primárně na nás lidi, a tudíž naši schopnost rozpoznat (či spíše nerozeznat) deepfake hlas od toho pravého. Pro zlepšení možností ochrany proti těmto útokům je nejdříve důležité porozumět lidské schopnosti rozlišit deepfake nahrávku od té pravé a zjistit jaké faktory ji ovlivňují. Ačkoliv se některé zahraniční výzkumy již tomuto tématu věnují, zapomínají brát v potaz způsob, jakým reálný útok probíhá. V našem výzkumu tuto nepřesnost reflektujeme a realisticky simulujeme situaci, při které by útok mohl probíhat. Výrazně se tak odlišujeme od existujících studií a bohužel i získané poznatky nejsou z pohledu dopadu na lidi zrovna příznivé. 

V tomto článku prezentuje aktuální zveřejněné útoky využívající deepfakes a také závěry našeho výzkumu, který se věnuje lidské schopnosti rozpoznat deepfake nahrávky a možnostem, jak tuto schopnost do budoucna zlepšovat a předejít tak útokům za použití hlasových deepfakes.

Abstrakt anglicky

Deepfakes are unfortunately slowly but surely making headlines. They are gaining this position largely due to their negative use in successful attacks. These attacks (e.g., financial scams where the attacker impersonates someone else) primarily target our ability to recognize (or rather not recognize) the deepfake voice from the real one. To improve our ability to protect against these attacks, it is first important to understand the human ability to distinguish a deepfake recording from a genuine one and to determine what factors influence this ability. Although some international research has already addressed this topic, it neglects to take into account the way a real attack takes place. In our research, we reflect this inaccuracy and re- alistically simulate a situation in which an attack could take place. We thus differ significantly from existing studies, but unfortunately the findings are not very favorable in terms of the impact on people. This paper presents recent published attacks using deepfakes as well as the findings of our research, which focuses on the human ability to recognize deepfake recordings and how to improve this ability in the future and prevent attacks using voice deepfakes.

Klíčová slova

deepfake, syntetický hlas, deepfake útoky, lidský faktor

Klíčová slova anglicky

deepfake, synthetic voice, deepfake attacks, human factor

URL
Rok
2023
Strany
22–26
Časopis
DSM Data Security Management, roč. 2023, č. 04, ISSN 1211-8737
BibTeX
@article{BUT186867,
  author="Kamil {Malinka} and Anton {Firc} and Petr {Hanáček}",
  title="Deepfakes a lidé: dokážeme ještě rozlišit pravou řeč od umělé?",
  journal="DSM Data Security Management",
  year="2023",
  volume="2023",
  number="04",
  pages="22--26",
  issn="1211-8737",
  url="https://dsm.tate.cz/cs/2023/dsm-4-2023/deepfakes-a-lide-dokazeme-jeste-rozlisit-pravou-rec-od-umele"
}
Projekty
Reliable, Secure, and Intelligent Computer Systems, VUT, Vnitřní projekty VUT, FIT-S-23-8151, zahájení: 2023-03-01, ukončení: 2026-02-28, řešení
Výzkumné skupiny
Pracoviště
Nahoru