Detail publikace

Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles

SRBA Ivan, MÓRO Róbert, TOMLEIN Matúš, PECHER Branislav, ŠIMKO Jakub, ŠTEFANCOVÁ Elena, KOMPAN Michal, HRČKOVÁ Andrea, PODROUŽEK Juraj, GAVORNÍK Adrián a BIELIKOVÁ Mária. Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles. ACM Transactions on Recommender Systems, roč. 1, č. 1, 2023, s. 1-33. ISSN 2770-6699. Dostupné z: https://dl.acm.org/doi/10.1145/3568392
Název česky
Auditovanie algoritmu odporúčania na YouTube pre dezinformačné filtračné bubliny
Typ
článek v časopise
Jazyk
angličtina
Autoři
Srba Ivan ()
Móro Róbert ()
Tomlein Matúš ()
Pecher Branislav, Ing. (UPGM FIT VUT)
Šimko Jakub, doc. Ing., Ph.D. (UPGM FIT VUT)
Štefancová Elena ()
Kompan Michal, doc. Ing., Ph.D. (UPGM FIT VUT)
Hrčková Andrea ()
Podroužek Juraj ()
Gavorník Adrián ()
Bieliková Mária, prof. Ing., PhD. (UPGM FIT VUT)
URL
Klíčová slova

Audit, odporúčacie systémy, filtračné bubliny, dezinformácie, personalizácia, automatické anotovanie, etika, YouTube

Abstrakt

V tomto článku uvádzame výsledky auditovacej štúdie vykonanej na platforme YouTube, ktorej cieľom je zistiť ako rýchlo sa používateľ môže dostať do dezinformačnej bubliny, ale aj to, čo je potrebné na to, aby takáto bublina praskla, t. j. aby sa používateľ z tejto bubliny dostal. Používame metodiku auditu ponožkových bábok, v ktorej sa vopred naprogramovaní agenti (účinkujúci ako používatelia YouTube) ponoria do dezinformačnej bubliny sledovaním obsahu propagujúceho dezinformácie. Následne sa snažia túto bublinu prasknúť a dosiahnuť vyváženejšie odporúčania sledovaním videí, ktoré dezinformácie vyvracajú. Zaznamenávame výsledky vyhľadávania, výsledky na domovskej stránky a odporúčania pri sledovaných

videách. Celkovo sme sa počas štúdie stretli s 17 405 unikátnymi videami, z ktorých sme ručne anotovali 2 914 pre prítomnosť dezinformácií. Označené videá sa použili na trénovanie modelu strojového učenia klasifikujúceho videá do troch tried (podpora dezinformácie, vyvracanie dezinformácie, neutrálne) s presnosťou 0,82. Tento model používame na klasifikáciu zvyšných videí, ktoré by nebolo možné anotovať ručne kvôli ich vysokému počtu. Pomocou manuálne aj automaticky anotovaných údajov pozorujeme dynamiku dezinformačnej bubliny pre celý rad dezinformačných tém. Naším kľúčovým zistením je, že aj keď sa v niektorých témach filtračné dezinformačné bubliny neobjavujú, tak v situáciách, keď sa tak stane, je možné ich prelomiť sledovaním obsahu čo vyvracia dezinformácie (hoci rýchlo vyvracania sa prejavuje odlišne naprieč rôznymi témami). Pozorujeme tiež náhly pokles efektu dezinformačných filtračných bublín, keď sa videá odhaľujúce dezinformácie pozerajú po videách propagujúcich dezinformácie, čo naznačuje silný kontext odporúčaní. Nakoniec, keď porovnáme naše výsledky s predchádzajúcou podobnou štúdiou, nepozorujeme výrazné zlepšenia v celkovom množstve odporúčaného dezinformačného obsahu.

Rok
2023
Strany
1-33
Časopis
ACM Transactions on Recommender Systems, roč. 1, č. 1, ISSN 2770-6699
Kniha
ACM Transactions on Recommender Systems
Vydavatel
Association for Computing Machinery
DOI
BibTeX
@ARTICLE{FITPUB12711,
   author = "Ivan Srba and R\'{o}bert M\'{o}ro and Mat\'{u}\v{s} Tomlein and Branislav Pecher and Jakub \v{S}imko and Elena \v{S}tefancov\'{a} and Michal Kompan and Andrea Hr\v{c}kov\'{a} and Juraj Podrou\v{z}ek and Adri\'{a}n Gavorn\'{i}k and M\'{a}ria Bielikov\'{a}",
   title = "Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles",
   pages = "1--33",
   booktitle = "ACM Transactions on Recommender Systems",
   journal = "ACM Transactions on Recommender Systems",
   volume = 1,
   number = 1,
   year = 2023,
   ISSN = "2770-6699",
   doi = "10.1145/3568392",
   language = "english",
   url = "https://www.fit.vut.cz/research/publication/12711"
}
Nahoru