Detail publikace

Claim-Dissector: An Interpretable Fact-Checking System with Joint Re-ranking and Veracity Prediction

FAJČÍK Martin, MOTLÍČEK Petr a SMRŽ Pavel. Claim-Dissector: An Interpretable Fact-Checking System with Joint Re-ranking and Veracity Prediction. In: Findings of the Association for Computational Linguistics: ACL 2023. ACL, roč. 2023. Toronto: Association for Computational Linguistics, 2023, s. 10184-10205. ISBN 978-1-959429-62-3. Dostupné z: https://aclanthology.org/2023.findings-acl.647/
Název česky
Claim-Dissector: Interpretabilní systém pro ověřování faktů se současným řazením relevance a predikcí pravdivosti
Typ
článek ve sborníku konference
Jazyk
angličtina
Autoři
URL
Abstrakt

Představujeme Claim-Dissector: nový model z latentní proměnnou pro ověřování a analýzu faktů, který se na základě tvrzení a souboru získaných důkazů společně učí identifikovat: (i) relevantní důkazy k danému tvrzení (ii) pravdivost tvrzení. Navrhujeme rozčlenit pravděpodobnost relevance na důkaz a její příspěvek ke konečné pravděpodobnosti věrohodnosti interpretovatelným způsobem - konečná pravděpodobnost věrohodnosti je úměrná lineárnímu souboru pravděpodobnosti relevance na důkaz. Tímto způsobem lze identifikovat jednotlivé příspěvky důkazů ke konečné predikované pravděpodobnosti. V pravděpodobnosti relevance na důkaz může náš model dále rozlišovat, zda každý relevantní důkaz podporuje (S) nebo vyvrací (R) tvrzení. To umožňuje kvantifikovat, jak moc se pravděpodobnost S/R podílí na konečném verdiktu nebo odhalit nesouhlasné důkazy. Navzdory své interpretovatelné povaze dosahuje náš systém výsledků, které konkurují nejmodernějším řešením na datové sadě FEVER, v porovnání s typickými dvoustupňovými systémovými systémy, přičemž využívá výrazně méně parametrů. Naše analýza navíc ukazuje, že náš model se může naučit jemnozrnné relevanci při použití hrubozrnné supervize a demonstrujeme to dvěma způsoby. (i) Ukazujeme, že náš model může určovat důkazy na úrovni vět při učení relevance na úrovni odstavce. (ii)Směrem k nejjemnější granularitě relevance ukazujeme, že náš model je schopen identifikovat relevanci na úrovni tokenů, při učení na úrovni vět. Abychom tuto vlastnost prokázali, představujeme nový benchmark TLR-FEVER se zaměřením na interpretovatelnost na úrovni tokenů - lidé anotovali tokeny v relevantních důkazech, které považovali za zásadní při rozhodování. Potom změříme, nakolik jsou tyto anotace podobné tokenům nalezeným naším modelem.

Rok
2023
Strany
10184-10205
Sborník
Findings of the Association for Computational Linguistics: ACL 2023
Řada
ACL
Svazek
2023
Konference
The 61st Annual Meeting of the Association for Computational Linguistics, Toronto, CA
ISBN
978-1-959429-62-3
Vydavatel
Association for Computational Linguistics
Místo
Toronto, CA
DOI
EID Scopus
BibTeX
@INPROCEEDINGS{FITPUB13056,
   author = "Martin Faj\v{c}\'{i}k and Petr Motl\'{i}\v{c}ek and Pavel Smr\v{z}",
   title = "Claim-Dissector: An Interpretable Fact-Checking System with Joint Re-ranking and Veracity Prediction",
   pages = "10184--10205",
   booktitle = "Findings of the Association for Computational Linguistics: ACL 2023",
   series = "ACL",
   volume = 2023,
   year = 2023,
   location = "Toronto, CA",
   publisher = "Association for Computational Linguistics",
   ISBN = "978-1-959429-62-3",
   doi = "10.18653/v1/2023.findings-acl.647",
   language = "english",
   url = "https://www.fit.vut.cz/research/publication/13056"
}
Nahoru