Autor der Publikation

Fact-Checking at Scale with Crowdsourcing: Experiments and Lessons Learned.

, , , , und . IIR, Volume 3448 von CEUR Workshop Proceedings, Seite 85-90. CEUR-WS.org, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

QROWD---A Platform for Integrating Citizens in Smart City Data Analytics, , , , , , , , , und 8 andere Autor(en). Seite 285--321. Springer International Publishing, Cham, (2023)On the effect of relevance scales in crowdsourcing relevance assessments for Information Retrieval evaluation., , , und . Inf. Process. Manag., 58 (6): 102688 (2021)Fact-Checking at Scale with Crowdsourcing: Experiments and Lessons Learned., , , , und . IIR, Volume 3448 von CEUR Workshop Proceedings, Seite 85-90. CEUR-WS.org, (2023)The Axiometrics Project., und . IIR, Volume 1127 von CEUR Workshop Proceedings, Seite 11-15. CEUR-WS.org, (2014)Let's Agree to Disagree: Fixing Agreement Measures for Crowdsourcing., , , , und . HCOMP, Seite 11-20. AAAI Press, (2017)IRevalOO: An Object Oriented Framework for Retrieval Evaluation., , , und . SIGIR, Seite 913-916. ACM, (2018)Point at the Triple: Generation of Text Summaries from Knowledge Base Triples., , , und . J. Artif. Intell. Res., (2020)Axiometrics: Axioms of Information Retrieval Effectiveness Metrics., und . EVIA@NTCIR, National Institute of Informatics (NII), (2014)Crowdsourcing to Mobile Users: A Study of the Role of Platforms and Tasks., , und . DBCrowd, Volume 1025 von CEUR Workshop Proceedings, Seite 14-19. CEUR-WS.org, (2013)How Biased Is Your NLG Evaluation? (short paper)., , , und . SAD/CrowdBias@HCOMP, Volume 2276 von CEUR Workshop Proceedings, Seite 72-77. CEUR-WS.org, (2018)