Autor der Publikation

Randomized Significance Tests in Machine Translation.

, , und . WMT@ACL, Seite 266-274. The Association for Computer Linguistics, (2014)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Robustness in Machine Translation Evaluation.. University of Melbourne, Parkville, Victoria, Australia, (2021)base-search.net (ftumelbourne:oai:jupiter.its.unimelb.edu.au:11343/295770).Sequence Effects in Crowdsourced Annotations., , und . EMNLP, Seite 2860-2865. Association for Computational Linguistics, (2017)Accurate Evaluation of Segment-level Machine Translation Metrics., , und . HLT-NAACL, Seite 1183-1191. The Association for Computational Linguistics, (2015)The Impact of Multiword Expression Compositionality on Machine Translation Evaluation., , , und . MWE@NAACL-HLT, Seite 54-59. The Association for Computer Linguistics, (2015)Results of WMT23 Metrics Shared Task: Metrics Might Be Guilty but References Are Not Innocent., , , , , , , , , und 4 andere Autor(en). WMT, Seite 578-628. Association for Computational Linguistics, (2023)Results of the WMT21 Metrics Shared Task: Evaluating Metrics with Expert-based Human Evaluations on TED and News Domain., , , , , , , und . WMT@EMNLP, Seite 733-774. Association for Computational Linguistics, (2021)Randomized Significance Tests in Machine Translation., , und . WMT@ACL, Seite 266-274. The Association for Computer Linguistics, (2014)Improving Statistical Significance in Human Evaluation of Automatic Metrics via Soft Pairwise Accuracy., , , und . CoRR, (2024)Results of WMT22 Metrics Shared Task: Stop Using BLEU - Neural Metrics Are Better and More Robust., , , , , , , , , und . WMT, Seite 46-68. Association for Computational Linguistics, (2022)Putting Evaluation in Context: Contextual Embeddings Improve Machine Translation Evaluation., , und . ACL (1), Seite 2799-2808. Association for Computational Linguistics, (2019)