Autor der Publikation

HW-TSC's Participation at WMT 2021 Quality Estimation Shared Task.

, , , , , , , , , , , und . WMT@EMNLP, Seite 890-896. Association for Computational Linguistics, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Denoising Pre-training for Machine Translation Quality Estimation with Curriculum Learning., , , , , , , , und . AAAI, Seite 12827-12835. AAAI Press, (2023)Incorporating Complete Syntactical Knowledge for Spoken Language Understanding., , , , , , , , , und 3 andere Autor(en). CCKS, Volume 1466 von Communications in Computer and Information Science, Seite 145-156. Springer, (2021)Incorporating Multilingual Knowledge Distillation into Machine Translation Evaluation., , , , , , , , , und 1 andere Autor(en). CCKS, Volume 1669 von Communications in Computer and Information Science, Seite 148-160. Springer, (2022)CONFPILOT: A Pilot for Faster Configuration by Learning from Device Manuals., , , , , , und . ICDCS, Seite 108-119. IEEE, (2023)LogDAPT: Log Data Anomaly Detection with Domain-Adaptive Pretraining (industry track)., , , , , und . Middleware Industry, Seite 15-21. ACM, (2023)HW-TSC at SemEval-2022 Task 7: Ensemble Model Based on Pretrained Models for Identifying Plausible Clarifications., , , , , , und . SemEval@NAACL, Seite 1056-1061. Association for Computational Linguistics, (2022)CCDC: A Chinese-Centric Cross Domain Contrastive Learning Framework., , , , , , , und . KSEM (2), Volume 13369 von Lecture Notes in Computer Science, Seite 225-236. Springer, (2022)The HW-TSC's Offline Speech Translation System for IWSLT 2022 Evaluation., , , , , , , , , und 1 andere Autor(en). IWSLT@ACL, Seite 239-246. Association for Computational Linguistics, (2022)HW-TSC's Participation in the WMT 2021 Efficiency Shared Task., , , , , , , , , und 3 andere Autor(en). WMT@EMNLP, Seite 781-786. Association for Computational Linguistics, (2021)Partial Could Be Better than Whole. HW-TSC 2022 Submission for the Metrics Shared Task., , , , , , , , , und 5 andere Autor(en). WMT, Seite 549-557. Association for Computational Linguistics, (2022)