Autor der Publikation

Low-resource Multilingual Neural Translation Using Linguistic Feature-based Relevance Mechanisms.

, , , , und . ACM Trans. Asian Low Resour. Lang. Inf. Process., 22 (7): 191:1-191:36 (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

FeatureBART: Feature Based Sequence-to-Sequence Pre-Training for Low-Resource NMT., , , , , und . COLING, Seite 5014-5020. International Committee on Computational Linguistics, (2022)ISI at the SIGMORPHON 2017 Shared Task on Morphological Reinflection., und . CoNLL Shared Task (1), Seite 66-70. Association for Computational Linguistics, (2017)NICT-5's Submission To WAT 2021: MBART Pre-training And In-Domain Fine Tuning For Indic Languages., und . WAT@ACL/IJCNLP, Seite 198-204. Association for Computational Linguistics, (2021)A Neural Lemmatizer for Bengali., , und . LREC, European Language Resources Association (ELRA), (2016)Improving Low-Resource NMT through Relevance Based Linguistic Features Incorporation., , , , und . COLING, Seite 4263-4274. International Committee on Computational Linguistics, (2020)NGLUEni: Benchmarking and Adapting Pretrained Language Models for Nguni Languages., , , , , und . LREC/COLING, Seite 12247-12258. ELRA and ICCL, (2024)Context Sensitive Lemmatization Using Two Successive Bidirectional Gated Recurrent Networks., , und . ACL (1), Seite 1481-1491. Association for Computational Linguistics, (2017)CNN-based Context Sensitive Lemmatization., , und . COMAD/CODS, Seite 334-337. ACM, (2019)Low-resource Multilingual Neural Translation Using Linguistic Feature-based Relevance Mechanisms., , , , und . ACM Trans. Asian Low Resour. Lang. Inf. Process., 22 (7): 191:1-191:36 (2023)NICT's Submission To WAT 2020: How Effective Are Simple Many-To-Many Neural Machine Translation Models?, und . WAT@AAC/IJCNLPL, Seite 98-102. Association for Computational Linguistics, (2020)