Autor der Publikation

Sketch and Refine: Towards Faithful and Informative Table-to-Text Generation.

, , , , , , und . ACL/IJCNLP (Findings), Volume ACL/IJCNLP 2021 von Findings of ACL, Seite 4831-4843. Association for Computational Linguistics, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Meta-KD: A Meta Knowledge Distillation Framework for Language Model Compression across Domains., , , , , und . CoRR, (2020)M6: Multi-Modality-to-Multi-Modality Multitask Mega-transformer for Unified Pretraining., , , , , , , , und . KDD, Seite 3251-3261. ACM, (2021)Sketch and Refine: Towards Faithful and Informative Table-to-Text Generation., , , , , , und . ACL/IJCNLP (Findings), Volume ACL/IJCNLP 2021 von Findings of ACL, Seite 4831-4843. Association for Computational Linguistics, (2021)Towards Knowledge-Based Personalized Product Description Generation in E-commerce., , , , , und . KDD, Seite 3040-3050. ACM, (2019)Towards Knowledge-Based Recommender Dialog System., , , , , , und . EMNLP/IJCNLP (1), Seite 1803-1813. Association for Computational Linguistics, (2019)PRIS at Knowledge Base Population 2013., , , , , , , , , und . TAC, NIST, (2013)Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese., , , , , , und . CoRR, (2022)Meta-KD: A Meta Knowledge Distillation Framework for Language Model Compression across Domains., , , , , und . ACL/IJCNLP (1), Seite 3026-3036. Association for Computational Linguistics, (2021)Transferring General Multimodal Pretrained Models to Text Recognition., , , , , , und . ACL (Findings), Seite 588-597. Association for Computational Linguistics, (2023)InterBERT: Vision-and-Language Interaction for Multi-modal Pretraining., , , , , und . CoRR, (2020)