Autor der Publikation

In-Batch Negatives for Knowledge Distillation with Tightly-Coupled Teachers for Dense Retrieval.

, , und . RepL4NLP@ACL-IJCNLP, Seite 163-173. Association for Computational Linguistics, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Strong Gravitational Lensing Parameter Estimation with Vision Transformer., , , , , , und . ECCV Workshops (1), Volume 13801 von Lecture Notes in Computer Science, Seite 143-153. Springer, (2022)Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term Importance Estimation and Neural Query Rewriting., , , , , und . ACM Trans. Inf. Syst., 39 (4): 48:1-48:29 (2021)Aggretriever: A Simple Approach to Aggregate Textual Representation for Robust Dense Passage Retrieval., , und . CoRR, (2022)Conversational Question Reformulation via Sequence-to-Sequence Architectures and Pretrained Language Models., , , , , und . CoRR, (2020)How to Train Your Dragon: Diverse Augmentation Towards Generalizable Dense Retrieval., , , , , , , und . EMNLP (Findings), Seite 6385-6400. Association for Computational Linguistics, (2023)mAggretriever: A Simple yet Effective Approach to Zero-Shot Multilingual Dense Retrieval., , und . EMNLP, Seite 11688-11696. Association for Computational Linguistics, (2023)Synergistic Approach for Simultaneous Optimization of Monolingual, Cross-lingual, and Multilingual Information Retrieval., , und . CoRR, (2024)A metabolic signature of colon cancer initiating cells., , , , , , und . EMBC, Seite 4759-4762. IEEE, (2014)TREC 2020 Notebook: CAsT Track., , und . TREC, Volume 1266 von NIST Special Publication, National Institute of Standards and Technology (NIST), (2020)Designing Templates for Eliciting Commonsense Knowledge from Pretrained Sequence-to-Sequence Models., , , , , und . COLING, Seite 3449-3453. International Committee on Computational Linguistics, (2020)