Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Learning functions on multiple sets using multi-set transformers., , , , und . UAI, Volume 180 von Proceedings of Machine Learning Research, Seite 1760-1770. PMLR, (2022)Polarized-VAE: Proximity Based Disentangled Representation Learning for Text Generation., , , , und . EACL, Seite 416-423. Association for Computational Linguistics, (2021)LABO: Towards Learning Optimal Label Regularization via Bi-level Optimization., , , , und . ACL (Findings), Seite 5759-5774. Association for Computational Linguistics, (2023)Resonance RoPE: Improving Context Length Generalization of Large Language Models., , , , und . ACL (Findings), Seite 586-598. Association for Computational Linguistics, (2024)DyLoRA: Parameter Efficient Tuning of Pre-trained Models using Dynamic Search-Free Low-Rank Adaptation, , , und . (2022)cite arxiv:2210.07558Comment: Accepted to EACL 2023.Relational Representation Learning for Dynamic (Knowledge) Graphs: A Survey., , , , , , und . CoRR, (2019)Tails of Lipschitz Triangular Flows., , , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 4673-4681. PMLR, (2020)OTTAWA: Optimal TransporT Adaptive Word Aligner for Hallucination and Omission Translation Errors Detection., , , , , und . ACL (Findings), Seite 6322-6334. Association for Computational Linguistics, (2024)Continuation KD: Improved Knowledge Distillation through the Lens of Continuation Optimization., , , , und . EMNLP (Findings), Seite 5260-5269. Association for Computational Linguistics, (2022)Improving Generalization of Pre-trained Language Models via Stochastic Weight Averaging., , , , , und . EMNLP (Findings), Seite 4948-4954. Association for Computational Linguistics, (2022)