Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators., , , , , und . ACL/IJCNLP (1), Seite 5388-5398. Association for Computational Linguistics, (2021)Small Pre-trained Language Models Can be Fine-tuned as Large Models via Over-Parameterization., , , , und . ACL (1), Seite 3819-3834. Association for Computational Linguistics, (2023)YuLan: An Open-source Large Language Model., , , , , , , , , und 28 andere Autor(en). CoRR, (2024)Compressing deep neural networks by matrix product operators., , , , , , und . CoRR, (2019)Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression., , , , , und . ACL (1), Seite 2430-2440. Association for Computational Linguistics, (2024)Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models., , , , und . COLING, Seite 3263-3273. International Committee on Computational Linguistics, (2022)Enhancing Parameter-efficient Fine-tuning with Simple Calibration Based on Stable Rank., , , , und . LREC/COLING, Seite 6024-6035. ELRA and ICCL, (2024)Enhancing Scalability of Pre-trained Language Models via Efficient Parameter Sharing., , , , und . EMNLP (Findings), Seite 13771-13785. Association for Computational Linguistics, (2023)Unlocking Data-free Low-bit Quantization with Matrix Decomposition for KV Cache Compression., , , , , und . CoRR, (2024)Discovering symbolic expressions with parallelized tree search., , , , , und . CoRR, (2024)