Autor der Publikation

MATE-KD: Masked Adversarial TExt, a Companion to Knowledge Distillation.

, , und . ACL/IJCNLP (1), Seite 1062-1071. Association for Computational Linguistics, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Distilled embedding: non-linear embedding factorization using knowledge distillation., , , , und . CoRR, (2019)Sorted LLaMA: Unlocking the Potential of Intermediate Layers of Large Language Models for Dynamic Inference Using Sorted Fine-Tuning (SoFT)., , , , , und . CoRR, (2023)Improved knowledge distillation by utilizing backward pass knowledge in neural networks., , und . CoRR, (2023)On the Impact of Quantization and Pruning of Self-Supervised Speech Models for Downstream Speech Recognition Tasks "In-the-Wild"., , , , und . CoRR, (2023)Pro-KD: Progressive Distillation by Following the Footsteps of the Teacher., , , , , und . CoRR, (2021)KroneckerBERT: Learning Kronecker Decomposition for Pre-trained Language Models via Knowledge Distillation., , , , und . CoRR, (2021)KronA: Parameter Efficient Tuning with Kronecker Adapter., , , , , und . CoRR, (2022)Bilingual-GAN: A Step Towards Parallel Text Generation., , , , und . CoRR, (2019)Robust Embeddings Via Distributions., , , , , , und . CoRR, (2021)Pro-KD: Progressive Distillation by Following the Footsteps of the Teacher., , , , , und . COLING, Seite 4714-4727. International Committee on Computational Linguistics, (2022)