Autor der Publikation

NetBooster: Empowering Tiny Deep Learning By Standing on the Shoulders of Deep Giants.

, , , , und . DAC, Seite 1-6. IEEE, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Kernel Quantization for Efficient Network Compression., , , und . CoRR, (2020)Exploiting Partially Annotated Data in Temporal Relation Extraction., , , und . *SEM@NAACL-HLT, Seite 148-153. Association for Computational Linguistics, (2018)Losses Can Be Blessings: Routing Self-Supervised Speech Representations Towards Efficient Multilingual and Multitask Speech Processing., , , , , , und . NeurIPS, (2022)NetBooster: Empowering Tiny Deep Learning By Standing on the Shoulders of Deep Giants., , , , und . DAC, Seite 1-6. IEEE, (2023)Master-ASR: Achieving Multilingual Scalability and Low-Resource Adaptation in ASR with Modular Learning., , , , und . CoRR, (2023)Unveiling and Harnessing Hidden Attention Sinks: Enhancing Large Language Models without Training through Attention Calibration., , , , , und . CoRR, (2024)EDGE-LLM: Enabling Efficient Large Language Model Adaptation on Edge Devices via Layerwise Unified Compression and Adaptive Layer Tuning and Voting., , , , , , , , und . CoRR, (2024)InstantNet: Automated Generation and Deployment of Instantaneously Switchable-Precision Networks., , , , , , , , und . DAC, Seite 757-762. IEEE, (2021)ViTCoD: Vision Transformer Acceleration via Dedicated Algorithm and Accelerator Co-Design., , , , , , , , und . HPCA, Seite 273-286. IEEE, (2023)HW-NAS-Bench: Hardware-Aware Neural Architecture Search Benchmark., , , , , , , , und . CoRR, (2021)