Autor der Publikation

FAT: Frequency-Aware Transformation for Bridging Full-Precision and Low-Precision Deep Representations.

, , , , , und . IEEE Trans. Neural Networks Learn. Syst., 35 (2): 2640-2654 (Februar 2024)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Dynamic and Static Context-Aware LSTM for Multi-agent Motion Prediction., , , und . ECCV (21), Volume 12366 von Lecture Notes in Computer Science, Seite 547-563. Springer, (2020)D2O: Dynamic Discriminative Operations for Efficient Generative Inference of Large Language Models., , , , , , , , , und . CoRR, (2024)UPop: Unified and Progressive Pruning for Compressing Vision-Language Transformers., , , , , und . ICML, Volume 202 von Proceedings of Machine Learning Research, Seite 31292-31311. PMLR, (2023)Source-free domain adaptation with unrestricted source hypothesis., , , und . Pattern Recognit., (2024)FAT: Learning Low-Bitwidth Parametric Representation via Frequency-Aware Transformation., , , , , und . CoRR, (2021)DyBit: Dynamic Bit-Precision Numbers for Efficient Quantized Neural Network Inference., , , , , , , , , und . CoRR, (2023)LiteGT: Efficient and Lightweight Graph Transformers., , und . CIKM, Seite 161-170. ACM, (2021)BATMANN: A Binarized-All-Through Memory-Augmented Neural Network for Efficient In-Memory Computing., , , , , , , und . ASICON, Seite 1-4. IEEE, (2021)Structured Pruning for Efficient Generative Pre-trained Language Models., , , , , , , und . ACL (Findings), Seite 10880-10895. Association for Computational Linguistics, (2023)FAT: Frequency-Aware Transformation for Bridging Full-Precision and Low-Precision Deep Representations., , , , , und . IEEE Trans. Neural Networks Learn. Syst., 35 (2): 2640-2654 (Februar 2024)