Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Efficient Accelerator/Network Co-Search With Circular Greedy Reinforcement Learning., , und . IEEE Trans. Circuits Syst. II Express Briefs, 70 (7): 2615-2619 (Juli 2023)$A^2Q$: Aggregation-Aware Quantization for Graph Neural Networks., , , , , , , und . ICLR, OpenReview.net, (2023)MEGA: A Memory-Efficient GNN Accelerator Exploiting Degree-Aware Mixed-Precision Quantization., , , , , , , und . HPCA, Seite 124-138. IEEE, (2024)Hardware Acceleration of CNN with One-Hot Quantization of Weights and Activations., , , , und . DATE, Seite 971-974. IEEE, (2020)Block Convolution: Toward Memory-Efficient Inference of Large-Scale CNNs on FPGA., , , und . IEEE Trans. Comput. Aided Des. Integr. Circuits Syst., 41 (5): 1436-1447 (2022)Block Convolution: Towards Memory-Efficient Inference of Large-Scale CNNs on FPGA., , , und . CoRR, (2021)EBERT: Efficient BERT Inference with Dynamic Structured Pruning., , , und . ACL/IJCNLP (Findings), Volume ACL/IJCNLP 2021 von Findings of ACL, Seite 4814-4823. Association for Computational Linguistics, (2021)A2Q: Aggregation-Aware Quantization for Graph Neural Networks., , , , , , , und . CoRR, (2023)MEGA: A Memory-Efficient GNN Accelerator Exploiting Degree-Aware Mixed-Precision Quantization., , , , , , , und . CoRR, (2023)A System-Level Solution for Low-Power Object Detection., , , , , , , , , und 1 andere Autor(en). ICCV Workshops, Seite 2461-2468. IEEE, (2019)