Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

FORMS: Fine-grained Polarized ReRAM-based In-situ Computation for Mixed-signal DNN Accelerator., , , , , , , , , und 1 andere Autor(en). ISCA, Seite 265-278. IEEE, (2021)You Already Have It: A Generator-Free Low-Precision DNN Training Framework Using Stochastic Rounding., , , , , , , , , und 4 andere Autor(en). ECCV (12), Volume 13672 von Lecture Notes in Computer Science, Seite 34-51. Springer, (2022)An Efficient End-to-End Deep Learning Training Framework via Fine-Grained Pattern-Based Pruning., , , , , , , , , und 1 andere Autor(en). CoRR, (2020)A SOT-MRAM-based Processing-In-Memory Engine for Highly Compressed DNN Implementation., , , , und . CoRR, (2019)Auto-ViT-Acc: An FPGA-Aware Automatic Acceleration Framework for Vision Transformer with Mixed-Scheme Quantization., , , , , , , , , und 2 andere Autor(en). FPL, Seite 109-116. IEEE, (2022)YOLObile: Real-Time Object Detection on Mobile Devices via Compression-Compilation Co-Design., , , , , , , und . AAAI, Seite 955-963. AAAI Press, (2021)Towards Real-Time Segmentation on the Edge., , , , , , , , , und 2 andere Autor(en). AAAI, Seite 1468-1476. AAAI Press, (2023)Peeling the Onion: Hierarchical Reduction of Data Redundancy for Efficient Vision Transformer Training., , , , , , , , , und 5 andere Autor(en). AAAI, Seite 8360-8368. AAAI Press, (2023)Work in Progress: Mobile or FPGA? A Comprehensive Evaluation on Energy Efficiency and a Unified Optimization Framework., , , , , , , , , und 2 andere Autor(en). RTAS, Seite 493-496. IEEE, (2021)Memristor crossbar-based ultra-efficient next-generation baseband processors., , , , , , , und . MWSCAS, Seite 1121-1124. IEEE, (2017)