Autor der Publikation

RAD-Sim: Rapid Architecture Exploration for Novel Reconfigurable Acceleration Devices.

, , und . FPL, Seite 438-444. IEEE, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Hardware acceleration of novel chaos-based image encryption for IoT applications., , , und . ICM, Seite 1-4. IEEE, (2017)Embracing Diversity: Enhanced DSP Blocks for Low-Precision Deep Learning on FPGAs., , und . FPL, Seite 35-42. IEEE Computer Society, (2018)A Whole New World: How to Architect Beyond-FPGA Reconfigurable Acceleration Devices?, , und . FPL, Seite 265-270. IEEE, (2023)RAD-Sim: Rapid Architecture Exploration for Novel Reconfigurable Acceleration Devices., , und . FPL, Seite 438-444. IEEE, (2022)Compute-Capable Block RAMs for Efficient Deep Learning Acceleration on FPGAs., , , , , , , , und . FCCM, Seite 88-96. IEEE, (2021)Scalable Low-Latency Persistent Neural Machine Translation on CPU Server with Multiple FPGAs., , , , , , , , , und . FPT, Seite 307-310. IEEE, (2019)Why Compete When You Can Work Together: FPGA-ASIC Integration for Persistent RNNs., , , , , , , , , und 6 andere Autor(en). FCCM, Seite 199-207. IEEE, (2019)Field-Programmable Gate Array Architecture for Deep Learning: Survey & Future Directions., , und . CoRR, (2024)You Cannot Improve What You Do not Measure: FPGA vs. ASIC Efficiency Gaps for Convolutional Neural Network Inference., , und . ACM Trans. Reconfigurable Technol. Syst., 11 (3): 20:1-20:23 (2018)Specializing for Efficiency: Customizing AI Inference Processors on FPGAs., , und . ICM, Seite 62-65. IEEE, (2021)