Autor der Publikation

Slice-and-Forge: Making Better Use of Caches for Graph Convolutional Network Accelerators.

, , , , , , und . PACT, Seite 40-53. ACM, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

GPUpd: a fast and scalable multi-GPU architecture using cooperative projection and distribution., , , , , und . MICRO, Seite 574-586. ACM, (2017)Occamy: Memory-efficient GPU Compiler for DNN Inference., , , , , , und . DAC, Seite 1-6. IEEE, (2023)Google Workloads for Consumer Devices: Mitigating Data Movement Bottlenecks., , , , , , , , , und 1 andere Autor(en). ASPLOS, Seite 316-331. ACM, (2018)μLayer: Low Latency On-Device Inference Using Cooperative Single-Layer Acceleration and Processor-Friendly Quantization., , , , und . EuroSys, Seite 45:1-45:15. ACM, (2019)MPC-Wrapper: Fully Harnessing the Potential of Samsung Aquabolt-XL HBM2-PIM on FPGAs., , , , , , , , , und 1 andere Autor(en). FCCM, Seite 162-172. IEEE, (2024)SALoBa: Maximizing Data Locality and Workload Balance for Fast Sequence Alignment on GPUs., , , , , , , und . IPDPS, Seite 728-738. IEEE, (2022)It's All In the Teacher: Zero-Shot Quantization Brought Closer to the Teacher., , , , , , und . CVPR, Seite 8301-8311. IEEE, (2022)AGAThA: Fast and Efficient GPU Acceleration of Guided Sequence Alignment for Long Read Mapping., , , , , und . PPoPP, Seite 431-444. ACM, (2024)GPUdmm: A high-performance and memory-oblivious GPU architecture using dynamic memory management., , , und . HPCA, Seite 546-557. IEEE Computer Society, (2014)Qimera: Data-free Quantization with Synthetic Boundary Supporting Samples., , , , und . NeurIPS, Seite 14835-14847. (2021)