Autor der Publikation

Workload-Balanced Graph Attention Network Accelerator with Top-K Aggregation Candidates.

, , und . ICCAD, Seite 39:1-39:9. ACM, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Viterbi-based Pruning for Sparse Matrix with Fixed and High Index Compression Ratio., , , , und . ICLR (Poster), OpenReview.net, (2018)SPRITE: Sparsity-Aware Neural Processing Unit with Constant Probability of Index-Matching., , , , und . DATE, Seite 663-666. IEEE, (2021)OPTIMUS: OPTImized matrix MUltiplication Structure for Transformer neural network accelerator., , , , und . MLSys, mlsys.org, (2020)Searching for Robust Binary Neural Networks via Bimodal Parameter Perturbation., , , , und . WACV, Seite 2409-2418. IEEE, (2023)V-LSTM: An Efficient LSTM Accelerator Using Fixed Nonzero-Ratio Viterbi-Based Pruning., , und . FPGA, Seite 326. ACM, (2020)Double Viterbi: Weight Encoding for High Compression Ratio and Fast On-Chip Reconstruction for Deep Neural Network., , , und . ICLR (Poster), OpenReview.net, (2019)Workload-Balanced Graph Attention Network Accelerator with Top-K Aggregation Candidates., , und . ICCAD, Seite 39:1-39:9. ACM, (2022)Time-step interleaved weight reuse for LSTM neural network computing., , , , und . ISLPED, Seite 13-18. ACM, (2020)Energy-efficient charge sharing-based 8T2C SRAM in-memory accelerator for binary neural networks in 28nm CMOS., , , , , , und . A-SSCC, Seite 1-3. IEEE, (2021)Input-Splitting of Large Neural Networks for Power-Efficient Accelerator with Resistive Crossbar Memory Array., , , und . ISLPED, Seite 41:1-41:6. ACM, (2018)