Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

LookupFFN: Making Transformers Compute-lite for CPU inference., , , , und . CoRR, (2024)LookupFFN: Making Transformers Compute-lite for CPU inference., , , , und . ICML, Volume 202 von Proceedings of Machine Learning Research, Seite 40707-40718. PMLR, (2023)Alleviating Distortion in Image Generation via Multi-Resolution Diffusion Models., , , , , und . CoRR, (2024)IM-Unpack: Training and Inference with Arbitrarily Low Precision Integers., , und . CoRR, (2024)Nyströmformer: A Nyström-Based Algorithm for Approximating Self-Attention, , , , , , und . (2021)cite arxiv:2102.03902Comment: AAAI 2021; Code and supplement available at https://github.com/mlpen/Nystromformer.You Only Sample (Almost) Once: Linear Cost Self-Attention Via Bernoulli Sampling., , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 12321-12332. PMLR, (2021)Controlled Differential Equations on Long Sequences via Non-standard Wavelets., , , und . ICML, Volume 202 von Proceedings of Machine Learning Research, Seite 26820-26836. PMLR, (2023)FrameQuant: Flexible Low-Bit Quantization for Transformers., , , und . CoRR, (2024)Nyströmformer: A Nyström-based Algorithm for Approximating Self-Attention., , , , , , und . AAAI, Seite 14138-14148. AAAI Press, (2021)Multi Resolution Analysis (MRA) for Approximate Self-Attention., , , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 25955-25972. PMLR, (2022)