Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

RWTH ASR Systems for LibriSpeech: Hybrid vs Attention., , , , , , , und . INTERSPEECH, Seite 231-235. ISCA, (2019)Neural Differential Equations for Learning to Program Neural Nets Through Continuous Learning Rules., , und . NeurIPS, (2022)The Dual Form of Neural Networks Revisited: Connecting Test Time Predictions to Training Patterns via Spotlights of Attention., , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 9639-9659. PMLR, (2022)A Modern Self-Referential Weight Matrix That Learns to Modify Itself., , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 9660-9677. PMLR, (2022)Linear Transformers Are Secretly Fast Weight Programmers., , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 9355-9366. PMLR, (2021)On the Choice of Modeling Unit for Sequence-to-Sequence Speech Recognition., , , , , und . INTERSPEECH, Seite 3800-3804. ISCA, (2019)Practical Computational Power of Linear Transformers and Their Recurrent and Self-Referential Extensions., , und . EMNLP, Seite 9455-9465. Association for Computational Linguistics, (2023)MoEUT: Mixture-of-Experts Universal Transformers., , , , und . CoRR, (2024)The Rwth Asr System for Ted-Lium Release 2: Improving Hybrid Hmm With Specaugment., , , , , und . ICASSP, Seite 7839-7843. IEEE, (2020)How Much Self-Attention Do We Need? Trading Attention for Feed-Forward Layers., , , und . ICASSP, Seite 6154-6158. IEEE, (2020)