Autor der Publikation

Linear Transformers Are Secretly Fast Weight Programmers.

, , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 9355-9366. PMLR, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Improving Baselines in the Wild., , , und . CoRR, (2021)The Languini Kitchen: Enabling Language Modelling Research at Different Scales of Compute., , , , , , , und . CoRR, (2023)Learning Associative Inference Using Fast Weight Memory., , und . CoRR, (2020)Enhancing the Transformer with Explicit Relational Encoding for Math Problem Solving., , , , , und . CoRR, (2019)Solving Quantitative Reasoning Problems with Language Models., , , , , , , , , und 4 andere Autor(en). NeurIPS, (2022)Block-Recurrent Transformers., , , , und . NeurIPS, (2022)Ancient Roman Coin Recognition in the Wild Using Deep Learning Based Recognition of Artistically Depicted Face Profiles., und . ICCV Workshops, Seite 2898-2906. IEEE Computer Society, (2017)Mindstorms in Natural Language-Based Societies of Mind., , , , , , , , , und 16 andere Autor(en). CoRR, (2023)Learning Associative Inference Using Fast Weight Memory., , und . ICLR, OpenReview.net, (2021)Going Beyond Linear Transformers with Recurrent Fast Weight Programmers., , , und . NeurIPS, Seite 7703-7717. (2021)