Autor der Publikation

Infinite attention: NNGP and NTK for deep attention networks.

, , , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 4376-4386. PMLR, (2020)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Explaining Neural Scaling Laws., , , , und . CoRR, (2021)Bayesian Deep Convolutional Networks with Many Channels are Gaussian Processes., , , , , , , , und . ICLR (Poster), OpenReview.net, (2019)Beyond the Imitation Game: Quantifying and extrapolating the capabilities of language models, , , , , , , , , und 441 andere Autor(en). (2022)cite arxiv:2206.04615Comment: 27 pages, 17 figures + references and appendices, repo: https://github.com/google/BIG-bench.Wide Neural Networks of Any Depth Evolve as Linear Models Under Gradient Descent., , , , , und . CoRR, (2019)Quantum Many-Body Physics Calculations with Large Language Models., , , , , , , und . CoRR, (2024)Geometry of Neural Network Loss Surfaces via Random Matrix Theory., und . ICML, Volume 70 von Proceedings of Machine Learning Research, Seite 2798-2806. PMLR, (2017)Statistical Mechanics of Deep Learning, , , , , und . Annual Review of Condensed Matter Physics, 11 (1): null (2020)Bayesian Deep Convolutional Networks with Many Channels are Gaussian Processes, , , , , , , , und . (2018)cite arxiv:1810.05148Comment: Published as a conference paper at ICLR 2019.Wide Neural Networks of Any Depth Evolve as Linear Models Under Gradient Descent., , , , , , und . NeurIPS, Seite 8570-8581. (2019)The Evolution of Out-of-Distribution Robustness Throughout Fine-Tuning., , , und . CoRR, (2021)