Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Neural Tangents: Fast and Easy Infinite Neural Networks in Python., , , , , , und . ICLR, OpenReview.net, (2020)Disentangling Trainability and Generalization in Deep Neural Networks., , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 10462-10472. PMLR, (2020)The Surprising Simplicity of the Early-Time Learning Dynamics of Neural Networks., , , und . NeurIPS, (2020)Finite Versus Infinite Neural Networks: an Empirical Study., , , , , , und . NeurIPS, (2020)Precise Learning Curves and Higher-Order Scalings for Dot-product Kernel Regression., , , , und . NeurIPS, (2022)Small-scale proxies for large-scale Transformer training instabilities., , , , , , , , , und 6 andere Autor(en). ICLR, OpenReview.net, (2024)Frontier Language Models are not Robust to Adversarial Arithmetic, or "What do I need to say so you agree 2+2=5?, , , , , , , , , und 20 andere Autor(en). CoRR, (2023)Bayesian Deep Convolutional Networks with Many Channels are Gaussian Processes, , , , , , , , und . (2018)cite arxiv:1810.05148Comment: Published as a conference paper at ICLR 2019.Wide Neural Networks of Any Depth Evolve as Linear Models Under Gradient Descent., , , , , , und . NeurIPS, Seite 8570-8581. (2019)4+3 Phases of Compute-Optimal Neural Scaling Laws., , , und . CoRR, (2024)