Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Gradient Descent Maximizes the Margin of Homogeneous Neural Networks., und . ICLR, OpenReview.net, (2020)Understanding Incremental Learning of Gradient Descent: A Fine-grained Analysis of Matrix Sensing., , , , und . ICML, Volume 202 von Proceedings of Machine Learning Research, Seite 15200-15238. PMLR, (2023)Reconciling Modern Deep Learning with Traditional Optimization Analyses: The Intrinsic Learning Rate., , und . NeurIPS, (2020)Gradient Descent on Two-layer Nets: Margin Maximization and Simplicity Bias., , , und . NeurIPS, Seite 12978-12991. (2021)On the SDEs and Scaling Rules for Adaptive Gradient Algorithms., , , und . NeurIPS, (2022)Fine-grained Complexity Meets IP = PSPACE., , , , und . SODA, Seite 1-20. SIAM, (2019)Single-Source Bottleneck Path Algorithm Faster than Sorting for Sparse Graphs., , und . ICALP, Volume 107 von LIPIcs, Seite 43:1-43:14. Schloss Dagstuhl - Leibniz-Zentrum für Informatik, (2018)Why (and When) does Local SGD Generalize Better than SGD?, , , und . ICLR, OpenReview.net, (2023)Dichotomy of Early and Late Phase Implicit Biases Can Provably Induce Grokking., , , , , und . ICLR, OpenReview.net, (2024)A Quadratic Synchronization Rule for Distributed Deep Learning., , , , und . ICLR, OpenReview.net, (2024)