Autor der Publikation

Implicit Self-Regularization in Deep Neural Networks: Evidence from Random Matrix Theory and Implications for Learning.

, und . CoRR, (2018)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Implicit Self-Regularization in Deep Neural Networks: Evidence from Random Matrix Theory and Implications for Learning., und . J. Mach. Learn. Res., (2021)Test Accuracy vs. Generalization Gap: Model Selection in NLP without Accessing Training or Testing Data., , , , , , und . KDD, Seite 3011-3021. ACM, (2023)Statistical Mechanics Methods for Discovering Knowledge from Modern Production Quality Neural Networks., und . KDD, Seite 3239-3240. ACM, (2019)Implicit Self-Regularization in Deep Neural Networks: Evidence from Random Matrix Theory and Implications for Learning., und . CoRR, (2018)Predicting trends in the quality of state-of-the-art neural networks without access to training or testing data., , und . CoRR, (2020)Post-mortem on a deep learning contest: a Simpson's paradox and the complementary roles of scale metrics versus shape metrics., und . CoRR, (2021)Heavy-Tailed Universality Predicts Trends in Test Accuracies for Very Large Pre-Trained Deep Neural Networks., und . CoRR, (2019)Temperature Balancing, Layer-wise Weight Analysis, and Neural Network Training., , , , , und . CoRR, (2023)Traditional and Heavy Tailed Self Regularization in Neural Network Models., und . ICML, Volume 97 von Proceedings of Machine Learning Research, Seite 4284-4293. PMLR, (2019)Rethinking generalization requires revisiting old ideas: statistical mechanics approaches and complex learning behavior, und . (2017)cite arxiv:1710.09553Comment: 31 pages; added brief discussion of recent papers that use/extend these ideas.