Autor der Publikation

How Important is the Train-Validation Split in Meta-Learning?

, , , , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 543-553. PMLR, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Proximal Newton-type Methods for Minimizing Convex Objective Functions in Composite Form, , und . CoRR, (2012)Gradient Descent Finds Global Minima of Deep Neural Networks., , , , und . CoRR, (2018)Provably Efficient Reinforcement Learning in Partially Observable Dynamical Systems., , , , und . NeurIPS, (2022)Optimal Gradient-based Algorithms for Non-concave Bandit Optimization., , , , , , und . NeurIPS, Seite 29101-29115. (2021)Provably Correct Automatic Sub-Differentiation for Qualified Programs., und . NeurIPS, Seite 7125-7135. (2018)How Fine-Tuning Allows for Effective Meta-Learning., , und . NeurIPS, Seite 8871-8884. (2021)Offline Reinforcement Learning with Realizability and Single-policy Concentrability., , , , und . COLT, Volume 178 von Proceedings of Machine Learning Research, Seite 2730-2775. PMLR, (2022)Towards Understanding Hierarchical Learning: Benefits of Neural Representations., , , , , , und . NeurIPS, (2020)Sanity-Checking Pruning Methods: Random Tickets can Win the Jackpot., , , , , , und . NeurIPS, (2020)Agnostic $Q$-learning with Function Approximation in Deterministic Systems: Near-Optimal Bounds on Approximation Error and Sample Complexity., , , und . NeurIPS, (2020)