Autor der Publikation

Private Reinforcement Learning with PAC and Regret Guarantees.

, , , und . ICML, Volume 119 von Proceedings of Machine Learning Research, Seite 9754-9764. PMLR, (2020)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Go for a Walk and Arrive at the Answer: Reasoning Over Knowledge Bases with Reinforcement Learning., , , , , , , und . AKBC@NIPS, OpenReview.net, (2017)Contrastive Estimation Reveals Topic Posterior Information to Linear Models., , und . J. Mach. Learn. Res., (2021)Guaranteed Discovery of Controllable Latent States with Multi-Step Inverse Models., , , , , , , , , und . CoRR, (2022)Butterfly Effects of SGD Noise: Error Amplification in Behavior Cloning and Autoregression., , , , und . CoRR, (2023)Disagreement-Based Combinatorial Pure Exploration: Sample Complexity Bounds and an Efficient Algorithm., und . COLT, Volume 99 von Proceedings of Machine Learning Research, Seite 558-588. PMLR, (2019)Subspace learning from extremely compressed measurements., , und . ACSSC, Seite 311-315. IEEE, (2014)Provably Filtering Exogenous Distractors using Multistep Inverse Dynamics., , , , und . ICLR, OpenReview.net, (2022)Understanding Contrastive Learning Requires Incorporating Inductive Biases., , , , , , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 19250-19286. PMLR, (2022)Oracle-Efficient Pessimism: Offline Policy Optimization In Contextual Bandits., , und . AISTATS, Volume 238 von Proceedings of Machine Learning Research, Seite 766-774. PMLR, (2024)Hybrid RL: Using both offline and online data can make RL efficient., , , , , und . ICLR, OpenReview.net, (2023)