Autor der Publikation

Optimistic Policy Optimization via Multiple Importance Sampling.

, , , und . ICML, Volume 97 von Proceedings of Machine Learning Research, Seite 4989-4999. PMLR, (2019)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Feature Selection via Mutual Information: New Theoretical Insights., , , , und . IJCNN, Seite 1-9. IEEE, (2019)Offline Primal-Dual Reinforcement Learning for Linear MDPs., , , und . AISTATS, Volume 238 von Proceedings of Machine Learning Research, Seite 3169-3177. PMLR, (2024)Safe policy optimization.. Polytechnic University of Milan, Italy, (2021)Automated Reasoning for Reinforcement Learning Agents in Structured Environments., , und . OVERLAY@GandALF, Volume 2987 von CEUR Workshop Proceedings, Seite 43-48. CEUR-WS.org, (2021)Gradient-Aware Model-Based Policy Search., , , , und . AAAI, Seite 3801-3808. AAAI Press, (2020)Risk-Averse Trust Region Optimization for Reward-Volatility Reduction., , , , und . CoRR, (2019)Balancing Learning Speed and Stability in Policy Gradient via Adaptive Exploration., , und . AISTATS, Volume 108 von Proceedings of Machine Learning Research, Seite 1188-1199. PMLR, (2020)Smoothing Policies and Safe Policy Gradients., , und . CoRR, (2019)Optimistic Policy Optimization via Multiple Importance Sampling., , , und . ICML, Volume 97 von Proceedings of Machine Learning Research, Seite 4989-4999. PMLR, (2019)Offline Primal-Dual Reinforcement Learning for Linear MDPs., , , und . CoRR, (2023)