Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Leverage the Average: an Analysis of Regularization in RL., , , , , und . CoRR, (2020)Leverage the Average: an Analysis of KL Regularization in Reinforcement Learning., , , , , und . NeurIPS, (2020)Momentum in Reinforcement Learning., , , und . AISTATS, Volume 108 von Proceedings of Machine Learning Research, Seite 2529-2538. PMLR, (2020)Factually Consistent Summarization via Reinforcement Learning with Textual Entailment Feedback., , , , , , , , , und 9 andere Autor(en). ACL (1), Seite 6252-6272. Association for Computational Linguistics, (2023)On-Policy Distillation of Language Models: Learning from Self-Generated Mistakes., , , , , , und . ICLR, OpenReview.net, (2024)Deep Conservative Policy Iteration., , und . AAAI, Seite 6070-6077. AAAI Press, (2020)Regularization and Variance-Weighted Regression Achieves Minimax Optimality in Linear MDPs: Theory and Practice., , , , , , , , , und 5 andere Autor(en). ICML, Volume 202 von Proceedings of Machine Learning Research, Seite 17135-17175. PMLR, (2023)Implicitly Regularized RL with Implicit Q-values., , , , und . AISTATS, Volume 151 von Proceedings of Machine Learning Research, Seite 1380-1402. PMLR, (2022)BOND: Aligning LLMs with Best-of-N Distillation., , , , , , , , , und 10 andere Autor(en). CoRR, (2024)Offline Reinforcement Learning as Anti-exploration., , , , , , und . AAAI, Seite 8106-8114. AAAI Press, (2022)