Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Just Ask for Calibration: Strategies for Eliciting Calibrated Confidence Scores from Language Models Fine-Tuned with Human Feedback., , , , , , , und . EMNLP, Seite 5433-5442. Association for Computational Linguistics, (2023)OpenVLA: An Open-Source Vision-Language-Action Model., , , , , , , , , und 8 andere Autor(en). CoRR, (2024)Visual Adversarial Imitation Learning using Variational Models., , , und . NeurIPS, Seite 3016-3028. (2021)MOTO: Offline Pre-training to Online Fine-tuning for Model-based Robot Learning., , , , , und . CoRL, Volume 229 von Proceedings of Machine Learning Research, Seite 3654-3671. PMLR, (2023)Open X-Embodiment: Robotic Learning Datasets and RT-X Models : Open X-Embodiment Collaboration., , , , , , , , , und 269 andere Autor(en). ICRA, Seite 6892-6903. IEEE, (2024)Direct Preference Optimization: Your Language Model is Secretly a Reward Model, , , , , und . (2023)Diffusion Model Alignment Using Direct Preference Optimization., , , , , , , , , und . CoRR, (2023)Disentangling Length from Quality in Direct Preference Optimization., , , und . ACL (Findings), Seite 4998-5017. Association for Computational Linguistics, (2024)Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents., , , , , , und . CoRR, (2024)MJ-Bench: Is Your Multimodal Reward Model Really a Good Judge for Text-to-Image Generation?, , , , , , , , , und 9 andere Autor(en). CoRR, (2024)