Autor der Publikation

Fast and Reliable Evaluation of Adversarial Robustness with Minimum-Margin Attack.

, , , , , , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 7144-7163. PMLR, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Safeguarding Vision-Language Models Against Patched Visual Prompt Injectors., , , , und . CoRR, (2024)A Critical Revisit of Adversarial Robustness in 3D Point Cloud Recognition with Diffusion-Driven Purification., , , , , und . ICML, Volume 202 von Proceedings of Machine Learning Research, Seite 33100-33114. PMLR, (2023)On the Exploitability of Reinforcement Learning with Human Feedback for Large Language Models., , , , und . CoRR, (2023)RLHFPoison: Reward Poisoning Attack for Reinforcement Learning with Human Feedback in Large Language Models., , , , und . ACL (1), Seite 2551-2570. Association for Computational Linguistics, (2024)Fast and Reliable Evaluation of Adversarial Robustness with Minimum-Margin Attack., , , , , , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 7144-7163. PMLR, (2022)Test-time Backdoor Mitigation for Black-Box Large Language Models with Defensive Demonstrations., , , , , , und . CoRR, (2023)Preference Poisoning Attacks on Reward Model Learning., , , , , und . CoRR, (2024)Defending against Adversarial Audio via Diffusion Model., , , , und . ICLR, OpenReview.net, (2023)Consistency Purification: Effective and Efficient Diffusion Purification towards Certified Robustness., , , , , und . CoRR, (2024)Adversarial Demonstration Attacks on Large Language Models., , , , und . CoRR, (2023)