Autor der Publikation

Flooding-X: Improving BERT's Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning.

, , , , , , , , , und . ACL (1), Seite 5634-5644. Association for Computational Linguistics, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

User behavior and user experience analysis for social network services., , und . Wirel. Networks, 27 (5): 3613-3619 (2021)Robust Lottery Tickets for Pre-trained Language Models., , , , , , , , und . ACL (1), Seite 2211-2224. Association for Computational Linguistics, (2022)Video Monitoring System Application to Urban Traffic Intersection., , , , und . SimuTools, Volume 295 von Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, Seite 339-345. Springer, (2019)LipoFNT: Lipoylation Sites Identification with Flexible Neural Tree., , , und . Complex., (2019)Medical image security authentication method based on wavelet reconstruction and fractal dimension., , , , , , und . Int. J. Distributed Sens. Networks, 17 (4): 155014772110141 (2021)Design Enablement of 3-Dies Stacked 3D-ICs Using Fine-Pitch Hybrid-Bonding and TSVs., , , , , , , , , und 1 andere Autor(en). 3DIC, Seite 1-4. IEEE, (2023)CASN: Class-Aware Score Network for Textual Adversarial Detection., , , , und . ACL (1), Seite 671-687. Association for Computational Linguistics, (2023)Flooding-X: Improving BERT's Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning., , , , , , , , , und . ACL (1), Seite 5634-5644. Association for Computational Linguistics, (2022)An effective SNR gene prediction algorithm based on merge of nucleotide segments (MNS)., , , , und . ASCC, Seite 1-6. IEEE, (2013)Robust Lottery Tickets for Pre-trained Language Models., , , , , , , , und . CoRR, (2022)