Autor der Publikation

You Only Prompt Once: On the Capabilities of Prompt Learning on Large Language Models to Tackle Toxic Content.

, , , und . CoRR, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

LBSLab: A User Data Collection System in Mobile Environments., , , , , , , , , und 1 andere Autor(en). UbiComp/ISWC Adjunct, Seite 624-629. ACM, (2018)Cross-Site Prediction on Social Influence for Cold-Start Users in Online Social Networks., , , , , , und . WWW (Companion Volume), Seite 389. ACM, (2022)ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine Learning Models., , , , , , , , und . USENIX Security Symposium, Seite 4525-4542. USENIX Association, (2022)A Plot is Worth a Thousand Words: Model Information Stealing Attacks via Scientific Plots., , , , und . USENIX Security Symposium, Seite 5289-5306. USENIX Association, (2023)A Hybrid Model Coupling Physical Constraints and Machine Learning to Estimate Daily Evapotranspiration in the Heihe River Basin., , , , , , , , , und 4 andere Autor(en). Remote. Sens., 16 (12): 2143 (Juni 2024)Can't Steal? Cont-Steal! Contrastive Stealing Attacks Against Image Encoders., , , , und . CoRR, (2022)On the Influence of Twitter Trolls during the 2016 US Presidential Election., , , , und . CoRR, (2019)JailbreakEval: An Integrated Toolkit for Evaluating Jailbreak Attempts Against Large Language Models., , , , , , und . CoRR, (2024)Hidden Question Representations Tell Non-Factuality Within and Across Large Language Models., , , , , , und . CoRR, (2024)DeepScan: Exploiting Deep Learning for Malicious Account Detection in Location-Based Social Networks., , , , , , , und . IEEE Commun. Mag., 56 (11): 21-27 (2018)