Autor der Publikation

MAGNIFICo: Evaluating the In-Context Learning Ability of Large Language Models to Generalize to Novel Interpretations.

, , , und . EMNLP, Seite 2167-2189. Association for Computational Linguistics, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Understanding In-Context Learning in Transformers and LLMs by Learning to Learn Discrete Functions., , , und . ICLR, OpenReview.net, (2024)Evaluating In-Context Learning of Libraries for Code Generation., , , und . NAACL-HLT, Seite 2908-2926. Association for Computational Linguistics, (2024)Evaluating In-Context Learning of Libraries for Code Generation., , , und . CoRR, (2023)On the Computational Power of Transformers and Its Implications in Sequence Modeling., , und . CoNLL, Seite 455-475. Association for Computational Linguistics, (2020)When Can Transformers Ground and Compose: Insights from Compositional Generalization Benchmarks., , und . EMNLP, Seite 648-669. Association for Computational Linguistics, (2022)Simplicity Bias in Transformers and their Ability to Learn Sparse Boolean Functions., , , und . ACL (1), Seite 5767-5791. Association for Computational Linguistics, (2023)Universal Adversarial Triggers Are Not Universal., , und . CoRR, (2024)Understanding In-Context Learning in Transformers and LLMs by Learning to Learn Discrete Functions., , , und . CoRR, (2023)Are NLP Models really able to Solve Simple Math Word Problems?, , und . NAACL-HLT, Seite 2080-2094. Association for Computational Linguistics, (2021)Revisiting the Compositional Generalization Abilities of Neural Sequence Models., , , und . ACL (2), Seite 424-434. Association for Computational Linguistics, (2022)