Autor der Publikation

Hierarchical Representation in Neural Language Models: Suppression and Recovery of Expectations.

, , und . BlackboxNLP@ACL, Seite 181-190. Association for Computational Linguistics, (2019)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Investigating Novel Verb Learning in BERT: Selectional Preference Classes and Alternation-Based Syntactic Generalization., , und . BlackboxNLP@EMNLP, Seite 265-275. Association for Computational Linguistics, (2020)Call for Papers The 2nd BabyLM Challenge: Sample-efficient pretraining on a developmentally plausible corpus., , , , , , , , , und . CoRR, (2024)What Syntactic Structures block Dependencies in RNN Language Models?, , und . CogSci, Seite 1199-1205. cognitivesciencesociety.org, (2019)What do RNN Language Models Learn about Filler-Gap Dependencies?, , , und . BlackboxNLP@EMNLP, Seite 211-221. Association for Computational Linguistics, (2018)Call for Papers - The BabyLM Challenge: Sample-efficient pretraining on a developmentally plausible corpus., , , , , und . CoRR, (2023)A Targeted Assessment of Incremental Processing in Neural Language Models and Humans., , und . ACL/IJCNLP (1), Seite 939-952. Association for Computational Linguistics, (2021)SyntaxGym: An Online Platform for Targeted Evaluation of Language Models., , , , und . ACL (demo), Seite 70-76. Association for Computational Linguistics, (2020)On the Predictive Power of Neural Language Models for Human Real-Time Comprehension Behavior., , , , und . CogSci, cognitivesciencesociety.org, (2020)Structural Supervision Improves Learning of Non-Local Grammatical Dependencies., , , , und . NAACL-HLT (1), Seite 3302-3312. Association for Computational Linguistics, (2019)Neural language models as psycholinguistic subjects: Representations of syntactic state., , , , , und . NAACL-HLT (1), Seite 32-42. Association for Computational Linguistics, (2019)