Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

Keine Personen gefunden für den Autorennamen Sutawika, Lintang
Eine Person hinzufügen mit dem Namen Sutawika, Lintang
 

Weitere Publikationen von Autoren mit dem selben Namen

Towards better structured and less noisy Web data: Oscar with Register annotations., , , , , , , , , und 3 andere Autor(en). W-NUT@COLING, Seite 215-221. Association for Computational Linguistics, (2022)Crosslingual Generalization through Multitask Finetuning., , , , , , , , , und 9 andere Autor(en). ACL (1), Seite 15991-16111. Association for Computational Linguistics, (2023)Samsung Research Philippines - Datasaur AI's Submission for the WMT22 Large Scale Multilingual Translation Task., und . WMT, Seite 1034-1038. Association for Computational Linguistics, (2022)Multitask Prompted Training Enables Zero-Shot Task Generalization., , , , , , , , , und 30 andere Autor(en). ICLR, OpenReview.net, (2022)BLOOM+1: Adding Language Support to BLOOM for Zero-Shot Prompting., , , , , , , , , und 5 andere Autor(en). ACL (1), Seite 11682-11703. Association for Computational Linguistics, (2023)Emergent and Predictable Memorization in Large Language Models., , , , , , und . CoRR, (2023)Prompting Multilingual Large Language Models to Generate Code-Mixed Texts: The Case of South East Asian Languages., , , , , , , , , und 2 andere Autor(en). CoRR, (2023)What Language Model to Train if You Have One Million GPU Hours?, , , , , , , , , und 9 andere Autor(en). CoRR, (2022)What Language Model to Train if You Have One Million GPU Hours?, , , , , , , , , und 8 andere Autor(en). EMNLP (Findings), Seite 765-782. Association for Computational Linguistics, (2022)Multitask Prompted Training Enables Zero-Shot Task Generalization, , , , , , , , , und 30 andere Autor(en). International Conference on Learning Representations, (2022)