Artikel in einem Konferenzbericht,

ZeroPrompt: Scaling Prompt-Based Pretraining to 1, 000 Tasks Improves Zero-Shot Generalization.

, , , , , , und .
EMNLP (Findings), Seite 4235-4252. Association for Computational Linguistics, (2022)

Metadaten

Tags

Nutzer

  • @dblp

Kommentare und Rezensionen