Artikel in einem Konferenzbericht,

A Study on Knowledge Distillation from Weak Teacher for Scaling Up Pre-trained Language Models.

, , , , , und .
ACL (Findings), Seite 11239-11246. Association for Computational Linguistics, (2023)

Metadaten

Tags

Nutzer

  • @dblp

Kommentare und Rezensionen