Artikel in einem Konferenzbericht,

Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation.

, , , , , und .
LREC/COLING, Seite 722-732. ELRA and ICCL, (2024)

Metadaten

Tags

Nutzer

  • @dblp

Kommentare und Rezensionen