Artikel,

MiniLMv2: Multi-Head Self-Attention Relation Distillation for Compressing Pretrained Transformers.

, , , , und .
CoRR, (2020)

Metadaten

Tags

Nutzer

  • @dblp

Kommentare und Rezensionen