,

Cross-Attention is All You Need: Adapting Pretrained Transformers for Machine Translation.

, , и .
EMNLP (1), стр. 1754-1765. Association for Computational Linguistics, (2021)

Метаданные

тэги

Пользователи данного ресурса

  • @dblp

Комментарии и рецензии