,

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.

, , , и .
NAACL-HLT (1), стр. 4171-4186. Association for Computational Linguistics, (2019)

Метаданные

тэги

Пользователи данного ресурса

  • @mnoukhov
  • @lea-w
  • @tobias.koopmann
  • @lepsky
  • @albinzehe
  • @jonaskaiser
  • @michan
  • @hotho
  • @nosebrain
  • @parismic
  • @dblp

Комментарии и рецензиипоказать / перейти в невидимый режим

  • @michan
    @michan 3 лет назад
    BLP, ein in der Ausarbeitung im Detail erklärtes Modell, nutzt BERT als Text-Encoder.
  • @jonaskaiser
    4 лет назад (последнее обновление4 лет назад)
    In die Ausarbeitung aufgenommen, da BERT als zweites Hauptthema gewählt wurde.
Пожалуйста, войдите в систему, чтобы принять участие в дискуссии (добавить собственные рецензию, или комментарий)