Artikel,

Transformer-xl: Attentive language models beyond a fixed-length context

, , , , , und .
arXiv preprint arXiv:1901.02860, (2019)

Metadaten

Tags

Nutzer

  • @ruben_hussong
  • @albinzehe
  • @nosebrain
  • @mcreinhardt
  • @festplatte
  • @dblp
  • @uw_ws20_ml

Kommentare und Rezensionenanzeigen / verbergen

  • @ruben_hussong
    @ruben_hussong vor 3 Jahren
    Die Embeddings von Meantime sind teilweise orientiert an TransformerXL entstanden, außerdem die Art die relativen Time Embeddings miteinzuberechnen.
Bitte melden Sie sich an um selbst Rezensionen oder Kommentare zu erstellen.