Inproceedings,

Attention is all you need

, , , , , , , and .
Advances in neural information processing systems, page 5998--6008. (2017)

Meta data

Tags

Users

  • @oriolc
  • @louissf
  • @ruben_hussong
  • @jonaskaiser
  • @albinzehe
  • @nosebrain
  • @annakrause
  • @stdiff
  • @jil
  • @dblp
  • @stefan.ernst
  • @aerover
  • @andolab
  • @qilinw
  • @dallmann
  • @habereder
  • @tobias.koopmann
  • @lautenschlager
  • @s363405
  • @analyst
  • @chiir_demo
  • @lanteunis
  • @festplatte

Comments and Reviewsshow / hide

  • @ruben_hussong
    @ruben_hussong 3 years ago
    Führte Self-Attention in Machine Translation ein. Ist die Grundlage von SASRec.
  • @jonaskaiser
    4 years ago (last updated 4 years ago)
    Wurde in der Ausarbeitung genutzt, da es das Hauptpaper des Themas ist.
  • @s363405
    @s363405 4 years ago
    Introduces the transformer model which is adapted by SASRec for the task of sequential recommendation.
Please log in to take part in the discussion (add own reviews or comments).