Artikel in einem Konferenzbericht,

Attention is all you need

, , , , , , , und .
Advances in neural information processing systems, Seite 5998--6008. (2017)

Metadaten

Tags

Nutzer

  • @oriolc
  • @louissf
  • @ruben_hussong
  • @jonaskaiser
  • @albinzehe
  • @nosebrain
  • @annakrause
  • @stdiff
  • @jil
  • @dblp
  • @stefan.ernst
  • @aerover
  • @andolab
  • @qilinw
  • @dallmann
  • @habereder
  • @tobias.koopmann
  • @lautenschlager
  • @s363405
  • @analyst
  • @chiir_demo
  • @lanteunis
  • @festplatte

Kommentare und Rezensionenanzeigen / verbergen

  • @ruben_hussong
    @ruben_hussong vor 3 Jahren
    Führte Self-Attention in Machine Translation ein. Ist die Grundlage von SASRec.
  • @jonaskaiser
    vor 4 Jahren (zuletzt bearbeitetvor 4 Jahren)
    Wurde in der Ausarbeitung genutzt, da es das Hauptpaper des Themas ist.
  • @s363405
    @s363405 vor 4 Jahren
    Introduces the transformer model which is adapted by SASRec for the task of sequential recommendation.
Bitte melden Sie sich an um selbst Rezensionen oder Kommentare zu erstellen.