Artikel,

TaLU: A Hybrid Activation Function Combining Tanh and Rectified Linear Unit to Enhance Neural Networks.

, , , und .
CoRR, (2023)

Metadaten

Tags

Nutzer

  • @dblp

Kommentare und Rezensionen