Beliebiger Eintrag,

Compression of Generative Pre-trained Language Models via Quantization

, , , , , , , und .
(2022)
DOI: 10.48550/ARXIV.2203.10705

Metadaten

Tags

Nutzer

  • @tobias.koopmann
  • @dblp

Kommentare und Rezensionenanzeigen / verbergen

  • @tobias.koopmann
    vor 2 Jahren (zuletzt bearbeitetvor 2 Jahren)
Bitte melden Sie sich an um selbst Rezensionen oder Kommentare zu erstellen.