,

SWARM Parallelism: Training Large Models Can Be Surprisingly Communication-Efficient.

, , , и .
ICML, том 202 из Proceedings of Machine Learning Research, стр. 29416-29440. PMLR, (2023)

Метаданные

тэги

Пользователи данного ресурса

  • @dblp

Комментарии и рецензии