Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

What Language Model Architecture and Pretraining Objective Works Best for Zero-Shot Generalization?, , , , , , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 22964-22984. PMLR, (2022)The Falcon Series of Open Language Models., , , , , , , , , und 4 andere Autor(en). CoRR, (2023)The RefinedWeb Dataset for Falcon LLM: Outperforming Curated Corpora with Web Data, and Web Data Only., , , , , , , , und . CoRR, (2023)What Language Model Architecture and Pretraining Objective Work Best for Zero-Shot Generalization?, , , , , , , und . CoRR, (2022)Is the Number of Trainable Parameters All That Actually Matters?, , , und . ICBINB@NeurIPS, Volume 163 von Proceedings of Machine Learning Research, Seite 27-32. PMLR, (2021)RITA: a Study on Scaling Up Generative Protein Sequence Models., , , , und . CoRR, (2022)What Language Model to Train if You Have One Million GPU Hours?, , , , , , , , , und 9 andere Autor(en). CoRR, (2022)LightOn Optical Processing Unit : Scaling-up AI and HPC with a Non von Neumann co-processor., , , , , , , , , und 7 andere Autor(en). HCS, Seite 1-11. IEEE, (2021)What Language Model to Train if You Have One Million GPU Hours?, , , , , , , , , und 8 andere Autor(en). EMNLP (Findings), Seite 765-782. Association for Computational Linguistics, (2022)Photonic co-processors in HPC: Using LightOn OPUs for Randomized Numerical Linear Algebra., , , , , , , , und . HCS, Seite 1-9. IEEE, (2021)