Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

What Language Model Architecture and Pretraining Objective Works Best for Zero-Shot Generalization?, , , , , , , und . ICML, Volume 162 von Proceedings of Machine Learning Research, Seite 22964-22984. PMLR, (2022)The Falcon Series of Open Language Models., , , , , , , , , und 4 andere Autor(en). CoRR, (2023)The RefinedWeb Dataset for Falcon LLM: Outperforming Curated Corpora with Web Data, and Web Data Only., , , , , , , , und . CoRR, (2023)What Language Model Architecture and Pretraining Objective Work Best for Zero-Shot Generalization?, , , , , , , und . CoRR, (2022)Is the Number of Trainable Parameters All That Actually Matters?, , , und . ICBINB@NeurIPS, Volume 163 von Proceedings of Machine Learning Research, Seite 27-32. PMLR, (2021)LightOn Optical Processing Unit : Scaling-up AI and HPC with a Non von Neumann co-processor., , , , , , , , , und 7 andere Autor(en). HCS, Seite 1-11. IEEE, (2021)What Language Model to Train if You Have One Million GPU Hours?, , , , , , , , , und 9 andere Autor(en). CoRR, (2022)RITA: a Study on Scaling Up Generative Protein Sequence Models., , , , und . CoRR, (2022)What Language Model to Train if You Have One Million GPU Hours?, , , , , , , , , und 8 andere Autor(en). EMNLP (Findings), Seite 765-782. Association for Computational Linguistics, (2022)Contrastive Embeddings for Neural Architectures., und . CoRR, (2021)