Autor der Publikation

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

A General Language Assistant as a Laboratory for Alignment., , , , , , , , , und 12 andere Autor(en). CoRR, (2021)Red Teaming Language Models to Reduce Harms: Methods, Scaling Behaviors, and Lessons Learned., , , , , , , , , und 26 andere Autor(en). CoRR, (2022)Beyond the Imitation Game: Quantifying and extrapolating the capabilities of language models, , , , , , , , , und 441 andere Autor(en). (2022)cite arxiv:2206.04615Comment: 27 pages, 17 figures + references and appendices, repo: https://github.com/google/BIG-bench.Release Strategies and the Social Impacts of Language Models., , , , , , , und . CoRR, (2019)Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training., , , , , , , , , und 29 andere Autor(en). CoRR, (2024)Predictability and Surprise in Large Generative Models., , , , , , , , , und 20 andere Autor(en). CoRR, (2022)Learning Transferable Visual Models From Natural Language Supervision., , , , , , , , , und 2 andere Autor(en). ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 8748-8763. PMLR, (2021)Language Models (Mostly) Know What They Know, , , , , , , , , und 26 andere Autor(en). (2022)cite arxiv:2207.05221Comment: 23+17 pages; refs added, typos fixed.Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback., , , , , , , , , und 21 andere Autor(en). CoRR, (2022)The Capacity for Moral Self-Correction in Large Language Models., , , , , , , , , und 39 andere Autor(en). CoRR, (2023)