Autor der Publikation

OCTIS: Comparing and Optimizing Topic models is Simple!

, , , , und . EACL (System Demonstrations), Seite 263-270. Association for Computational Linguistics, (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

OCTIS: Comparing and Optimizing Topic models is Simple!, , , , und . EACL (System Demonstrations), Seite 263-270. Association for Computational Linguistics, (2021)An Empirical Analysis of Topic Models: Uncovering the Relationships between Hyperparameters, Document Length and Performance Measures., und . RANLP, Seite 1408-1416. INCOMA Ltd., (2021)OCTIS 2.0: Optimizing and Comparing Topic Models in Italian Is Even Simpler!, und . CLiC-it, Volume 3033 von CEUR Workshop Proceedings, CEUR-WS.org, (2021)Cross-lingual Contextualized Topic Models with Zero-shot Learning., , , , und . CoRR, (2020)Word Embedding-Based Topic Similarity Measures., , und . NLDB, Volume 12801 von Lecture Notes in Computer Science, Seite 33-45. Springer, (2021)Which Matters Most? Comparing the Impact of Concept and Document Relationships in Topic Models., , , und . Insights, Seite 32-40. Association for Computational Linguistics, (2020)Cross-lingual Contextualized Topic Models with Zero-shot Learning., , , , und . EACL, Seite 1676-1683. Association for Computational Linguistics, (2021)Pre-training is a Hot Topic: Contextualized Document Embeddings Improve Topic Coherence., , und . CoRR, (2020)Contrastive Language-Image Pre-training for the Italian Language., , , , , und . CoRR, (2021)Pre-training is a Hot Topic: Contextualized Document Embeddings Improve Topic Coherence., , und . ACL/IJCNLP (2), Seite 759-766. Association for Computational Linguistics, (2021)