Autor der Publikation

Towards Personalization by Information Savviness to Improve User Experience in Customer Service Chatbot Conversations.

, , , , , , , und . VISIGRAPP (2: HUCAPP), Seite 36-47. SCITEPRESS, (2022)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

A Crowdsourcing Approach to Evaluate the Quality of Query-based Extractive Text Summaries., , , , und . QoMEX, Seite 1-3. IEEE, (2019)On the Impact of Self-efficacy on Assessment of User Experience in Customer Service Chatbot Conversations., , , , , , , und . IWSDS, Volume 943 von Lecture Notes in Electrical Engineering, Seite 253-262. Springer, (2021)Towards Personalization by Information Savviness to Improve User Experience in Customer Service Chatbot Conversations., , , , , , , und . VISIGRAPP (2: HUCAPP), Seite 36-47. SCITEPRESS, (2022)Does Summary Evaluation Survive Translation to Other Languages?, , , und . NAACL-HLT, Seite 2425-2435. Association for Computational Linguistics, (2022)Towards a Reliable and Robust Methodology for Crowd-Based Subjective Quality Assessment of Query-Based Extractive Text Summarization., , und . LREC, Seite 245-253. European Language Resources Association, (2020)Argument Mining in Tweets: Comparing Crowd and Expert Annotations for Automated Claim and Evidence Detection., , , und . NLDB, Volume 12801 von Lecture Notes in Computer Science, Seite 275-288. Springer, (2021)Towards Human-Free Automatic Quality Evaluation of German Summarization., , , , und . CoRR, (2021)Crowdsourcing versus the laboratory: Towards crowd-based linguistic text quality assessment of query-based extractive summarization., , und . Qurator, Volume 2535 von CEUR Workshop Proceedings, CEUR-WS.org, (2020)Best Practices for Crowd-based Evaluation of German Summarization: Comparing Crowd, Expert and Automatic Evaluation., , und . Eval4NLP, Seite 164-175. Association for Computational Linguistics, (2020)