Autor der Publikation

Adapting a Self-Supervised Speech Representation for Noisy Speech Emotion Recognition by Using Contrastive Teacher-Student Learning.

, , , , und . ICASSP, Seite 1-5. IEEE, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Computation and Memory Efficient Noise Adaptation of Wav2Vec2.0 for Noisy Speech Emotion Recognition with Skip Connection Adapters., , , , und . INTERSPEECH, Seite 1888-1892. ISCA, (2023)The Importance of Calibration: Rethinking Confidence and Performance of Speech Multi-label Emotion Classifiers., , , , und . INTERSPEECH, Seite 641-645. ISCA, (2023)Many-to-Many Voice Conversion Using Cycle-Consistent Variational Autoencoder with Multiple Decoders., , , und . Odyssey, Seite 215-221. ISCA, (2020)Describe Where You Are: Improving Noise-Robustness for Speech Emotion Recognition with Text Description of the Environment., , , , und . CoRR, (2024)Not All Features are Equal: Selection of Robust Features for Speech Emotion Recognition in Noisy Environments., , , , und . ICASSP, Seite 6447-6451. IEEE, (2022)Analyzing the Effect of Affective Priming on Emotional Annotations., , , , , und . ACII, Seite 1-8. IEEE, (2023)Speaker Anonymization for Personal Information Protection Using Voice Conversion Techniques., , , , , und . IEEE Access, (2020)Adapting a Self-Supervised Speech Representation for Noisy Speech Emotion Recognition by Using Contrastive Teacher-Student Learning., , , , und . ICASSP, Seite 1-5. IEEE, (2023)Separation of Emotional and Reconstruction Embeddings on Ladder Network to Improve Speech Emotion Recognition Robustness in Noisy Conditions., , , , und . Interspeech, Seite 2871-2875. ISCA, (2021)Combining Relative and Absolute Learning Formulations to Predict Emotional Attributes From Speech., , , und . ASRU, Seite 1-8. IEEE, (2023)