Autor der Publikation

Correlation Guided Multi-teacher Knowledge Distillation.

, , , und . ICONIP (4), Volume 14450 von Lecture Notes in Computer Science, Seite 562-574. Springer, (2023)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Distribution Shift Matters for Knowledge Distillation with Webly Collected Images., , , , und . ICCV, Seite 17424-17434. IEEE, (2023)LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics., , , , und . CoRR, (März 2025)Knowledge Distillation Based on Positive-Unlabeled Classification and Attention Mechanism., , , , , und . ISCAS, Seite 1-5. IEEE, (2021)Two-Stage Model Compression and Acceleration: Optimal Student Network for Better Performance., , , , und . IEEE Access, (2020)Attention-Based 3D ResNet for Detection of Alzheimer's Disease Process., , , und . ICONIP (1), Volume 13108 von Lecture Notes in Computer Science, Seite 342-353. Springer, (2021)Improving Shallow Neural Networks via Local and Global Normalization., , , , und . ICONIP (1), Volume 13108 von Lecture Notes in Computer Science, Seite 596-608. Springer, (2021)Triplet Mapping for Continuously Knowledge Distillation., , , , und . ICONIP (1), Volume 13108 von Lecture Notes in Computer Science, Seite 669-680. Springer, (2021)Cross-Layer Fusion for Feature Distillation., , , , , , und . ICONIP (4), Volume 1791 von Communications in Computer and Information Science, Seite 433-445. Springer, (2022)Cut-controller: An Effective Framework for Chinese Text Classification., , und . ICMSSP, Seite 74-79. ACM, (2022)Positive-Unlabeled Learning for Knowledge Distillation., , und . Neural Process. Lett., 55 (3): 2613-2631 (Juni 2023)