Autor der Publikation

14.1 A 126.1mW real-time natural UI/UX processor with embedded deep-learning core for low-power smart glasses.

, , , , , und . ISSCC, Seite 254-255. IEEE, (2016)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

An energy-efficient deep learning processor with heterogeneous multi-core architecture for convolutional neural networks and recurrent neural networks., , , , und . COOL Chips, Seite 1-2. IEEE Computer Society, (2017)A 3.13nJ/sample energy-efficient speech extraction processor for robust speech recognition in mobile head-mounted display systems., , , und . ISCAS, Seite 1790-1793. IEEE, (2015)14.2 DNPU: An 8.1TOPS/W reconfigurable CNN-RNN processor for general-purpose deep neural networks., , , und . ISSCC, Seite 240-241. IEEE, (2017)A 21mW low-power recurrent neural network accelerator with quantization tables for embedded deep learning applications., , und . A-SSCC, Seite 237-240. IEEE, (2017)A 0.53mW ultra-low-power 3D face frontalization processor for face recognition with human-level accuracy in wearable devices., , , , und . ISCAS, Seite 1-4. IEEE, (2017)An Energy-Efficient Speech-Extraction Processor for Robust User Speech Recognition in Mobile Head-Mounted Display Systems., , , und . IEEE Trans. Circuits Syst. II Express Briefs, 64-II (4): 457-461 (2017)A 141.4 mW Low-Power Online Deep Neural Network Training Processor for Real-time Object Tracking in Mobile Devices., , , , und . ISCAS, Seite 1-5. IEEE, (2018)Talaria: Interactively Optimizing Machine Learning Models for Efficient Inference., , , , , , , , , und . CoRR, (2024)14.1 A 126.1mW real-time natural UI/UX processor with embedded deep-learning core for low-power smart glasses., , , , , und . ISSCC, Seite 254-255. IEEE, (2016)LNPU: A 25.3TFLOPS/W Sparse Deep-Neural-Network Learning Processor with Fine-Grained Mixed Precision of FP8-FP16., , , , , und . ISSCC, Seite 142-144. IEEE, (2019)