Seminar

Seminar

본문

제품 정보

New knowledge distillation

Date 2023.01.18
Speaker 김태욱

Paper review
1. Distilling the Knowledge in a Neural Network (G Hinton et al, 2014 NIPS)
2. Self-training with Noisy Student improves ImageNet classification (Q Xie et al, 2020 CVPR)
3. Knowledge distillation: A good teacher is patient and consistent (L Beyer et al, 2022 CVPR)

Keyword : knowledge distillation, model compression, self-training

첨부파일

저작자표시-비영리-동일조건변경허락(BY-NC-SA)

저작자와 출처 등을 표시하면 저작물의 변경, 2차적 저작물의 작성을 포함한 자유이용을 허락합니다.
단 영리적 이용은 허용되지 않고 2차적 저작물에는 원저작물에 적용된 라이선스와 동일한 라이선스를 적용해야 합니다.

COPYRIGHTⓒ 성균관대학교 시스템경영공학과 정보과학연구실 All rights reserved