본문
제품 정보
New knowledge distillation
Date | 2023.01.18 |
---|---|
Speaker | 김태욱 |
- 이전글Learning physics constrained dynamic using autoencoder 23.02.08
- 다음글Clustering using silhouette coefficients 23.01.18
Paper review
1. Distilling the Knowledge in a Neural Network (G Hinton et al, 2014 NIPS)
2. Self-training with Noisy Student improves ImageNet classification (Q Xie et al, 2020 CVPR)
3. Knowledge distillation: A good teacher is patient and consistent (L Beyer et al, 2022 CVPR)
Keyword : knowledge distillation, model compression, self-training
첨부파일
-
230118 세미나.pdf (2.6M)
44회 다운로드 | DATE : 2023-01-18 14:10:51
저작자표시-비영리-동일조건변경허락(BY-NC-SA)
저작자와 출처 등을 표시하면 저작물의 변경, 2차적 저작물의 작성을 포함한 자유이용을 허락합니다.
단 영리적 이용은 허용되지 않고 2차적 저작물에는 원저작물에 적용된 라이선스와 동일한 라이선스를 적용해야 합니다.