본문
제품 정보
Meta-DMoE: Adapting to Domain Shift by Meta-Distillation from Mixture-of-Experts
Date | 2023.10.12 |
---|---|
Speaker | 김태욱 |
- 이전글Weight Uncertainty in Neural Networks 23.10.26
- 다음글Domain Adaptation for Regression under Covariate Shift 23.09.12
Topic:
Meta-DMoE: Adapting to Domain Shift by Meta-Distillation from Mixture-of-Experts
keywords:
Test-time adaptation with Domain generalization
Meta-learning
Knowledge distillation
Mixture-of-Experts
bi-level optimization
Reference:
Zhong, Tao, et al. "Meta-dmoe: Adapting to domain shift by meta-distillation from mixture-of-experts." Advances in Neural Information Processing Systems 35 (2022): 22243-22257.
첨부파일
-
231012세미나_김태욱.pdf (1.3M)
23회 다운로드 | DATE : 2023-10-24 16:07:28
관련링크
저작자표시-비영리-동일조건변경허락(BY-NC-SA)
저작자와 출처 등을 표시하면 저작물의 변경, 2차적 저작물의 작성을 포함한 자유이용을 허락합니다. 단 영리적 이용은 허용되지 않고 2차적 저작물에는 원저작물에 적용된 라이선스와 동일한 라이선스를 적용해야 합니다.