Continual Learning
1. Continual Learning 이란?
- 모델이 이전에 학습한 정보를 잊지 않고, 연속적인 데이터 스트림 안에서 학습할 수 있도록 함
- 여러 Task 에 대한 데이터를 Sequential 학습을 통해, 해당 도메인 뿐만 아니라 모델에서 다양한 도메인의 Task를 수행할 수 있도록 최적화(?)하는 방법론
- 모델 학습 중, Catastrophic이 발생하지 않도록 / 최소화 하도록 방지

Catastrophic Forgetting

- 하나의 모델에 대해 다른 Task를 연속해서 학습하는 경우, 이전에 학습한 데이터에 대한 성능이 떨어지는 현상
- 단일 모델에서 학습을 수행하는 과정에서 새로운 학습에 대해 모델 가중치가 변경되면서 발생
- 데이터셋의 크기나 복잡성에 따라, 심각해질 가능성도 있음
2. Continual Learning 의 종류와 방법
-
Memory Reply
- DGR(Deep Genverative Reply)(NeurIPS 2017)
- GEM(Gradient Episodic Memory)(Facebook Research)(NeurIPS 2017)
- LWF(Learning Without Forgetting)(2016)
-
Regularization Approach
- ⭐EWC(Elastic Weight Consolidation)(DeepMind 2016)
-
Dynamic Architecture
- Progressive Networks(2016)
-
Reshersal Methods
- ⭐ LAMOL(Language Model for Lifelong Language Learning)(ICLR 2020)