본문 바로가기
스터디/세미나

[AI frenz 세미나 리뷰] 43. 캐글 컴퓨터 비젼 대회 꿀팁 방출 (한국원자력연구원 이유한 선임연구원)

by ag_zero 2022. 8. 22.
728x90

 

세미나 영상 : https://youtu.be/EI0BuViZovs

-  augumentation  

성능이 좋은 모델을 만들어야한다!

 

augumentation = > 데이터 증식 + 일반화

 

도움 받은 논문 CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features

참고 자료 : https://youtu.be/Haj-SRL72LY

 

Good learning schedule can make good models.
Good optimizers can make good models.

 

-  Ensemble

Q.  왜 해야하나요?
    A. 그냥 해야합니다. 당연히 정확도가 올라가고 모두가 사용합니다. 중요한것은 어떻게 앙상블을 잘 할것이냐 입니다.

 

참고 논문 : Averaging Weights Leads to Wider Optima and Better Generalization

https://arxiv.org/abs/1803.05407

 

Averaging Weights Leads to Wider Optima and Better Generalization

Deep neural networks are typically trained by optimizing a loss function with an SGD variant, in conjunction with a decaying learning rate, until convergence. We show that simple averaging of multiple points along the trajectory of SGD, with a cyclical or

arxiv.org

 

모델 사용 방법 참고 자료: https://www.youtube.com/watch?v=C0vnmsGIOEo

- Pseudo labeling

 

좋은 Pseudo 데이터를 수집, 학습해야한다.
좋은 데이터 = train, test 데이터와 비슷한 데이터

 

마지막으로,

꿀팁 핵심 = experiment !