Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Meta Learning
- pytorch
- nerf
- Python
- ML
- clean code
- 알고리즘
- GAN
- algorithm
- Torch
- web
- CV
- SSL
- 자료구조
- Front
- math
- FineGrained
- 딥러닝
- dl
- classification
- 3d
- FGVC
- Depth estimation
- cs
- PRML
- nlp
- Vision
- computervision
- REACT
- 머신러닝
- Today
- Total
KalelPark's LAB
[ Computer Vision ] Batchsize에 따른 loss의 변화율 본문
BatchSize에 따른 loss의 변화율
- batch size의 크기에 따라 학습되는 과정은 달라질 수 있습니다.
batch size가 작으면, 순간 loss가 커져서 convex hole에 위치한 곳에서 급격하게 자리를 변경할 우려가 있습니다.
- batchsize가 크면, 여러 데이터를 평균으로 loss가 구해지기 때문에 훨씬 robustness 해집니다.
SSL 시, Batchsize가 커야하는 이유가 아래와 동일합니다. 여러 데이터를 평균으로
backpropagation을 해야 성능이 올라갑니다.
또한 우측의 표를 보면, LR에 작으면 Batchsize가 작을수록 높은 성능이 나오지만, LR이 큰 경우, Batchsize가 클수록 성능이 높이 나오는 것을 알 수 있습니다.
하지만, Batchsize가 적다면, 학습하는데 상당히 오래걸린다는 우려가 있습니다.
Medical 관련 논문이지만, Batchsize에 따른 성능이 어떻게 변하는지 참고할만합니다.
https://www.sciencedirect.com/science/article/pii/S2405959519303455#fig2
'Data Science > Common' 카테고리의 다른 글
[ Computer Vision ] Sparsely Embedded Convolution이란? (0) | 2023.03.25 |
---|---|
[ Computer Vision ] Sparse Convolution 이란? (0) | 2023.03.24 |
[ Computer Vision ] PSNR, SSIM이란? (0) | 2023.01.28 |
[ Computer Vision ] Attention, Transformer 이해하기 (2) | 2023.01.14 |
[ Computer Vision ] Siamese-ennead CNN이란? (0) | 2023.01.03 |
Comments