Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- dl
- Meta Learning
- Front
- FineGrained
- SSL
- 딥러닝
- REACT
- cs
- Vision
- CV
- GAN
- classification
- Python
- FGVC
- Depth estimation
- computervision
- Torch
- 3d
- 자료구조
- clean code
- algorithm
- nlp
- 알고리즘
- math
- web
- 머신러닝
- PRML
- ML
- pytorch
- nerf
- Today
- Total
목록Common (1)
KalelPark's LAB
[ Computer Vision ] Batchsize에 따른 loss의 변화율
BatchSize에 따른 loss의 변화율 - batch size의 크기에 따라 학습되는 과정은 달라질 수 있습니다. batch size가 작으면, 순간 loss가 커져서 convex hole에 위치한 곳에서 급격하게 자리를 변경할 우려가 있습니다. - batchsize가 크면, 여러 데이터를 평균으로 loss가 구해지기 때문에 훨씬 robustness 해집니다. SSL 시, Batchsize가 커야하는 이유가 아래와 동일합니다. 여러 데이터를 평균으로 backpropagation을 해야 성능이 올라갑니다. 또한 우측의 표를 보면, LR에 작으면 Batchsize가 작을수록 높은 성능이 나오지만, LR이 큰 경우, Batchsize가 클수록 성능이 높이 나오는 것을 알 수 있습니다. 하지만, Batchs..
Data Science/Common
2023. 3. 19. 18:05