일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- cs
- Vision
- clean code
- ML
- FineGrained
- GAN
- dl
- web
- CV
- PRML
- Meta Learning
- nlp
- 자료구조
- classification
- FGVC
- Depth estimation
- 딥러닝
- computervision
- pytorch
- Python
- algorithm
- 알고리즘
- 3d
- nerf
- Torch
- REACT
- Front
- SSL
- 머신러닝
- math
- Today
- Total
목록fewshot (2)
KalelPark's LAB
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract 기계 학습을 활용하여, 좋은 feature를 학습하는데는 Computationally expensive..
Meta Learning for Model - Model 기반의 Meta Learning에서 학습하고자 하는 학습 방법은 순환 신경망의 은닉 상태와 같은 변화하는 내부 다이내믹스(internal dynamics)입니다. - LSTM과 같이, 많은 태스크를 학습하여, 정보를 기억하는 것을 목표로 합니다. 즉 LSTM과 같은 메모리 안의 내부 다이내믹스(internal dynamics)가 일종의 학습 방법이라고 해석할 수 있습니다. 즉, 정리해보자면 1. 태스크 분포 p(T)에서 태스크 T_{i}를 샘플링합니다. 2. 태스크 T_{i}를 D_{train}과 D_{test}로 분리합니다. 3. 태스크 파라미터를 아래와 같은 식을 활용하여, 계산합니다. EX>