일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Front
- CV
- REACT
- math
- nerf
- Vision
- nlp
- clean code
- Torch
- pytorch
- GAN
- computervision
- web
- PRML
- 머신러닝
- classification
- 딥러닝
- Depth estimation
- cs
- ML
- algorithm
- 알고리즘
- SSL
- 자료구조
- FineGrained
- dl
- Meta Learning
- Python
- 3d
- FGVC
- Today
- Total
목록Meta Learning (8)
KalelPark's LAB
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract 본 논문에서는 Prototypical Network를 제안합니다. Prototypical Network..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract 기계 학습을 활용하여, 좋은 feature를 학습하는데는 Computationally expensive..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract Deep Neural Network에서는 여전히 영구적인 문제가 존재합니다. 새로운 데이터를 직면할 때..
NTM(Neural Turing Machines) * Meta Learning의 MANN(Memory-Augmented Neural Networks)와 SNAIL(Neural Attentive Meta-Learner) 두 알고리즘에 대해서 이해하기 위해 공부해야 하는 선수조건입니다. - 이름 그대로, Neural Networks를 이용해, Turing Machine을 구현하는 것이다. (Turing Machine : 현대 컴퓨터 구조의 토대가 된 가상의 기계로, 수치 연산, 메모리 읽기, 메모리 쓰기의 기능을 가지고 있다.) - 이전의 Memory 형태로 저장되는 RNN과 LSTM은 Implicit Memory를 가지고 있었지만, 외부의 메모리를 가질 수 없었습니다. NTM은 Neural Networks..
Meta Learning for Model - Model 기반의 Meta Learning에서 학습하고자 하는 학습 방법은 순환 신경망의 은닉 상태와 같은 변화하는 내부 다이내믹스(internal dynamics)입니다. - LSTM과 같이, 많은 태스크를 학습하여, 정보를 기억하는 것을 목표로 합니다. 즉 LSTM과 같은 메모리 안의 내부 다이내믹스(internal dynamics)가 일종의 학습 방법이라고 해석할 수 있습니다. 즉, 정리해보자면 1. 태스크 분포 p(T)에서 태스크 T_{i}를 샘플링합니다. 2. 태스크 T_{i}를 D_{train}과 D_{test}로 분리합니다. 3. 태스크 파라미터를 아래와 같은 식을 활용하여, 계산합니다. EX>
* 해당 포스팅을 보기 전에, 이전 논문 리뷰를 우선적으로 참고하시는데 많은 도움이 될 것입니다. 감사합니다. https://kalelpark.tistory.com/28 [논문 리뷰] Optimization as a model for few-shot learning? GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVis kalelpark.tistory.com Torchmeta란? Pytorch에서의 few-shot learning & meta-l..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract - 일반적으로 큰 Network에서는, Gradient based optimization은 상당히 많은..
Meta Learning? - 인공지능 분야에서의 메타러닝은 새로운 개념 또는 테스크를 빠르게 학습하기 위해 학습을 학습(learning to learn)하는 방법 이라고 합니다. 즉, 새로운 태스크를 더 빨리 학습하기 위해 이전의 학습 경험을 적극적으로 활용하는 방법이라고 생각할 수 있습니다. - 메타러닝의 핵심 아이디어는 학습 에이전트가 단순히 해당 데이터를 학습하는 것뿐만 아니라, 자신의 학습 능력을 스스로 향상시킨다는 것입니다. - 메터러닝과 자주 언급되는 개념으로 멀티 태스크 러닝이 존재합니다. 멀티 태스크 러닝은 하나의 모델이 다양한 여러 테스크를 잘 학습하고, 테스트 시 학습한 태스크들과 같은 여러 태스크를 잘 수행하는 것을 목표로 합니다. Dataset for Meta Learning Om..