일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- web
- 자료구조
- REACT
- algorithm
- GAN
- SSL
- classification
- Torch
- 알고리즘
- 딥러닝
- math
- FGVC
- FineGrained
- PRML
- Python
- Front
- pytorch
- clean code
- nerf
- Depth estimation
- 머신러닝
- 3d
- nlp
- cs
- dl
- Vision
- CV
- Meta Learning
- computervision
- ML
- Today
- Total
목록KalelPark's DataScience (216)
KalelPark's LAB
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract Deep Neural Network에서는 여전히 영구적인 문제가 존재합니다. 새로운 데이터를 직면할 때..
__future__이란? * Python 이전의 버전의 문법을 활용하는 것을 가능하게 합니다. absolute_import : 표쥰 모듈을 우선적으로 import하는 역할입니다. division : 이전의 파이썬 버전에서 작성된 나눗셈을 최신 파이썬 버전에서 매끄럽게 작동하도록 하게합니다. print_function : 향후에 파이썬의 어떤 버전을 활용하더라도, print()를 사용하겠다는 것을 선언한 것입니다. from __future__ import absolute_import from __future__ import division from __future__ import print_function 하단에 참고한 링크에 더욱 다양한 내용들이 있으니, 참고하시기 바랍니다. 감사합니다. Referenc..
NTM(Neural Turing Machines) * Meta Learning의 MANN(Memory-Augmented Neural Networks)와 SNAIL(Neural Attentive Meta-Learner) 두 알고리즘에 대해서 이해하기 위해 공부해야 하는 선수조건입니다. - 이름 그대로, Neural Networks를 이용해, Turing Machine을 구현하는 것이다. (Turing Machine : 현대 컴퓨터 구조의 토대가 된 가상의 기계로, 수치 연산, 메모리 읽기, 메모리 쓰기의 기능을 가지고 있다.) - 이전의 Memory 형태로 저장되는 RNN과 LSTM은 Implicit Memory를 가지고 있었지만, 외부의 메모리를 가질 수 없었습니다. NTM은 Neural Networks..
Meta Learning for Model - Model 기반의 Meta Learning에서 학습하고자 하는 학습 방법은 순환 신경망의 은닉 상태와 같은 변화하는 내부 다이내믹스(internal dynamics)입니다. - LSTM과 같이, 많은 태스크를 학습하여, 정보를 기억하는 것을 목표로 합니다. 즉 LSTM과 같은 메모리 안의 내부 다이내믹스(internal dynamics)가 일종의 학습 방법이라고 해석할 수 있습니다. 즉, 정리해보자면 1. 태스크 분포 p(T)에서 태스크 T_{i}를 샘플링합니다. 2. 태스크 T_{i}를 D_{train}과 D_{test}로 분리합니다. 3. 태스크 파라미터를 아래와 같은 식을 활용하여, 계산합니다. EX>
* 해당 포스팅을 보기 전에, 이전 논문 리뷰를 우선적으로 참고하시는데 많은 도움이 될 것입니다. 감사합니다. https://kalelpark.tistory.com/28 [논문 리뷰] Optimization as a model for few-shot learning? GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVis kalelpark.tistory.com Torchmeta란? Pytorch에서의 few-shot learning & meta-l..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract - 일반적으로 큰 Network에서는, Gradient based optimization은 상당히 많은..
Meta Learning? - 인공지능 분야에서의 메타러닝은 새로운 개념 또는 테스크를 빠르게 학습하기 위해 학습을 학습(learning to learn)하는 방법 이라고 합니다. 즉, 새로운 태스크를 더 빨리 학습하기 위해 이전의 학습 경험을 적극적으로 활용하는 방법이라고 생각할 수 있습니다. - 메타러닝의 핵심 아이디어는 학습 에이전트가 단순히 해당 데이터를 학습하는 것뿐만 아니라, 자신의 학습 능력을 스스로 향상시킨다는 것입니다. - 메터러닝과 자주 언급되는 개념으로 멀티 태스크 러닝이 존재합니다. 멀티 태스크 러닝은 하나의 모델이 다양한 여러 테스크를 잘 학습하고, 테스트 시 학습한 태스크들과 같은 여러 태스크를 잘 수행하는 것을 목표로 합니다. Dataset for Meta Learning Om..
Pickle이란? - 텍스트 상태의 데이터가 아닌 파이썬 객체 자체를 바이너리 파일로 저장하는 것을 의미합니다. - 텍스트 형태로 파일을 저장하는 것이 아니라, Dictionary, list, tuple과 같은 형태로 필요한 부분을 저장하는 것이다. 하지만, 문자열이 아닌 객체를 파일에 쓸 수 없기 때문에 pickle 모듈을 활용하여, 객체 자체를 binary로 저장하는 것이다. * 무거운 텍스트 파일을 binary형태로 저장한 것이기 때문에, 필요할 때만 불러오기만 하면 되기 때문에 속도가 상당히 빠릅니다. Pickle Module로 저장하고 불러오기 import pickle f = open("a.pkl", "rb") # pickle 불러오기 temp = pickle.load(f) f.close() f..