일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 알고리즘
- PRML
- 자료구조
- web
- FineGrained
- REACT
- Vision
- CV
- cs
- computervision
- FGVC
- algorithm
- 3d
- math
- Meta Learning
- Depth estimation
- clean code
- pytorch
- nlp
- 딥러닝
- nerf
- Front
- Torch
- classification
- ML
- 머신러닝
- SSL
- GAN
- Python
- dl
- Today
- Total
목록Data Science (117)
KalelPark's LAB
* 본 논문에서, 활용되는 내용입니다. (참고하시기 바랍니다.) https://kalelpark.tistory.com/45 [ 논문 리뷰 ] Unsupervised Learning of Visual Representations by Solving Jigsaw Puzzles GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVis kalelpark.tistory.com Jigsaw Permutations Table - Self Supervised Le..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract Self Supervision 원칙을 따름으로써, 우리는 pretext task를 따름으로써, jigs..
Siamese Neural Network [ 샴 네트워크 ] - 쌍둥이들이 비슷한 생김새를 가질 뿐만 아니라, 신체의 일부를 공유하는 Network입니다. - Few-shot에서 자주 보이는 모델입니다. Training - 두 개의 입력 데이터(Imput1, Input2)를 준비합니다. - 각 입력에 대한 임베딩 값(Embedding1, Embedding2)를 활용합니다. - 임베딩 사이의 거리를 계산하고, 두 입력이 같은 클래스에 속하면 거리를 가깝게, 다른 클래스에 속하면 거리를 멀게 학습시킵니다. 참고 https://tyami.github.io/deep%20learning/Siamese-neural-networks/ Siamese Neural Networks (샴 네트워크) 개념 이해하기 Siame..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract Prototype 기반 방법론들은 블랙박스 특성을 해결하기 위해 해석 가능한 표현을 사용합니다. 본 논..
All about Activation Function - 입력 신호의 총합을 출력 신호로 변환하는 함수를 말합니다. - 활성화 함수가 비선형 함수여야 하는 이유? - 인공 신경망에서 선형 함수를 이용하면, 신경망의 층을 깊게하는 의미가 없습니다. 그러므로, 층을 쌓기 위해서는 비선형 함수인 활성화 함수(Activation Function)를 사용해야 됩니다. Sigmoid import numpy as np def sigmoid(x): return 1 / (1 + np.exp(-x)) - Logistic Regression이라고도, 불린다. 일반적으로 활용되는 활성화 함수이며, [0, 1]의 범위를 갖습니다. 단점 - Gradient Vanishing 현상이 발생합니다. 미분 함수에 대해서 | x | 값이..
All about Classification Metrics - Medical 및 Classification에는 여러가지 Metrics들이 존재합니다. * 이진 분류를 예시로 설명을 진행하도록 하겠습니다. * 반드시 알고 가셔야 합니다...! Accuracy - 가장 대표적으로 사용되는 지표로 전체 데이터 중, 제대로 분류된 데이터의 비율을 의미합니다. - 수식으로는, accuracy = (TP + TN) / Total Sensitivity (Recall or True Positive Rate) - 민감도라고 하는데, Sensitive 또는 Recall이라고도 합니다. - 예를 들면, 암 환자 100명중에서 90명을 예측해서 맞췄을 경우, Sensitivity = 0.9가 됩니다. - 수식으로는, Sens..
GitHub를 참고하시면, CODE 및 다양한 논문 리뷰가 있습니다! 하단 링크를 참고하시기 바랍니다. (+ Star 및 Follow는 사랑입니다..!) https://github.com/kalelpark/Awesome-ComputerVision GitHub - kalelpark/Awesome-ComputerVision: Awesome-ComputerVision Awesome-ComputerVision. Contribute to kalelpark/Awesome-ComputerVision development by creating an account on GitHub. github.com Abstract Deep Neural Network에서는 여전히 영구적인 문제가 존재합니다. 새로운 데이터를 직면할 때..
NTM(Neural Turing Machines) * Meta Learning의 MANN(Memory-Augmented Neural Networks)와 SNAIL(Neural Attentive Meta-Learner) 두 알고리즘에 대해서 이해하기 위해 공부해야 하는 선수조건입니다. - 이름 그대로, Neural Networks를 이용해, Turing Machine을 구현하는 것이다. (Turing Machine : 현대 컴퓨터 구조의 토대가 된 가상의 기계로, 수치 연산, 메모리 읽기, 메모리 쓰기의 기능을 가지고 있다.) - 이전의 Memory 형태로 저장되는 RNN과 LSTM은 Implicit Memory를 가지고 있었지만, 외부의 메모리를 가질 수 없었습니다. NTM은 Neural Networks..