일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- FineGrained
- ML
- Depth estimation
- nerf
- 알고리즘
- classification
- pytorch
- dl
- Python
- web
- GAN
- Meta Learning
- clean code
- 자료구조
- nlp
- 머신러닝
- Front
- CV
- 딥러닝
- Vision
- SSL
- FGVC
- math
- REACT
- cs
- computervision
- Torch
- 3d
- algorithm
- PRML
- Today
- Total
목록전체 글 (216)
KalelPark's LAB
포아송 분포(Poisson Distribution) 어떤 단위 구간(시간)에서 일어나는 특정 사건의 발생 횟수 분포에 대한 것을 의미합니다. 즉, 포아송 분포를 통하여, 평균 발생 횟수가 5개가 되는 단위 구간에서 사건이 3개 일어날 확률은 어느정도가 되는지 구할 때 사용합니다. 해당 구간 내 사건은 랜덤으로 일어나므로 정확한 타이밍은 예측하는 것이 불가능합니다. * 포아송 분포(Poission distribution)을 따른다면, 다음의 성질을 만족해야 합니다. 1. 서로 겹치지 않는 단위 구간에서 발생하는 사건들은 서로 독립이다. 2. 단위 구간의 크기 대비 사건의 평균 발생 횟수의 비율은 일정하다. 3. 같은 사건이 동시에 일어날 확률은 0이다. * 여기서 눈여겨볼 점은 포아송 분포는 기댓값과 분산..
Binary Variables 랜덤 변수 x 가 x ∈ {0,1} 인 상황(즉, 취할 수 있는 값이 단 2개)에서의 확률 분포를 살펴본다. 예를 들어, 동전의 앞, 뒷면이 나올 확률이 서로 동일하지 않다고 가정 시, 확률은 p( x = 1 | μ ) = μ 로 표현할 수 있다. 반대의 경우도, p ( x = 0 | μ ) = 1 − μ 이다. 이를 하나의 표현식으로 합쳐 만들어내면 다음과 같이 기술할 수 있다. Bern(x|μ)=μ^(x)(1−μ)^(1−x)로 표현 가능하다. (Bernoulli) 베르누이 확률변수는, 표본 데이터가 하나 뿐일때 사용되고, 표본 데이터가 여러 개 존재한다면 이항 분포(binominal distribution)를 따릅니다. * 이후 베타 분포를 설명하지만, 베타 분포를 알기..
What's Neural Radiance Fields? NeRF는 2D 이미지를 3D로 변환해주는 모델입니다. 쉽게 말하자면, 여러 장의 이미지를 입력 받아, 새로운 시점에서의 물체 이미지를 만들어내는 View Synthesis 모델입니다. N개 시점에서 불연속적인 2D 이미지를 입력 받아, 이미지가 연속적으로 구성될 수 있도록 임의의 시점에서 새로운 이미지를 만들어냅니다. NeRF의와 기존 기술과의 차별점 2D 이미지에서 3D 모델을 추출해내는 기술 자체는 이미 기존에도 존재했던 기술입니다. Photogrammetry 기법 혹은 3D scanning을 이용한 3D 모델 생성 등은 여러 산업 현장에서 쓰이는 기술이지만, NeRF는 이들과 몇가지 근본적인 차별점이 존재합니다. NerF는 훌륭한 빛 반사가 ..
Information Theory - 어떤 이산 랜덤 변수 x가 있다고 하자. - 우리가 x의 구체적인 값을 관찰하는 경우 얼마만큼의 정보(information)을 얻는지를 정량화하는 것이 가능합니다. * 정보(Information)은 "학습에 있어 필요한 놀람의 정도(degree of surprise)"로 해석하면 된다. * 정보의 양을 h(x)라고 정의한다면, 정의는 결국 확률 함수의 조합으로 표현이 되게 될 것이다. 위의 내용을 정리하자면, 이산확률변수에서는 Non-uniform 분포에서는, Uniform 분포보다 엔트로피가 낮다고 설명하는 것이 가능합니다. 반면에, 연속확률변수에서는 정규분포가 엔트로피를 최대로 만들어냅니다. Relative Entropy and Mutual Information ..
Abstract 본 논문에서는 monocular video에 의하여, 제공되는 supervision에서 robot ego-motion과 scene depth를 unsupervised learning으로 다루기 위한 방법을 제시합니다. 높은 퀼리티의 결과를 생성하기 위한 새로운 접근법을 제공하고, 움직이는 객체를 모델링이 가능하다는 것을 보여줍니다. 주된 아이디어는 학습 프로세스에서 장면과 객체들간의 기하학적 구조를 도입하는 것이 가능합니다. 학습과정에서는 ego-motion과 object-mothin을 monocular video에 input으로 활용합니다. Introduction 실내, 실외 동일한 환경에서, robot navigation으로부터 장면을 depth하는 것은 중요합니다. 최근 방법론들은 ..
The Decision Theory 추론의 문제, 즉 p(x, t)를 결정하는 문제는 불확실성에 대한 상황을 확률적 표현법으로 기술하는 과정을 포함 이러한 확률의 정보를 바탕으로 최적의 결정을 만들어 내는 것이 바로 결정 이론(decision Theory)이다. * 목적은 잘못된 선택을 하게될 가능성을 줄이는 것이라고 볼 수 있다. 추론과 판별 (inference and decision) 추론(inference) : 학습 데이터를 이용하여, P(C|x)에 대한 모델을 학습 판별(decision) : 추론한 사후 확률 분포를 이용하여 실제 입력된 데이터의 클래스를 결정 * 클래스 판별 문제는 크게 3가지로 나눌 수 있습니다. - Generative Models 1. 클래스-조건부 밀도(class-condi..
Abstract 다양한 scale로부터, depth에 대한 ground-truth를 얻는 것은 어렵습니다. 이러한 문제를 극복하기 위해, Self-Supervised Learning이 대안으로 떠오르고 있습니다. 본 논문에서는, 기존의 SSL 방법론에서 quantitatively와 qaulity를 개선한 방법을 제안합니다. 본 논문에서는, 단순한 Architecture를 보여줍니다. 주된 기여는. 1) robustly handle occulsions을 위한 mimum reprojection loss 2) visual artifact를 감소시키기 위한, full-resolution multi-scale sampling 방법 3) camera motion을 violate한 pixel을 무시하는 auto ma..
우선 판별 분석을 먼저 살펴보도록 하겠습니다. 판별 분석이란? - 집단을 구분할 수 있는 설명변수를 통하여, 집단 구분 함수식을 도출하고, 집단을 예측하는 것 분류와의 차이점으로는, 존재하는 그룹의 수를 알고, 새로운 대상이 어느 그룹에 속하는 결정할 때 사용합니다. (KNN) 일반적으로, 가장 손쉬운 방식은 전체 입력 범위를 작은 단위의 셀(cell)로 나누어, x가 속한 셀 내에서 가장 많은 클래스를 확인한 뒤 해당 클래스로 분류하는 것을 의미합니다. 하지만, 이러한 방식은 입력 데이터의 차원이 증가하게 되면 적용하기 상당히 힘들어집니다. 차원의 저주(the Curse of Dimensionality) - 저차원 공간에서 얻은 직관이 고차원 공간에서도 통용될 것이라는 것을 믿으면 안됩니다. 위의 그림..