| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- rl
- Vision
- Meta Learning
- CV
- REACT
- 3d
- cs
- Python
- Depth estimation
- PRML
- 딥러닝
- web
- 자료구조
- clean code
- 알고리즘
- SSL
- classification
- computervision
- ML
- Torch
- algorithm
- 머신러닝
- nerf
- dl
- Front
- pytorch
- nlp
- FGVC
- FineGrained
- math
- Today
- Total
목록dl (153)
KalelPark's LAB
Score Distillation SamplingScore Distillation Sampling(SDS)은 사전 학습된 diffusion 모델을 학습 대상이 아닌 고정된 target(teacher) 으로 두고, 이 모델이 제공하는 score(이미지가 텍스트 조건에 맞는 방향 정보) 만을 활용해 새로운 모델을 학습하는 방법이다. SDS에서는 정답 이미지나 실제 데이터셋, 혹은 GAN에서 사용하는 판별기와 같은 명시적인 감독 신호가 전혀 필요하지 않으며, 오직 현재 모델이 생성한 결과가 diffusion 모델이 학습한 데이터 분포와 텍스트 조건에 얼마나 부합하는지를 나타내는 gradient 방향만을 사용한다. 구체적으로는, 학습 중인 모델이 생성한 이미지에 noise를 추가한 뒤 이를 target diff..
Multi Head Attention (MHA) - KV cache을 없다면, - MHA 방법은, 주어진 token을 모두 넣어, KVQ 모두를 구합니다. 그러한 경우, Query 하고 KEY를 내적하는 과정에서, Query의 길이와 Key 전체 길이 (Query Key 동일한 길이를 쓰므로) 그리고 D 의 차원이므로 O(L^2D)라는 시간복잡도가 된다. - Deconder Only 방식은, 이러한 과정을 계속해서 계산을 수행함.KV-Cache - Cache 계산 - 먼저 Input Sequence 에 대해서, QKV를 계산한 이후, KV를 저장해둡니다. 이후, 다음 토큰을 계산합니다. - 중복 계산을 피함 ..
Absolute Trajectory Error (ATE) - 추정된 카메라 경로와 실제 카메라 경로간의 절대적인 차이를 나타내는 지표Relative Pose Error [Translation](RPE - Trans) - 연속된 두 프레임 사이의 카메라 이동 추정 오차를 의미함Relative Pose Error [Rotation](RPE - Rot) - 연속된 두 프레임 사이의 카메라 회전 추정 오차를 의미함Absolute Relative Error (Abs Rel) + Delta (픽셀 비율) - 예측된 깊이와 실제 깊이 사이의 절대 상대 오차 Accuracy (Acc) - Reconstruction Point Cloud가 GT 표면 ..
Reverse Process for DDIM and SDE* DDIM과 SDE의 Reverse Process는 다음과 같이 정의 가능하다. 기존 Diffusion의 문제는 Sampling이 오래 걸림, 그러한 이유는 - 매 Step 마다 Noise Sampling을 해야 하기 때문임. - Trajectory경로가 매우 달라져, 변환이 종종 일어나고, 랜덤성이 큼* 이러한 문제를 해결하고자, ODE 를 활용하고자 함. - Stochastic한 문제가 아닌 deterministic 하게 해결을 하고자 함
ODE (Ordinary Differential Equation) - 시간에 따른 변화나 어떤 양의 변화를 수학적으로 나타내는 방정식을 의미함SDE (Stochastic Differential Equation) - 시간에 따른 변화의 대한 것에 무작위성을 추가한것FPE (Fokker-Planch Equation) - 이러한, SDE 의 형태가 여러개가 연속적으로 움직이는 것Langevin Dynamics Equations - 입자가 어떻게 변하는지 SDE를 물리적 관점에서 입자의 변화를 살펴 본 것Fowrad 와 Reverse 관계 표현 Anderson에 의해서, 그렇게 되면 score function만 잘 구하면, Reverse 해결!
Classifier Guidance - Condition y 를 고려하여, joint distribution을 구축하고, xt에 대한 condition을 고려하여 y 예측 - Classifier 를 추가하여 모델을 학습함. Weight를 곱하여, Conditioned 에 대한 정도를 향상 시킬 수 있음 - Classifier 를 추가하여 모델을 학습함. Weight를 곱하여, Conditioned 에 대한 정도를 향상 시킬 수 있음.이러한 방법을 활용하면, p(y|x)^w로 인하여, 각 class에 대해서 more focus를 들 수 있다.더 나아가, 다양한 fidelity를 보여줄 수 있다. 다만 다양성이 떨어지는 측면에서 문제가 될 수 있다.Classifier Free Guidance ..
DQN ( Deep Q Network ) - 기존 Deep Q Learning 의 문제점 - Data Correlation 문제 - Reinforce Learning의 초반에 터무니 없는 행동 ( 수 많은 State가 있어 문제 있는 행동들이 만들어짐 ) - 예측과 정답을 모두 Network에 나오고, 2가지를 모두 학습하는 형태로 인한, 문제 - Solution - Batch 데이터를 Buffer에 저장하여 학습에 사용합니다. ( 단, 학습 사용 X ). Random Sampling - Seperated Network --> 주기적으로 Update 및 BootStrapping. [코드 참고]1...
Q-Learning - Q-Table: Table 이 커지는 문제가 생김. ( State, Action이 많아진다면.. ) 즉, 기존, Q-learning 의 경우, state-action (s, a)에 해당하는 Q-value인 Q(s,a)를 테이블 형식으로 저장하여 학습합니다. - 이러한 방식은, state space와 action space가 커지게 되면, 모든 Q-value를 저장하기에 많은 Memory와 긴 Exploration time이 필요합니다. - 이러한 문제를 해결하고자, 딥러닝으로 근사한 Q-function의 weight paramter들을 사용하는 방식 비록, 기존의 몇몇 방식이 있었으나, Sample..