일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- PRML
- 자료구조
- 머신러닝
- ML
- cs
- Python
- Torch
- 3d
- FineGrained
- CV
- nerf
- classification
- SSL
- Depth estimation
- clean code
- 알고리즘
- GAN
- Front
- REACT
- web
- math
- Meta Learning
- 딥러닝
- FGVC
- computervision
- dl
- Vision
- algorithm
- pytorch
- nlp
- Today
- Total
목록전체 글 (216)
KalelPark's LAB
Comparison, Generator Comparison을 사용하면, 타입을 간결하게 이터레이션하면서 원소로부터 파생되는 데이터 구조를 생성할 수 있습니다. Comparison은 Generator로 확장하는 것이 가능합니다. Generator는 성능을 향상시키고, 메모리 사용량을 줄이고, 코드의 가독성을 향상시킬 수 있습니다. list comparision을 사용하는 경우, map과 filter를 사용하는 대신에, list에서 바로 생성하는 것이 좋습니다. alt = map(lambda x : x ** 2, a) # don't use even_square = [x ** 2 for x in a if x % 2 == 0] # using list comparison print(even_sqaure) Sequ..
Logger - 서버에서 프로그램을 돌릴 때, 알아보기 쉽게 많은 것을 저장해두는 것이 좋습니다. print를 단순하기 사용하기 보다는, logger를 활용해서 저장해두는 것이 좋습니다. - 만약 loggging 시, text 파일을 이어쓰고자 한다면, mode를 "w"가 아닌 "a"를 사용하면 됩니다. wandb와 같이 어떻게 보면 유용하게 활용할 수 있습니다. 저는 이전에 tqdm을 사용하는데, 이제는 logger를 사용하려고 합니다. import sys class Logger(object): def __init__(self, local_rank = 0, no_save = False): self.terminal = sys.stdout self.file = None self.local_rank = lo..
Abstract 본 논문에서는 Self-supervised Learning으로 확장가능한 masked autoencoder를 소개합니다. input 이미지를 무작위로 patch로 분할 한 후, 몇 개는 정보를 잃게 한후, 다시 생성하도록 학습하는 방식입니다. 주된 기여로는 2가지가 존재합니다. 1. Using the Encoder Decoder structure, and reconsturcture msising patches in decoder. (Encode, Decoder 구조를 사용합니다.) 2. we mask high propotion for self-supervised learning task. (상당히 많은 부분 75%를 missing patches로 활용합니다.) Introduction GP..
Dictionary - 일반적으로, Dictionary의 원소 삽입 순서와 iteration 순서는 일치하지 않는다. 이러한 일이 발생하는 이유는, Dictionary의 구현이 내장 hash와 난수 씨앗값(seed)을 사용하는 해시 테이블 알고리즘이기 때문이다. - 만약 dictionary를 순서에 의존하고 싶다면, 아래와 같은 명령어를 사용하면 됩니다. baby_names = { "cat" : "kitten", "dog" : "puppy" } print(baby_names.keys()) print(baby_names.values()) print(baby_names.items()) print(baby_names.popitem()) 기존 방법에서는, dictionary에서 값을 불러올 때, 순서대로 불러오..
React Hooks class없이, state를 사용할 수 있는 새로운 기능이다. 필요한 이유? - React는 주로 Class Component를 다루기 위해서 사용되었지만, React Hooks는 Functional Component를 위해서 사용함. React Components class Components - 더 많은 기능 제공, 더 긴 코드, 복잡한 코드 및 더딘 성능 Functional Components - 더 적은 기능 제공, 짧은 코드 양, 더 심플한 코드, 더 빠른 성능 But, React 16.8 Hooks가 업데이트 되면서 발전하면서, 다양한 기능도 Functional Components에서 사용 가능. HOC(Higher Order Components) 란? 화면에서 재사용 가..
BERT가 무엇인지에 관련해서는, 하단의 링크를 참조하시면, 감사하겠습니다..! [논문 리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding Abstract BERT(Bidirectional Encoder Representations Transformers)에 대해서 소개합니다. BERT는 모든 layer로부터 양방향 정보를 활용하여, 학습합니다. 이후, downstream시, 단지 하나의 layer를 추가하여도, pretraining kalelpark.tistory.com 하단의 링크를 통해서, 데이터를 다운로드 하는 것이 가능합니다..! !git clone https://github.com/e9t/nsm..
Abstract Wasserstein Auto-Encoder (WAE)는 model distribution과 target distribution 사이의 거리를 Wasserstein form으로 최소화하여, penalized합니다. Encoding된 training distribution과 이전와 잘 match되도록 regularization합니다. 기존의 다른 방법론보다, FID가 상당히 높음을 설명합니다. 우선 FID(Frechet Inception Distance)란? 실제 이미지와 생성된 이미지에 대해 통계 측면에서 두 그룹이 얼마나 유사한지, 벡터 사이의 거리를 계산하는 메트릭이다. 본 논문에서는, Optimal transport(OT) 관점에서, generative model을 분석하여, Was..
Packing & Unpacking Packing : 인자로 받은 여러개의 값을 하나의 객체로 합쳐서 받을 수 있도록 합니다. tuple은 *를 사용하여, 나타냅니다. 반면에 **의 경우, dictionary로써 사용됩니다. def func(*args): print(args) print(type(args)) // func(1, 2, 3, 4, 5, 6, 'a', 'b') // result // (1, 2, 3, 4, 5, 6, 'a', 'b') // def kwpacking(**kwargs): print(kwargs) print(type(kwargs) // kwpacking(a=1, b=2, c=3) // result // {'a': 1, 'b': 2, 'c': 3} // Unpacking : 함수를 호..