일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- algorithm
- Vision
- clean code
- CV
- dl
- 머신러닝
- SSL
- classification
- nerf
- FineGrained
- Front
- Python
- cs
- computervision
- math
- pytorch
- 3d
- GAN
- FGVC
- nlp
- Depth estimation
- REACT
- 알고리즘
- Meta Learning
- PRML
- Torch
- 자료구조
- 딥러닝
- ML
- web
- Today
- Total
목록attention (3)
KalelPark's LAB
Abstract 본 논문에서는 dot product self attention을 사용하지 않는 Attention Free Trnasformer (AFT)을 제시합니다. AFT layer는 key와 value를 position biases와 함께 결합됩니다. 이후, query와 함께 element-wise 형태로 계산됩니다. 이러한 작업은 context size와 dimension of features에서 선형복잡성을 가지고, large input과 model size에서도, 모두 호환하게 합니다. 또한 global connectivity를 유지하면서, locality와 spatial weight를 공유하는 장점을 가지는 2가지 모델의 변형은 AFT-local과 AFT-conv를 소개합니다. Introd..
해당 객체에 Attention을 줘보도록 하겠습니다. :) CODE import torch import torch.nn as nn import torch.nn.functional as F from PIL import Image from torchvision.transforms import transforms trans_main = transforms.Compose([ transforms.Resize((224, 224)), transforms.ToTensor(), transforms.Normalize(mean = 0.5, std = 0.5), ]) class ImageAttentionMap(nn.Module): def __init__(self): super(ImageAttentionMap, self).__..
Attention 이란? - Attention의 사전적 의미는 "집중"이다. 이러한 의미는 Decoder에서 출력을 하고자 할때, 어떤 Encoder 정보에 집중해야 하는지 알 수 있도록 하여 출력하는데, 도움을 주겠다는 의미이다. Attention 용어 - Query : 찾고자 하는 대상 - Key : 저장된 데이터를 찾고자 할 때 참조하는 값 - Value : 저장되는 데이터 - Dictionary : Key-Value 쌍으로 이루어진 집합 - Attention에서는 Query에 대해서 어떤 Key와 유사한지 비교를 하고, 유사도를 반영하여, Key에 대응하는 Value를 합성하는 것이 Attention Value가 된다. 즉, Query는 하나이고, Query에 해당하는 Dictionary : Ke..