Recent Posts
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- cs
- SSL
- nerf
- GAN
- pytorch
- computervision
- classification
- dl
- Python
- REACT
- clean code
- FineGrained
- ML
- Torch
- 3d
- math
- Front
- Vision
- 알고리즘
- web
- PRML
- nlp
- algorithm
- Depth estimation
- CV
- FGVC
- 자료구조
- Meta Learning
- 딥러닝
- 머신러닝
- Today
- Total
목록activation function (1)
KalelPark's LAB
[ Computer Vision ] All about Activation Function
All about Activation Function - 입력 신호의 총합을 출력 신호로 변환하는 함수를 말합니다. - 활성화 함수가 비선형 함수여야 하는 이유? - 인공 신경망에서 선형 함수를 이용하면, 신경망의 층을 깊게하는 의미가 없습니다. 그러므로, 층을 쌓기 위해서는 비선형 함수인 활성화 함수(Activation Function)를 사용해야 됩니다. Sigmoid import numpy as np def sigmoid(x): return 1 / (1 + np.exp(-x)) - Logistic Regression이라고도, 불린다. 일반적으로 활용되는 활성화 함수이며, [0, 1]의 범위를 갖습니다. 단점 - Gradient Vanishing 현상이 발생합니다. 미분 함수에 대해서 | x | 값이..
Data Science/Common
2023. 1. 1. 13:44