μΌ | μ | ν | μ | λͺ© | κΈ | ν |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- ν¬λ‘€λ§
- λ°μ΄ν°λΆκ· ν
- ADsP
- dataframe
- μ£Όμ±λΆλΆμ
- λ°μ΄ν°λΆμμ λ¬Έκ°
- λ°μ΄ν°λΆμ
- λΉ λ°μ΄ν°
- μ€λ²μνλ§
- ν μ€νΈλΆμ
- λΉ λ°μ΄ν°λΆμκΈ°μ¬
- PCA
- numpy
- iloc
- pandas
- νμ΄μ¬
- LDA
- datascience
- κ΅°μ§ν
- λ 립νλ³Έ
- ADP
- λ°μ΄ν°λΆμμ€μ λ¬Έκ°
- λμνλ³Έ
- Python
- μΈλμνλ§
- opencv
- DBSCAN
- t-test
- μλν΄λΌμ°λ
- Lambda
Data Science LAB
[Deep Learning] νμ±ν ν¨μ μ’ λ₯ λ° λΉκ΅ μ 리 λ³Έλ¬Έ
[Deep Learning] νμ±ν ν¨μ μ’ λ₯ λ° λΉκ΅ μ 리
γ γ γ γ 2022. 11. 21. 17:401. νμ±ν ν¨μ(Activation Function) μλ―Έ
λ₯λ¬λ λ€νΈμν¬μμ λ Έλμ μ λ ₯λ κ°λ€μ λΉμ ν ν¨μμ ν΅κ³Όμν¨ ν λ€μ λ μ΄μ΄λ‘ μ λ¬νλλ°, μ΄ λ μ¬μ©νλ ν¨μλ₯Ό μλ―Ένλ€. μ ν ν¨μκ° μλ λΉμ ν ν¨μλ₯Ό μ¬μ©νλ μ΄μ λ λ₯λ¬λ λͺ¨λΈμ λ μ΄μ΄ μΈ΅μ κΉκ² κ°μ Έκ° μ μκΈ° λλ¬Έμ΄λ€.
νμ±ν ν¨μλ μ λ ₯ μ νΈμ νΈν₯μ μ΄ν©μ κ³μ°νμ¬ λ€μ λ μ΄μ΄λ‘ μ΄λ»κ² μΆλ ₯ν μ§λ₯Ό κ²°μ νλ€. μ΄λ μ€μ ν μκ³κ°μ κ²½κ³λ‘ μΆλ ₯κ°μ΄ λ°λκ² λλ€.
2. νμ±ν ν¨μμ μ’ λ₯
1 ) Sigmoid
- Logistic ν¨μλΌκ³ λΆλ¦¬κΈ°λ νλ©° xμ κ°μ λ°λΌ 0~1 μ¬μ΄μ κ°μ μΆλ ₯νλ ν¨μμ΄λ€.
- νμ΄μ¬ ꡬν
def sigmoid(x):
return 1 / (1 + np.exp(-x))
- sigmoid νΉμ§
- μμ κ°μ 0μ κ°κΉκ² νννκΈ° λλ¬Έμ μ λ ₯ κ°μ΄ μ΅μ’ λ μ΄μ΄μμ λ―ΈμΉλ μν₯μ΄ μ μ΄μ§λ Vanishing Gradient Problem λ°μ
- λ―ΈλΆ κ³μμ μ΅λκ°μ΄ 0.25μ΄κΈ° λλ¬Έμ νμ΅μ μν΄ Back-propagationμ κ³μ°νλ κ³Όμ μμ νμ±ν ν¨μμ λ―ΈλΆ κ°μ κ³±νλ κ³Όμ μ΄ ν¬ν¨λλλ°, sigmoidν¨μμ κ²½μ° μλμΈ΅μ κΉμ΄κ° κΉμΌλ©΄ μ€μ°¨μ¨μ κ³μ°νκΈ° μ΄λ €μ
- μ€μ¬μ΄ 0μ΄ μλκΈ° λλ¬Έμ νμ΅μ΄ λλ €μ§ μ μλ λ¨μ
- ν λ Έλμμ λͺ¨λ νλΌλ―Έν°μ λ―ΈλΆ κ°μ λͺ¨λ κ°μ λΆνΈμ΄κΈ° λλ¬Έμ κ°μ λ°©ν₯μΌλ‘ μ λ°μ΄νΈλλ κ³Όμ μ νμ΅μ μ§κ·Έμ¬κ·Έ ννλ‘ λ§λ¦
- λ―ΈλΆ κ²°κ³Όκ° κ°κ²°νκ³ μ¬μ©νκΈ° μ¬μ
- λͺ¨λ μ€μ κ°μ 0λ³΄λ€ ν¬κ³ 1λ³΄λ€ μμ λ―ΈλΆ κ°λ₯ν μλ‘ λ³ννλ νΉμ§ λλ¬Έμ Logistic Classificationκ³Ό κ°μ λΆλ₯ λ¬Έμ μ μμ£Ό μ¬μ©
- return κ°μ΄ νλ₯ κ°μ΄κΈ° λλ¬Έμ κ²°κ³Όλ₯Ό νλ₯ λ‘ ν΄μνκΈ° μ μ©
2) Hyperbolic Tangent ν¨μ (νμ΄νΌλ³Όλ¦, tanh)
- μ곑μ ν¨μ μ€ νλλ‘, Sigmoidμ λ¨μ μ 보μν ν¨μμ΄λ€.
- νμ΄μ¬ ꡬν
def tanh(x):
p_exp_x = np.exp(x)
m_exp_x = np.exp(-x)
y = (p_exp_x - m_exp_x) / (p_exp_x + m_exp_x)
return y
- tanh νΉμ§
- ν¨μμ μ€μ¬μ μ 0μΌλ‘ μ€μ ν΄ sigmoidμ λ¨μ μΈ μ΅μ ν κ³Όμ μμ μλκ° λλ¦° λ¨μ μ 보μν¨
- κΈ°μΈκΈ°κ° μμμ μμ λͺ¨λ λμ¬ μ μκΈ° λλ¬Έμ sigmoidλ³΄λ€ νμ΅ ν¨μ¨μ±μ΄ λ°μ΄λ¨
- sigmoidμ λΉν΄ λ²μκ° λκΈ° λλ¬Έμ μΆλ ₯μ λ³ννμ΄ λ ν¬κ³ Vanishing Gradient λ¬Έμ κ° λ μ μ
- λ―ΈλΆ ν¨μμ λν΄ μΌμ κ° μ΄μμμ λ―ΈλΆ κ°μ΄ μμ€λλ Vanishing Gradientμ μ¬μ ν λ¨μμμ
3) ReLU
- κ°μ₯ λ§μ΄ μ¬μ©λλ νμ±ν ν¨μ μ€ νλλ‘ μ λ ₯μ΄ 0 μ΄μμ΄λ©΄ κ·Έλλ‘ μΆλ ₯, 0 μ΄νμ΄λ©΄ 0μ μΆλ ₯νλ ν¨μμ΄λ€.
- νμ΄μ¬ ꡬν
def relu(x):
return np.maximum(0,x)
- ReLU νΉμ§
- xκ° 0λ³΄λ€ ν¬λ©΄ κΈ°μΈκΈ°κ° 1μΈ μ§μ , 0λ³΄λ€ μμΌλ©΄ ν¨μ κ°μ΄ 0μ΄ λλ€. μ΄λ 0λ³΄λ€ μμ κ°λ€μμ λ΄λ°μ΄ μ£½μ μ μλ λ¨μ (μ£½μ relu λ¬Έμ )
- sigmoid, tanh ν¨μλ³΄λ€ νμ΅μ΄ λΉ λ₯΄κ³ ꡬνμ΄ κ°λ¨ν¨
4) Leaky Relu
- 0λ³΄λ€ μκ±°λ κ°μ λ 0μ κ³±νλ κ²μ΄ μλλΌ xμ 0.01μ κ³±ν μμ μμ κΈ°μΈκΈ°λ₯Ό μ¬μ©ν¨
- μ£½μ relu λ¬Έμ λ₯Ό ν΄κ²°νκΈ° μν΄ λ±μ₯
5) PReLU
- xκ° μμμΌ λμλ xκ°μ κ·Έλλ‘ λμΆ, κ·ΈμΈμλ axκ°μ λμΆ (aλ λ€λ₯Έ μ κ²½λ§ λ§€κ°λ³μμ ν¨κ» νμ΅λλ νλΌλ―Έν°)
'π§ Deep Learning' μΉ΄ν κ³ λ¦¬μ λ€λ₯Έ κΈ
[Deep Learning] λ₯λ¬λμμ super().__init__ μ¬μ© (ν΄λμ€ μμ) (0) | 2022.12.07 |
---|---|
[Deep Learning] Tensorflowμμ Sequential λͺ¨λΈ μμ±νλ λ² (0) | 2022.11.24 |
[Deep Learning] μΆλ ₯μΈ΅ μ€κ³ (softmax, νλ± ν¨μ) (0) | 2022.11.23 |
[Deep Learning] μ΅μ ν λ°©λ² λΉκ΅ (SGD, Momentum, AdaGrad, Adam (0) | 2022.11.18 |
Deep Learningκ³Ό Machine Learning μ°¨μ΄μ (0) | 2022.02.13 |