【人工智能的数学基础】函数的光滑化(Smoothing)
AI天才研究院 2024-10-07 16:01:02 阅读 73
【人工智能的数学基础】函数的光滑化(Smoothing)
文章目录
【人工智能的数学基础】函数的光滑化(Smoothing)
1. 函数光滑化的定义
2. 函数光滑化的方法
(1) 人工选取光滑近似
⚪ max ( x , y ) = lim k → ∞ 1 k ln ( e k x + e k y ) \max(x,y)=\mathop{\lim}_{k \to ∞}\frac{1}{k}\ln(e^{kx}+e^{ky}) max(x,y)=limk→∞k1ln(ekx+eky)
⚪ max ( x 1 , x 2 , . . . , x n ) ≈ logsumexp ( x 1 , x 2 , . . . , x n ) \max(x_1,x_2,...,x_n)≈\text{logsumexp}(x_1,x_2,...,x_n) max(x1,x2,...,xn)≈logsumexp(x1,x2,...,xn)
⚪ onehot ( arg max ( x ) ) ≈ softmax ( x 1 , x 2 , . . . , x n ) \text{onehot}(\arg\max(x))≈\text{softmax}(x_1,x_2,...,x_n) onehot(argmax(x))≈softmax(x1,x2,...,xn)
⚪ arg max ( x ) ≈ ∑ i = 1 n i × softmax ( x ) i \arg\max(x)≈\sum_{i=1}^{n}i\times \text{softmax}(x)_i argmax(x)≈∑i=1ni×softmax(x)i
⚪ accuracy = 1 ∣ B ∣ ∑ x ∈ B < 1 y ( x ) , p ( x ) > \text{accuracy}=\frac{1}{|\mathcal{B}|}\sum_{x \in \mathcal{B}}^{} <1_y(x),p(x)> accuracy=∣B∣1∑x∈B<1y(x),p(x)>
⚪ F1-score = 2 ∑ x ∈ B p ( x ) y ( x ) ∑ x ∈ B p ( x ) + y ( x ) \text{F1-score} = \frac{2\sum_{x \in \mathcal{B}}^{} p(x)y(x)}{\sum_{x \in \mathcal{B}}^{}p(x)+y(x)} F1-score=∑x∈Bp(x)+y(x)2∑x∈Bp(x)y(x)
⚪ max ( x 1 , x 2 ) = x 1 + x 2 + ( x 1 − x 2 ) erf ( μ ( x 1 − x 2 ) ) 2 \max(x_1,x_2) = \frac{x_1+x_2+(x_1-x_2) \text{erf}(\mu (x_1-x_2))}{2} max(x1,x2)=2x1+x2+(x1−x2)erf(μ(x1−x2))
⚪ max ( x 1 , x 2 ) = ( x 1 − x 2 ) σ ( β ( x 1 − x 2 ) ) + x 2 \max(x_1,x_2) = (x_1-x_2)\sigma(\beta(x_1-x_2))+x_2 max(x1,x2)=(x1−x2)σ(β(x1−x2))+x2
(2) 使用Dirac函数近似
⚪构造取整函数的光滑近似
Smooth function and smoothing technique.
机器学习中的优化方法是基于梯度的,因此光滑的模型更利于优化(其梯度是连续的)。然而机器学习模型中经常存在非光滑函数(如激活函数),比如常用的ReLU激活函数 max ( 0 , x ) \max(0,x)
声明
本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。