深度学习:优化算法
作者:互联网
1 梯度下降
为什么梯度下降算法可以优化目标函数?
考虑一类连续可微实值函数\(f: \mathbb{R} \rightarrow \mathbb{R}\),
利用泰勒展开,我们可以得到
这意味着,如果我们使用
\[x \leftarrow x - \eta f'(x) \]来迭代\(x\),函数\(f(x)\)的值可能会下降。
因此,在梯度下降中,我们首先选择初始值\(x\)和常数\(\eta > 0\),
然后使用它们连续迭代\(x\),直到停止条件达成。
例如,当梯度\(|f'(x)|\)的幅度足够小或迭代次数达到某个值时。
标签:mathbf,梯度,beta,算法,深度,np,aligned,优化,gamma 来源: https://www.cnblogs.com/caolanying/p/16700199.html