其他分享
首页 > 其他分享> > 高级优化

高级优化

作者:互联网

高级优化可以自动选择学习率

 

 

  Octave中操作

>> function[jVal,gradient] = costFunction(theta)
jVal = (theta(1)-5)^2+(theta(2)-5)^2;
gradient = zeros(2,1);
gradient(1) = 2*(theta(1) - 5);
gradient(2) = 2*(theta(2) - 5);
end
>> options = optimset('Gradobj','on','MaxIter',100);
>> initialTheta = zeros(2,1);
>> [optTheta,functionVal,exitFlag] = fminunc(@costFunction,initialTheta,options);
>> [optTheta,functionVal,exitFlag] = fminunc(@costFunction,initialTheta,options)
optTheta =

5
5

functionVal = 7.8886e-31
exitFlag = 1
>>

costFunction是代价函数。

 

 

   

标签:functionVal,gradient,高级,initialTheta,theta,优化,optTheta,costFunction
来源: https://www.cnblogs.com/Guser/p/16483898.html