您的位置:首页 > 其它

梯度下降法

2015-07-03 10:50 253 查看
梯度下降法是一种最优化算法,常用来优化参数,通常也称为最速下降法。

梯度下降法是一般分为如下两步:

1)首先对参数θ赋值,这个值可以是随机的,也可以让θ是一个全零的向量;

2)改变θ的值,使得J(θ)按梯度下降的方向进行减少。

以一个线性回归问题为例,应用libsvm包里的数据heart_scale.mat数据做测试。假设要学习这么一个函数:



那么损失函数可以定义成:



其中X看以看成一行一行的样本向量,那么Θ就是一列一列的了。目标很简单,就是求损失J最小值时候的解Θ:

先直接求导,对于求导过程,详解如下:

首先定义损失变量:



那么损失函数就可以表示成:



一步一步的求导:



再求:



那么把分步骤合起来就是:



令导数为0,求此时的Θ,整理一下,有:



用矩阵符号将上面的细节运算抽象一下:



让导数为0,那么求得的解为:



求解矩阵的逆复杂度有点儿高,可以用梯度下降来求解:



其中γ就是下降的速度,一般是一个小的数值,可以从0.01开始尝试,越大下降越快,收敛越快。

迭代终止的条件取:



部分代码如下:

w_old=zeros(size(X,2),1);%%初始化参数w

k=1;

while 1

minJ_w(k) = 1/2 * (norm(X*w_old - Y))^2; %%损失函数 公式(1) %%norm默认为L2标准化

w_new = w_old - gamma*(X'*X*w_old - X'*Y);%%梯度下降公式

%%公式(2)

if norm(w_new-w_old) < epsilon %%终止条件

W_best = w_new;

break;

end

w_old = w_new;

k=k+1;

end

实验结果:

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: