loss乘以100等价于learning rate乘以100?
ztj100 2024-11-03 16:16 26 浏览 0 评论
导读
看到这个问题的时候,可能你会很直观地认为是等价的,其实等价不等价这个应该取决于在更新参数时所选择的优化算法。
因为无论是缩放loss还是learning rate最终的影响都是对更新参数时偏移量(Δ )的影响,而不同的优化算法会导致这个偏移量存在差别,下面我们来讨论一下不同优化算法之间的差别。
SGD
梯度下降优化算法,也是最常见的一种优化算法,公式如下:
η:学习率
Δ θ J ( θ ) :loss对参数的一阶偏导,所以当我们对loss的尺度进行缩放的时候实际最终都会反应到梯度上面
结论:通过上面的公式不难看出,当loss乘以s时其实就等价于偏导数Δ θ J ( θ )乘以s,也就等价与学习率η乘以s。所以对于SGD而言,loss乘以s等价于learning rate乘以s。下面我们可以用代码来证明一下
import torch
from torch import nn
#保证每次产生的随机数(输入和输出都相同)
torch.manual_seed(28)
class ExampleModel(nn.Module):
"""定义一个简单的神经网络
"""
def __init__(self):
super(ExampleModel, self).__init__()
self.linear_model = nn.Sequential(
nn.Linear(10,10),
nn.ReLU(),
nn.Linear(10,1),
nn.Sigmoid()
)
def forward(self,x):
return self.linear_model(x**3+x**2+x)
def print_weight_info(input,label,model,opt,loss_scale):
"""输出网络的参数信息
:param input: 输入
:param label: 输出
:param model: 模型
:param opt: 优化器
:param loss_scale: loss变化的尺度
:return:
"""
output = model(input)
loss = (label - output) * loss_scale
opt.zero_grad()
loss.backward()
opt.step()
print(model.linear_model[0].weight)
model = ExampleModel()
input1 = torch.rand(1,10)
label1 = torch.rand(1,)
lr = 0.01
lr_sgd_opt = torch.optim.SGD(model.parameters(),lr=lr)
#lr设置为0.01,loss的尺度扩大10倍
print_weight_info(input1,label1,model,lr_sgd_opt,10)
#lr设置为0.01*10扩大10倍,loss的尺度不做处理
#lr_scale_sgd_opt = torch.optim.SGD(model.parameters(),lr=lr*10)
#print_weight_info(input1,label1,model,lr_scale_sgd_opt,1)
Momentum SGD
Momentum SGD是基于SGD的基础上做了修改,为了解决海森矩阵的不良条件数和随机梯度的方差问题导致训练模型时进入到局部极小值问题而改进的。Momentum SGD梯度的更新过程如下所示:
γ:动量参数,一般取0.5、0.9和0.99
vt :t时刻的梯度
结论:通过上面的公式不难看出,对于Momentum SGD来说和SGD一样,loss乘以s等价于learning rate乘以s。
Adagrad
Adagrad能够自适应地调整不同参数的学习率,根据参数的历史所有梯度平方值总和的平方根来调整学习率的缩放比例,使得稀疏的特征得到大的学习率更新,对于非稀疏的特征得到较小的学习更新,所以该算法适合处理稀疏特征的数据。参数的更新公式如下:
接下来我们来讨论,对loss和learning rate乘以s对参数θ的更新会有什么影响,先讨论对loss乘以s
因为?是极小值,所以我们可以忽略它的影响。通过上式就能够说明,当使用Adagrad优化算法时,乘以s对于参数的更新没有影响。而对于learning rate而言,它会使得参数更新的更快(s大于1)或更慢(s小于1),所以使用Adagrad优化算法的时候,loss乘以s不等价于learning rate乘以s
证明的代码如下:
RMSProp
RMSProp针对梯度平方和累积得越来越大的问题,而采用了历史梯度平方衰减平均值来代替梯度的平方和。动态的梯度平均值E[g2]t取决于当前时刻以及上一时刻的平均值,计算公式如下
不难看出RMSProp其实和Adagrad的计算公式差不多,所以对于RMSProp而言loss乘以s不等价于learning rate乘以s。
Adam
Adam:Adaptive Momnet Estimation,与Adagrad和RMSProp的区别在于计算历史梯度衰减的方法不同。Adam没有使用梯度的平方衰减,而是采用了类似于动量的梯度衰减,计算公式如下:
转换一下公式可以发现,对于Adam来说,loss乘以s不等价于learning rate乘以s。
总结
我们通过理论公式的推导以及实践的代码证明,最终发现对loss或learning rate乘以缩放尺度参数s是否等价,主要取决于优化器的选择。对于SGD和Moment SGD来说,loss乘以s等价于learning rate乘以s,而对于Adagrad、RMSProp和Adam来说loss乘以s不等价于learning rate乘以s。
注意:上面在讨论loss与learning rate乘以s之间的关系时,我们并不考虑weight decay的影响。
相关推荐
- 这个 JavaScript Api 已被废弃!请慎用!
-
在开发过程中,我们可能会不自觉地使用一些已经被标记为废弃的JavaScriptAPI。这些...
- JavaScript中10个“过时”的API,你的代码里还在用吗?
-
JavaScript作为一门不断发展的语言,其API也在持续进化。新的、更安全、更高效的API不断涌现,而一些旧的API则因为各种原因(如安全问题、性能瓶颈、设计缺陷或有了更好的替代品)被标记为“废...
- 几大开源免费的 JavaScript 富文本编辑器测评
-
MarkDown编辑器用的时间长了,发现发现富文本编辑器用起来是真的舒服。...
- 比较好的网页里面的 html 编辑器 推荐
-
如果您正在寻找嵌入到网页中的HTML编辑器,以便用户可以直接在网页上编辑HTML内容,以下是几个备受推荐的:CKEditor:CKEditor是一个功能强大的、开源的富文本编辑器,可以嵌入到...
- Luckysheet 实现excel多人在线协同编辑
-
前言前些天看到Luckysheet支持协同编辑Excel,正符合我们协同项目的一部分,故而想进一步完善协同文章,但是遇到了一下困难,特此做声明哈,若侵权,请联系我删除文章!若侵犯版权、个人隐私,请联系...
- 从 Element UI 源码的构建流程来看前端 UI 库设计
-
作者:前端森林转发链接:https://mp.weixin.qq.com/s/ziDMLDJcvx07aM6xoEyWHQ引言...
- 手把手教你如何用 Decorator 装饰你的 Typescript?「实践」
-
作者:Nealyang转发连接:https://mp.weixin.qq.com/s/PFgc8xD7gT40-9qXNTpk7A...
- 推荐五个优秀的富文本编辑器
-
富文本编辑器是一种可嵌入浏览器网页中,所见即所得的文本编辑器。对于许多从事前端开发的小伙伴来说并不算陌生,它的应用场景非常广泛,平时发个评论、写篇博客文章等都能见到它的身影。...
- 基于vue + element的后台管理系统解决方案
-
作者:林鑫转发链接:https://github.com/lin-xin前言该方案作为一套多功能的后台框架模板,适用于绝大部分的后台管理系统(WebManagementSystem)开发。基于v...
- 开源富文本编辑器Quill 2.0重磅发布
-
开源富文本编辑器Quill正式发布2.0版本。官方TypeScript声明...
- Python之Web开发框架学习 Django-表单处理
-
在Django中创建表单实际上类似于创建模型。同样,我们只需要从Django类继承,则类属性将是表单字段。让我们在myapp文件夹中添加一个forms.py文件以包含我们的应用程序表单。我们将创建一个...
- Django测试入门:打造坚实代码基础的钥匙
-
这一篇说一下django框架的自动化测试,...
- Django ORM vs SQLAlchemy:到底谁更香?从入门到上头的选择指南
-
阅读文章前辛苦您点下“关注”,方便讨论和分享,为了回馈您的支持,我将每日更新优质内容。...
- 超详细的Django 框架介绍,它来了!
-
时光荏苒,一晃小编的Tornado框架系列也结束了。这个框架虽然没有之前的FastAPI高流量,但是,它也是小编的心血呀。总共16篇博文,从入门到进阶,包含了框架的方方面面。虽然小编有些方面介绍得不是...
- 20《Nginx 入门教程》使用 Nginx 部署 Python 项目
-
今天的目标是完成一个PythonWeb项目的线上部署,我们使用最新的Django项目搭建一个简易的Web工程,然后基于Nginx服务部署该PythonWeb项目。1.前期准备...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)