青海省住建局和建设厅门户网站房地产楼盘微信网站建设营销方案
news/
2025/9/24 5:58:56/
文章来源:
青海省住建局和建设厅门户网站,房地产楼盘微信网站建设营销方案,商丘做网站的电话,如何在百度发布短视频一只小狐狸带你解锁 炼丹术NLP 秘籍作者#xff1a;苏剑林#xff08;来自追一科技#xff0c;人称“苏神”#xff09;前言需要许多时间步计算的循环神经网络#xff0c;如LSTM、GRU#xff0c;往往存在梯度爆炸的问题。其目标函数可能存在悬崖一样斜率较大的区域NLP 秘籍作者苏剑林来自追一科技人称“苏神”前言需要许多时间步计算的循环神经网络如LSTM、GRU往往存在梯度爆炸的问题。其目标函数可能存在悬崖一样斜率较大的区域这是由于时间步上几个较大的权重相乘导致的。当参数接近这样的悬崖区域时如果更新梯度不足够小很有可能就会直接跳过这样的悬崖结构然后被弹射到非常远的地方。梯度裁剪gradient clipping是这类问题的常用解决办法。它的核心思想就是根据目标函数的光滑程度对梯度进行缩放[1]。本文介绍来自MIT的一篇ICLR2020满分论文《Why gradient clipping accelerates training: A theoretical justification for adaptivity》。顾名思义这篇论文就是分析为什么梯度裁剪能加速深度学习的训练过程。原文很长公式很多还有不少研究复杂性的概念说实话对笔者来说里边的大部分内容也是懵的不过大概能捕捉到它的核心思想引入了比常用的L约束更宽松的约束条件从新的条件出发论证了梯度裁剪的必要性。本文就是来简单描述一下这个过程供读者参考。论文链接https://arxiv.org/pdf/1905.11881.pdfArxiv访问慢的小伙伴也可以在订阅号后台回复关键词【0615】下载论文PDF。梯度裁剪假设需要最小化的函数为就是优化参数那么梯度下降的更新公式就是滑动查看完整公式其中就是学习率。而所谓梯度裁剪gradient clipping就是根据梯度的模长来对更新量做一个缩放比如或者其中 是一个常数。这两种方式都被视为梯度裁剪总的来说就是控制更新量的模长不超过一个常数。其实从下面的不等式就可以看到其实两者基本是等价的L约束有不少优化器相关的理论结果在其证明中都假设了待优化函数的梯度满足如下的L约束由于 是梯度的波动程度实际上衡量的就是 的光滑程度所以上述约束也称为“L光滑性条件L-smooth”[2]。值得提醒的是不同的场景可能会需要不同的L约束比如有时候我们要假设模型输出关于输入满足L约束有时候我们要假设模型输出关于参数满足L约束而上面假设的是模型 loss 的梯度关于参数满足L约束。如果条件 (5) 成立那么很多优化问题都将大大简化。因为我们可以证明[3]对于梯度下降来说代入上式得到因此为了保证每一步优化都使得 下降一个充分条件是 即 而 的最小值在 时取到所以只需要让学习率为 那么每步迭代都可以使得 下降并且下降速度最快。放松约束条件 (5) 还可以带来很多漂亮的结果然而问题是在很多实际优化问题中条件 (5) 并不成立比如四次函数 。这就导致了理论与实际的差距。而本文要介绍的论文则引入了一个新的更宽松的约束也就是将常数 换成动态的 原文称之为“(L0, L1)-smooth”这里也称为“(L0, L1)约束”。显然这个条件就宽松多了比如可以检验 是满足这个条件的因此基于此条件所推导出的理论结果适用范围会更广。在新的约束之下不等式 (6) 依旧是成立的只不过换成对应的动态项代入得到所以很明显了现在要保证每一步下降那么就要求以及最优学习率是这就导出了梯度裁剪 (3)。而保证了每一步都下降那么就意味着在优化过程中每一步都没有做无用功所以也就加速了训练过程。作者们是怎么提出这个条件 (8) 的呢论文中说是做实验观察出来的观察到损失函数的光滑程度与梯度模长呈“线性相关”关系.png如下图所示。但笔者感觉吧至少应该还有些从结果反推的成分在里边不然谁那么无聊会去观察这两者的关系呢文章小结本文简要介绍了ICLR2020的一篇分析梯度裁剪的满分论文主要思路是引入了更宽松普适的假设条件在新的条件下能体现出了梯度裁剪的必要性并且由于放松了传统的约束因此理论结果的适用范围更广这也就表明梯度裁剪确实是很多场景下都适用的技巧之一。参考文献[1]参考文献 lan Goodfellow et. al, Deep Learning, MIT press, 2016[2]关于L约束可以作者其他博客: 《深度学习中的Lipschitz约束泛化与生成模型》、《BN究竟起了什么作用一个闭门造车的分析》。[3]证明过程可参考https://kexue.fm/archives/6992。可能喜欢万能的BERT连文本纠错也不放过面试必备卖萌屋算法工程师思维导图—统计机器学习篇告别自注意力谷歌为Transformer打造新内核SynthesizerNLP中的少样本困境问题探究ACL20 | 让笨重的BERT问答匹配模型变快7款优秀Vim插件帮你打造完美IDE卖萌屋原创专辑首发算法镇魂三部曲夕小瑶的卖萌屋_关注星标小夕带你解锁AI秘籍订阅号主页下方「撩一下」有惊喜哦
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/915019.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!