房产网站关键词优化实验建设网站 南京林业大学

web/2025/10/5 10:46:08/文章来源:
房产网站关键词优化,实验建设网站 南京林业大学,网站建设人力资源人员配置,php做的一个网站论文基于training-aware NAS和模型缩放得到EfficientNetV2系列#xff0c;性能远优于目前的模型。另外#xff0c;为了进一步提升训练速度#xff0c;论文提出progressive learning训练方法#xff0c;在训练过程中同时增加输入图片尺寸和正则化强度。从实验结果来看#…  论文基于training-aware NAS和模型缩放得到EfficientNetV2系列性能远优于目前的模型。另外为了进一步提升训练速度论文提出progressive learning训练方法在训练过程中同时增加输入图片尺寸和正则化强度。从实验结果来看EfficientNetV2的效果非常不错。 来源晓飞的算法工程笔记 公众号 论文: EfficientNetV2: Smaller Models and Faster Training 论文地址https://arxiv.org/abs/2104.00298论文代码https://github.com/google/automl/tree/master/efficientnetv2 Introduction 随着模型大小和数据集规模的增加训练效率成了深度学习中很重要的一环。近期也有越来越多致力于提高训练效率的研究但很难有兼顾准确率、训练效率和参数规模的网络。 论文尝试分析了参数高效的EfficientNet的训练瓶颈主要有三点1图片输入尺寸过大会导致训练较慢。2深度卷积放在网络前部分会较慢。3对网络所有stage进行同等scaling并不是最优的。基于上面的分析论文设计了更精简的搜索空间使用training-aware NAS(neural architecture search)和scaling来同时提高模型准确率、训练效率和参数效率提出了EfficientNetV2系列网络。  在训练速度方面论文通过在训练过程逐步提高输入尺寸来进一步加速训练。先前也有类似的在训练过程逐步增加输入图片尺寸来加速的研究但这些研究在修改输入图片尺寸的同时没有改变训练设置导致准确率下降。论文认为输入图片尺寸不同的网络的容量不同应该使用不同程度的正则化方法。为此论文提出了progressive learning在训练初期使用较小的图片尺寸和较弱的正则化然后逐步提高图片尺寸和正则化强度可以做到加速训练又不掉点。  论文的主要贡献如下 组合training-aware NAS和scaling提出EfficientNetV2系列网络比之前的网络的规模更小、速度更快。提出progressive learning自适应根据图片尺寸调整正则化强度加速训练的同时提高准确率。在多个训练集上进行实验验证训练效率能提高11倍模型规模能降低6.8倍。 EfficientNetV2 Architecture Design Review of EfficientNet EfficientNet是优化计算量和参数量的系列网络先通过NAS搜索准确率和速度折中的基线模型EfficientNet-B0再通过混合缩放策略获得B1-B7模型。 尽管现在很多研究声称在训练或推理速度上取得很大进步但他们通常在计算量和参数量上差于EfficientNet而本文正是想同时提升训练速度和优化模型参数量。 Understanding Training Efficiency 论文对EfficientNetV1的训练瓶颈进行了分析发现以下几个主要问题。 Training with very large image sizes is slow 输入图片尺寸过大会导致显存占用的显著提高由于GPU的显存是固定的导致必须减少batch size和增加迭代次数进行训练训练也就变慢了。 如表2所示较小的尺寸大约能提升2.2倍训练速度还能小幅提升模型性能。为此论文参考FixRes的动态增加训练图片尺寸提出更高效的训练方法在训练过程逐步增加图片尺寸以及正则化强度。 Depthwise convolutions are slow in early layers but effective in later stages EfficientNet的另一个训练瓶颈在于depthwise卷积的使用depthwise卷积虽然有更少的参数和计算量但不能使用目前的GPU加速方案。 最近有研究提出MBConv的替代结构Fused-MBConv如图2所示将depthwise conv3x3和conv1x1合并为常规的conv3x3。为了对比两者的性能差异论文逐步替换stage进行实验。从表3的结果可以看出恰当地使用Fused-MBConv可以在不带来过多参数量和计算量的前提下提升训练速度。至于如何是恰当就靠NAS来自动搜索了。 Equally scaling up every stage is sub-optimal EfficientNet使用简单的混合缩放规则相等地放大所有stage但实际上不同的stage对训练速度和参数量的影响是不同的。为此论文只放大网络后面的stage同时减小输入图片尺寸的放大比例。 Training-Aware NAS and Scaling NAS Search 论文跟EfficientNet一样利用MnasNet的多目标神经结构搜索进行网络搜索调整评价指标同时优化准确率、参数量和训练速度。以EfficientNet作为主干构造stage-based的搜索空间来对每个stage进行搜索。搜索的选项包括卷积类型{MBConv, Fused-MBConv}、层数、卷积核大小{3x3, 5x5}block中间的膨胀比例{1, 4, 6}。  另外论文也从以下几点减少了搜索空间大小 去掉不必要的搜索选项比如pooling skip算子这个没有在EfficientNet用到过。复用主干网络的每个stage的channel数这部分已经在EfficientNet中搜索过了。 由于搜索空间精简了可以直接用强化学习和随机搜索来生成跟EfficientNet-B4差不多大小的网络。论文共采样1000个网络结构每个训练大概10个周期。搜索的平均指标包含模型准确率 A A A、归一化的训练耗时 S S S和参数量 P P P使用加权乘积 A ⋅ S w ⋅ P w A\cdot S^w\cdot P^w A⋅Sw⋅Pw进行最终得分计算其中 w − 0.07 w-0.07 w−0.07和 v − 0.05 v-0.05 v−0.05是通过实验确定的平衡超参数。 EfficientNetV2 Architecture EfficientNetV2-S结构如表4所示Conv后接的数字是膨胀率。对比EfficientNet主要有以下区别 使用MBConv的同时在网络前几个阶段也使用了fused-MBConv。EfficientNetV2倾向于选择较小的膨胀比例这样能减少内存访问耗时。EfficientNetV2比较喜欢较小的3x3卷积但会添加更多的层数来弥补减少的感受域。去掉EfficientNet中最后stride-1的stage可能由于其参数量和计算量太大了。 这里有一点比较奇怪上面NAS部分说会复用EfficientNet的通道数来缩小搜索空间但是看表4的通道数貌似跟EfficientNet没有关系。这要等作者补充更多的NAS细节看看具体各模型的参数可以去github看看。 EfficientNetV2 Scaling 论文通过放大EfficientNetV2-S得到EfficientNetV2-M/L使用类似于EfficientNet的混合缩放策略来有以下区别 限制最大的推理图片尺寸为480节省内存和训练速度消耗。 逐步添加更多的层给后面的stage比如表4中的stage5和stage6在增加网络容量的同时不会带来过多运行消耗。 Training Speed Comparison 图3对比了各网络的训练耗时其中EfficientNet有原版和训练时缩小30%图片尺寸的版本缩小版本的输入尺寸跟EfficientNetV2以及NFNet一致。使用相同训练周期和固定图片尺寸进行训练EfficientNet仅缩小训练尺寸就能得到很大的性能提升而EffcientNetV2凭借论文提出training-aware NAS和缩放策略性能远超其它网络。 Progressive Learning Motivation 如之前所描述的图片尺寸对训练效率的影响非常大。除了FixRes还有很多其他在训练期间动态调整图片尺寸的研究但这些研究通常都会出现性能下降的情况。论文认为性能下降的主要原因在于正则化没有匹配动态调整的图片尺寸。较小的输入尺寸应该使用较弱的正则化强度相反较大的输入尺寸则应该使用较强的正则化强度。 为了验证这个猜想论文将不同输入图片尺寸和不同正则化强度进行组合测试。从表5的结果来看基本验证了论文的猜想。于是论文提出了progressive learning在训练过程中根据动态调整的图片尺寸自适应正则化强度。 Progressive Learning with adaptive Regularization 论文提出的progressive learning如图4所示先用较小的图片尺寸和较弱的正则化进行训练随后逐步增加图片尺寸和正则化强度。 假设完整的训练共 N N N次迭代目标图片尺寸为 S e S_e Se​目标正则化超参数为 Φ e { ϕ e k } \Phi_e\{\phi^k_e\} Φe​{ϕek​}其中 k k k表示其中一种正则化方法比如dropup比例或mixup比例。将训练分为 M M M个阶段对于每个阶段 1 ≤ i ≤ M 1\le i\le M 1≤i≤M模型训练的图片尺寸为 S i S_i Si​正则化超参数为 Φ i { ϕ i k } \Phi_i\{\phi^k_i\} Φi​{ϕik​}最后一个阶段 M M M的图片尺寸为 S e S_e Se​和正则化超参数为 Φ e \Phi_e Φe​。为了简单化初始化图片尺寸和正则化超参数为 S O S_O SO​和 Φ 0 \Phi_0 Φ0​通过线性插值来决定每个阶段对应参数整体逻辑如算法1所示。 论文共使用三种正则化方法Dropout、RandAugment和Mixup各网络的参数设置如表6所示。 Experiment 在ImageNet上与其它网络进行对比。 迁移能力对比。 相同训练配置下的EfficientNet对比。 缩小EfficientNetV2的模型大小与对标的EfficientNetV1对比准确率和速度。 对比不同网络使用progressive learning的效果。 对比自适应正则化强度的效果。 Conclusion 论文基于training-aware NAS和模型缩放得到EfficientNetV2系列性能远优于目前的模型。另外为了进一步提升训练速度论文提出progressive learning训练方法在训练过程中同时增加输入图片尺寸和正则化强度。从实验结果来看EfficientNetV2的效果非常不错。 如果本文对你有帮助麻烦点个赞或在看呗 更多内容请关注 微信公众号【晓飞的算法工程笔记】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/87320.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

昆明网站制作服务商wordpress如何设置外网访问

这周没有上课,阅读了《代码大全》第六章模块化设计 内聚性和耦合性 模块化设计的目标是使每个子程序都成为一个“黑盒子”,你知道进入盒子和从盒子里出来 的是什么,却不知道里边发生什么。它的接口非常简单,功能明确,对…

做婚介打么网站好佛山商城网站制作

声明:文章仅用于交流学习,不用于商业项目实施,图片来源于网络,如有侵犯权利,请联系作者及时删除。 本方案旨在对电力电容(PEC和PQM型号)制造工艺深度分析,结合管理要求设计MOM相关功…

娄底北京网站建设建网站引流做淘宝

采集卡默认加载“1 X Full Camera Link”固件,Base模式首先要将固件更新为“2 X Base Camera Link”。 右键SCI图标,选择“打开文件所在的位置”,找到并打开SciDalsaConfig的Demo,如上图所示: 左键单击“获取相机”&a…

电子商务运营网站网店美工的定义

当谈到 Java 网络编程时,经常会听到两个重要的概念:BIO(Blocking I/O,阻塞 I/O)和 NIO(Non-blocking I/O,非阻塞 I/O)。它们都是 Java 中用于处理 I/O 操作的不同编程模型。 一、介…

公司网站建设服务机构广州教育网站建设

const uint8_t usFlashInitVal[] __attribute__((at(0x08002800))) {0x55,0x55,0x55,0x55,0x55};//定位在flash中,0x00030000开始的6个字节信息固定 注意7801的地址在8000000之后 如地址选0x00000800烧录时候报错 不知道是不是atclinktool的bug,使用_…

网站建设设计基础温州营销推广公司

不要做一个清醒的堕落者文章目录 可变参数模板的简介什么是可变参数 模板参数包参数包数据的获取(函数递归获取)参数包的获取(逗号表达式获取) 可变参数的应用emplace 可变参数模板的简介 c11添加的新特性能够让你创建可以接受改变的函数模板和类模板,C98/03&#…

建设网站市场细分修复wordpress

基于浣熊优化的BP神经网络(分类应用) - 附代码 文章目录 基于浣熊优化的BP神经网络(分类应用) - 附代码1.鸢尾花iris数据介绍2.数据集整理3.浣熊优化BP神经网络3.1 BP神经网络参数设置3.2 浣熊算法应用 4.测试结果:5.M…

商丘专业做网站西安微信公众号制作

前端的问题不是难,而是它面对最终用户。只要用户的喜好和口味发生变化,前端就必须跟上。 这导致前端不得不快速变化,因为用户的口味正在越来越快地改变。 后端不需要面对最终用户,需要解决的都是一些经典的计算机科学问题&#…

个人建站什么网站好廊坊建站服务

系列文章目录 前言 我们介绍了 Crocoddyl(Contact RObot COntrol by Differential DYnamic Library),这是一个专为高效多触点优化控制(multi-contact optimal control)而定制的开源框架。Crocoddyl 可高效计算给定预定…

外贸营销网站怎么建设什么是网站和网页

CHM Viewer Star 是一款适用于 Mac 平台的 CHM 文件阅读器软件,支持本地和远程 CHM 文件的打开和查看。它提供了直观易用的界面设计,支持多种浏览模式,如书籍模式、缩略图模式和文本模式等,并提供了丰富的功能和工具,如…

深圳网站设计开发网站页面设计如何收费

当然可以,以下是一份较为详细的NLP学习路线指南,帮助你逐步掌握自然语言处理的核心技术和应用。 一、基础知识与技能 语言学基础: 语言学基本概念:语音、语法、语义等。语言的层次与分类:语音学、音系学、句法学、语…

2017网站开发工程师成都装修设计公司首选

阿波罗应该是近几年比较火的一个分布式配置中心了,说说我个人的理解,希望对一些人有用吧。 首先从使用者的角度想 我们怎么用配置中心的? 1.得有个页面,能有权限管理,能有创建配置key-value。 在阿波罗中&#xff…

产品展示网站源码php分享wordpress小程序源码

前言Windows搭建PHP开发环境很熟练了,要在自己的Mac搭建PHP开发环境还是第一次,因此分享给大家。Mac自带Apache、php,需要自己安装MySql。1.启动Apache// 启动Apache服务sudo apachectl start// 重启Apache服务sudo apachectl restart// 停止Apache服务s…

win网站建设北京seo诊断

1. 题目 给你一个整数数组 nums 和一个正整数 threshold ,你需要选择一个正整数作为除数,然后将数组里每个数都除以它,并对除法结果求和。 请你找出能够使上述结果小于等于阈值 threshold 的除数中 最小 的那个。 每个数除以除数后都向上取…

dede更新网站c 网站开发面试题

目录 前言 开始 HTML部分 效果图 ​编辑​编辑​编辑​编辑总结 前言 无需多言,本文将详细介绍一段代码,具体内容如下: 开始 首先新建文件夹,创建一个文本文档,其中HTML的文件名改为[index.html]&a…

专业的做网站的资深网站

文章目录 引言进入正题1、依赖2、升级客户端3、websocket处理方法4、完整代码 引言 实时性较高的地方,我们可能会使用到websocket对信息进行实时推送,涉及到websocket就会有开启连接,接收消息,推送消息,错误处理等机制…

dede无法一键更新网站昆明抖音代运营公司

文章目录 OpenAI发完GTP-4o,国内大模型行业还有哪些机会?详细了解一下OpenAI最新发布的支持实时语音对话的模型GPT-4o国内大模型如何寻找发展机会?想要发展技术必须要创新与追赶或许应用场景拓展也是一种出路产业生态构建 ChatGPT 问世才 17 …

手机触屏版网站如何做双语网站

Java底层是C语言。 Sun公司研发人员根据嵌入式软件的要求,对C进行了改造,去除了留在C的一些不太实用及影响安全的成分,并结合嵌入式系统的实时性要求,开发了一种称为Oak的面向对象语言。而后,经过迭代更新&#xff0c…

站酷网素材东莞网络营销公司

文章目录 前言状态图状态变化说明补充说明 前言 线程的生命周期指的是线程从创建出来到最终消亡的整个过程,以及过程中的状态变化。 状态图 以下图用mermaid语法绘制: #mermaid-svg-32vKT6KmFdlYvCnr {font-family:"trebuchet ms",verdana,…

招聘网站建设需求文档公司做网站的申请

编译下载mongodb-src-r2.2.2用VS2010打开mongodb-src-r2.2.2\src\mongo\db\db_10.sln编译mongod项目调试先创建数据库文件夹"D:\mongodb\db"设置调试参数--dbpathD:\mongodb\dbF5运行调试