搭建什么网站能盈利南京做网站公司
搭建什么网站能盈利,南京做网站公司,做移动网站优化排名,没有网站域名备案信息吗同学你好#xff01;本文章于2021年末编写#xff0c;获得广泛的好评#xff01;
故在2022年末对本系列进行填充与更新#xff0c;欢迎大家订阅最新的专栏#xff0c;获取基于Pytorch1.10版本的理论代码(2023版)实现#xff0c;
Pytorch深度学习理论篇(2023版)目录地址…同学你好本文章于2021年末编写获得广泛的好评
故在2022年末对本系列进行填充与更新欢迎大家订阅最新的专栏获取基于Pytorch1.10版本的理论代码(2023版)实现
Pytorch深度学习·理论篇(2023版)目录地址为
CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录本专栏将通过系统的深度学习实例从可解释性的角度对深度学习的原理进行讲解与分析通过将深度学习知识与Pytorch的高效结合帮助各位新入门的读者理解深度学习各个模板之间的关系这些均是在Pytorch上实现的可以有效的结合当前各位研究生的研究方向设计人工智能的各个领域是经过一年时间打磨的精品专栏https://v9999.blog.csdn.net/article/details/127587345欢迎大家订阅(2023版)理论篇 以下为2021版原文~~~~ 基于图片内容的处理任务主要包括目标检测、图片分割两大任务。
1 目标检测
目标检测任务的精度相对较高主要是以检测框的方式找出图片中目标物体所在的位置。目标检测任务的模型运算量相对较小速度相对较快。
1.1 目标检测任务概述
目标检测任务要求模型能检测出图片中特定的目体并获得这一目标物体的类别信息和位置信息。
在目标检测任务中模型的输出是一个列表列表的每一项用一个数组给出检测出的标物体的类别和位置常用检测框的坐标表示)。
1.2 目标检测任务模型的分类
1.2.1 单阶段1-stage检测模型
主要指直接从图片获得预测结果也被称为Region-free法。相关的模型有YOLO、SSD、RetinaNet。
1.2.2 两阶段2-stage检测模型
主要指先检测包含实物的区域再对该区域内的实物进行分类识别相关模型有R-CNN、Faster R-CNNMask R-CNN。
1.2.3 两种分类的对比
单阶段检测模型在分类方面表现出的精度高。
两阶段检测模型在检测框方面表现出的精度高。 2 图片分割其模型大多数是两阶段
图片分割是指对图中的每个像素点进行分类适用于对像素理解要求较高的场景。
2.1 图片分割的分类
2.1.1 语义分割
能将图片中具有不同语义的部分分开。
2.1.2 实例分割
能描述出目标物体的轮廓比检测框更为精细)。
2.2 目标检测语义分割实例分割
目标检测给你一张只有一条狗的图片输入训练好的模型中假设模型包含所有类型的狗不管狗出现在图片中的哪个位置它都能被检测为狗给你一张有两条狗的图片输入网络会生成两个bbox均被检测为狗无法进行个体的区分。
语义分割对所有像素进行分类图片中只要出现狗都会被分为一类同样无法进行个体的区分。
实例分割在所有不同类的狗的像素都被分类为狗的基础上对不同类的狗进行目标定位再给上狗1和狗2的标签这就是实例分割。 3 非极大值抑制算法Non-Max SuppressionNMS)
3.1 非极大值抑制算法的作用
在目标检测任务中通常模型会从一张图片中检测出很多个结果其中很有可能会出现重复物体中心和大小略有不同的情况。为了确保检测结果的唯一性需要使用非极大值抑制算法对检测结果进行去重。
3.2 非极大值抑制算法的实现过程
1、从所有的检测框中找到置信度较大置信度大于某个圆值的检测框。 2、逐一计算其与剩余检测框的区域面积的重叠率IOU)。 3、按照IOU阈值过滤。如果IOU大于一定阈值则将该检测框剔除。
4、对剩余的检测框重复上述过程直到处理完所有的检测框。 在整个过程中用到的置信度阈值与lOU阈值需要提前给定。
3.3 IOU的概念Intersection-over-Union
IOU是交并比是目标检测中使用的一个概念是产生的候选框candidate bound与原标记框ground truth bound的交叠率即它们的交集与并集的比值。最理想情况是完全重叠即比值为1。在多目标跟踪中用来判别跟踪框和目标检测框之间的相似度。 4 Mask R-CNN模型
MaskR-CND模型属于两阶段检测模型即该模型会先检测包含实物的区域再对该区域内的实物进行分类识别。
4.1 检测实物区域的步骤
1、按照非极大值抑制算法将一张图片分成多个子框。这些子框被称作描点(Anchor)锚点是不同尺寸的检测框彼此间存在部分重叠。2、在图片中对具体实物进行标注其坐标所属的位置区域。3、根据实物标注的坐标与锚点区域的IOU计算出前景与背景。计算规则为IOU高的就是前景IOU低的就是背景其余的就忽略。4、根据第3步结果中属于前景的锚点坐标和第2步结果中实物标注的坐标算出二者的相对位移和长宽的缩放比例。5、最终检测区域的任务会被转化成一堆锚点的分类前景和背景和回归任务偏移和缩放)。
4.1.2 区域检测图解
如图2-2所示每张图片都会将其自身标注的信息转化为与锚点对应的标签让模型已有的锚点进行训练或识别。 4.2 区域生成网络
在MaskR-CNN模型中实现区域检测功能的网络被称作区域生成网络Regon Proposal NetworkRPN)。
4.3 感兴趣区域
在实际处理过程中会从RPN的输出结果中选取前景概率较高的一定数量的锚点作为感兴趣区域(Region of InterestROI)送到第2阶段的网络中进行计算。
4.4 Mask R-CNN模型的完整步骤
4.4.1 Mask R-CNN模型的架构 4.4.2 Mask R-CNN模型的完整步骤
1、提取主特征这部分的模型又被称作骨干网络。它用来从图片中提取出一些不同尺寸的重要特征通常用于一些预训练好的模型如VGG模型、Inception模型、ResNet模型等)。这些获得的特征数据被称作特征图。
2、特征融合用特征金字塔网络FeaturePyramid NetworkFPN整合骨干网络中不同尺寸的特征。最终的特征信息用于后面的RPN和最终的分类器classifer网络的计算。
3、提取ROI主要通过RPN来实现。RPN的作用是在众多锚点中计算出前景和背景的预测值并计算基于锚点的偏移然后对前景概率较大的ROI用非大值抑制算法实现去重并从最终结果中取出指定个数的ROl用于后续网络的计算。
4、ROI池化使用区域对齐的方式实现。将第2步的结果当作图片按照ROl中的区域框位置从图中取出对应的内容并将形状统一成指定大小用于后面的计算。
5、最终检测对第4步的结果依次进行分类、设置矩形坐标、实物像素分割处理得到最终结果。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/87971.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!