暴雪战网官方网站入口小程序头条小游戏

pingmian/2025/10/7 13:51:18/文章来源:
暴雪战网官方网站入口,小程序头条小游戏,如何做微信商城网站,wordpress支持的视频1 卷积介绍 1.1 什么是卷积 卷积#xff08;convolution#xff09;#xff0c;是一种运算#xff0c;你可以类比于加#xff0c;减#xff0c;乘#xff0c;除#xff0c;矩阵的点乘与叉乘等等#xff0c;它有自己的运算规则#xff0c;卷积的符号是星号*。表达式…1 卷积介绍 1.1 什么是卷积 卷积convolution是一种运算你可以类比于加减乘除矩阵的点乘与叉乘等等它有自己的运算规则卷积的符号是星号*。表达式为 连续卷积表达式 离散卷积表达式为 从参数上来看x (n-x) n可以类比为x y n也就是说f, g的参数满足规律y -x n即g的参数是f的参数先翻转再平移n。把g从右边褶到左边去也就是卷积的卷的由来。然后在这个位置对两个函数的对应点相乘然后相加这个过程是卷积的积的过程。 因此卷积的过程可以理解为翻转滑动叠加。其中翻转指的是g滑动指的是n值在不断改变。最终将他们相乘相加。 1.2 卷积的意义 在泛函分析中卷积、旋积或褶积是通过两个函数f和g生成第三个函数的一种数学运算其本质是一种特殊的积分变换表征函数f与g经过翻转和平移的重叠部分函数值乘积对重叠长度的积分。 如果将参加卷积的一个函数看作区间的指示函数卷积还可以被看作是“滑动平均”的推广。卷积的意义如下 模拟生物视觉卷积操作模拟了人眼对图像进行观察、辨认的过程因此卷积在图像处理领域应用广泛。它可以帮助我们理解人类视觉系统如何工作并且为我们提供了一种有效的处理图像和语音的方法。 提升算法性能卷积神经网络CNN是目前深度学习中最重要的模型之一其基本结构就是卷积层卷积操作在图像识别、语音识别和自然语言处理等领域提升了算法的性能。这使得卷积成为了现代机器学习和人工智能的重要组成部分。 数据压缩卷积可以通过降维和滤波等操作减小数据的尺寸从而实现数据的压缩。这对于处理大规模数据、实现数据存储和传输非常有用。 1.3 图像的卷积处理 对图像的blur操作即降噪平滑操作就是使用的卷积运算最终的效果取决于卷积核的设置。以单通道卷积为例。 均值卷积核就是认为目标像素点的值是周围值的平均数即周围各点对它的影响是一样的此处卷积核以3X3为例。 高斯滤波认为各个像素点距离核中心的距离不一样导致颜色的贡献程度不一样因此给不同的点不同的权重。取图像中的部分像素点 我们把这个矩阵看成f(x,y)函数下标为参数像素点的值为函数结果那么要求f(1,1)处的卷积运算结果因为现在是二维函数了因此对应的卷积表达式为 对应到本例u1, v1 我们来构建g(1-x, 1-y)函数暂定为3X3的矩阵我们知道目标点f(1,1)要对应g(0,0)如果将g(0,0)设置在核的中心那么根据下标展开之后我们就可以构建出g 有了g函数之后就可以执行运算了注意运算的时候 f 和 g 的参数要符合卷积公式即 其实这样就够了但是便于理解和说明我们将矩阵先沿着X轴翻转再沿Y轴翻转中心点在 g(0,0) 处得到 虽然翻转了但是运算公式没有变化只是从观察上更好一一对应也更方便计算。  注意将卷积核盖在目标像素点上面将对应的像素点相乘相加这种运算应该叫互相关运算cross-correlation通过将g进行翻转使得卷积运算变成了互相关运算将翻转之后的矩阵称为卷积核并且在设计卷积核的时候就是参照互相关运算来的而不会去关心真正的卷积运算。因此在实际应用中通常是直接去构建这个最终的矩阵。 在后续的计算中将结果赋值给f(1,1)然后向右平移一格达到边界后向下平移一格继续从左边开始卷积。整个过程中最外一层无法被算到解决的方法是将原图像向外扩大一圈像素点并设置为0。通过设置不同的卷积核来达到不同的结果这是机器视觉的基础操作。 2 pytorch中的卷积 CNN是深度学习的重中之重而conv1Dconv2D和conv3D又是CNN的核心所以理解conv的工作原理就变得尤为重要卷积中几个核心概念如下 卷积运算卷积核在输入信号图像上滑动相应位置上进行乘加。 卷积核又称为滤波器过滤器可认为是某种特征。 卷积过程类似于用一个模版去图像上寻找与它相似的区域与卷积核模式越相似激活值越高从而实现特征提取。 卷积维度一般情况下 卷积核在几个维度上滑动就是几维卷积。 2.1 一维卷积nn.Conv1d 一维卷积nn.Conv1d主要用于文本数据只对宽度进行卷积对高度不卷积。通常输入大小为word_embedding_dim * max_length其中word_embedding_dim为词向量的维度max_length为句子的最大长度。卷积核窗口在句子长度的方向上滑动进行卷积操作。 2.1.1 函数原型 torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone) 参数说明 in_channels (int) – 输入通道数在文本应用中即为词向量的维度 out_channels (int) – 输出通道数等价于卷积核个数 kernel_size (int or tuple) – 卷积核大小卷积核的第二个维度由in_channels决定所以实际上卷积核的大小为kernel_size * in_channels stride (int or tuple, optional) – 卷积步长默认为 1 padding (int or tuple, optional) – Zero-padding默认为 0对输入的每一条边补充0的层数 padding_mode (string, optional) – ‘zeros’, ‘reflect’, ‘replicate’ or ‘circular’. Default: ‘zeros’ dilation (int or tuple, optional) – 空洞卷积尺寸默认为 1 groups (int, optional) – 分组卷积设置Number of blocked connections from input channels to output channels. Default: 1 bias (bool, optional) – If True, adds a learnable bias to the output. Default: True。 2.1.2 原理示意图 1D输入上的1D卷积示意图 2D输入上的1D卷积示意图  说明 对于一个卷积核kernel不管是1D输入还是2D输入其输出都是1D矩阵     卷积核的高度必须与输入特征图的高度相匹配即 input [W,L], filter [k,L] output [W]     对于多个卷积核的情况其经过Conv1D之后输出堆叠为2D矩阵如果卷积核的个数为N则输出的尺寸为 1D x N     1D卷积常用在时间序列数据的建模上。 尺寸计算 注意 其中 N表示卷积核个数 表示输入通道数 表示输入的长度 必须与 Conv1D 中设置的 in_channels (int) 相等。 ​ Conv1D 中设置的 out_channels。 2.1.3 示例代码 输入批大小为32句子的最大长度为35词向量维度为256 目标句子分类共2类 import torch import torch.nn as nnconv1 nn.Conv1d(in_channels256, out_channels100, kernel_size2) input torch.randn(32, 35, 256) input input.permute(0, 2, 1) output conv1(input) print(output.shape) 假设window_size [3, 4, 5, 6]即共有四个卷积核基于上述代码具体计算过程如下 原始输入大小为(32, 35, 256)经过permute(0, 2, 1)操作后输入的大小变为(32, 256, 35)使用1个卷积核进行卷积可得到1个大小为32 x 100 x 1的输出共4个卷积核故共有4个大小为32 x 100 x 1的输出将上一步得到的4个结果在dim 1上进行拼接输出大小为32 x 400 x 1view操作后输出大小变为32 x 400全连接最终输出大小为32 x 2即分别预测为2类的概率大小。 2.2 二维卷积Conv2D 二维卷积nn.Conv2d通常用于图像数据对宽度和高度都进行卷积。 2.2.1 函数原型 class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone) 参数说明 in_channels (int) – 输入通道数 out_channels (int) – 输出通道数等价于卷积核个数 kernel_size (int or tuple) – 卷积核大小 stride (int or tuple, optional) – 卷积步长默认为 1 padding (int or tuple, optional) – Zero-padding默认为 0 padding_mode (string, optional) – ‘zeros’, ‘reflect’, ‘replicate’ or ‘circular’. Default: ‘zeros’ dilation (int or tuple, optional) – 空洞卷积尺寸默认为 1 groups (int, optional) – 分组卷积设置Number of blocked connections from input channels to output channels. Default: 1 bias (bool, optional) – If True, adds a learnable bias to the output. Default: True。 2.2.2 原理示意图 输出计算 2.2.3 示例代码 假设现有大小为32 x 32的图片样本输入样本的channels为1该图片可能属于10个类中的某一类。CNN框架定义如下 class CNN(nn.Module):def __init__(self):nn.Model.__init__(self)self.conv1 nn.Conv2d(1, 6, 5) # 输入通道数为1输出通道数为6self.conv2 nn.Conv2d(6, 16, 5) # 输入通道数为6输出通道数为16self.fc1 nn.Linear(5 * 5 * 16, 120)self.fc2 nn.Linear(120, 84)self.fc3 nn.Linear(84, 10)def forward(self, x):# 输入x - conv1 - relu - 2x2窗口的最大池化x self.conv1(x)x F.relu(x)x F.max_pool2d(x, 2)# 输入x - conv2 - relu - 2x2窗口的最大池化x self.conv2(x)x F.relu(x)x F.max_pool2d(x, 2)# view函数将张量x变形成一维向量形式总特征数不变为全连接层做准备x x.view(x.size()[0], -1)x F.relu(self.fc1(x))x F.relu(self.fc2(x))x self.fc3(x)return x 网络整体结构[conv relu pooling] * 2 FC * 3 原始输入样本的大小32 x 32 x 1 第一次卷积使用6个大小为5 x 5的卷积核故卷积核的规模为(5 x 5) x 6卷积操作的stride参数默认值为1 x 132 - 5 1 28并且使用ReLU对第一次卷积后的结果进行非线性处理输出大小为28 x 28 x 6 第一次卷积后池化kernel_size为2 x 2输出大小变为14 x 14 x 6 第二次卷积使用16个卷积核故卷积核的规模为(5 x 5 x 6) x 16使用ReLU对第二次卷积后的结果进行非线性处理14 - 5 1 10故输出大小为10 x 10 x 16 第二次卷积后池化kernel_size同样为2 x 2输出大小变为5 x 5 x 16 第一次全连接将上一步得到的结果铺平成一维向量形式5 x 5 x 16 400即输入大小为400 x 1W大小为120 x 400输出大小为120 x 1 第二次全连接W大小为84 x 120输入大小为120 x 1输出大小为84 x 1 第三次全连接W大小为10 x 84输入大小为84 x 1输出大小为10 x 1即分别预测为10类的概率值。 2.3 三维卷积Conv3D 3D卷积常用于医学影像图像分割以及视频中的动作检测 2.3.1 函数原型 class torch.nn.Conv3d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone) 参数说明 in_channels (int) – 输入通道数 out_channels (int) – 输出通道数等价于卷积核个数 kernel_size (int or tuple) – 卷积核大小 stride (int or tuple, optional) – 卷积步长默认为 1 padding (int or tuple, optional) – Zero-padding默认为 0 padding_mode (string, optional) – ‘zeros’, ‘reflect’, ‘replicate’ or ‘circular’. Default: ‘zeros’ dilation (int or tuple, optional) – 空洞卷积尺寸默认为 1 groups (int, optional) – 分组卷积设置Number of blocked connections from input channels to output channels. Default: 1 bias (bool, optional) – If True, adds a learnable bias to the output. Default: True。 2.3.2 原理示意图 动态执行示意图 输出计算 2.4 空洞卷积 空洞卷积诞生于图像分割领域比如FCN网络首先像传统的CNN一样先卷积后池化经过池化层之后图像尺寸降低感受野增大但是因为图像分割需要实现像素级的输出所以要将经过池化之后的较小的特征图通过转置卷积反卷积降采样到与原始图像相同的尺寸。之前的池化操作使得原特征图中的每个像素都具有较大的感受野因此FCN中的两个关键一是通过池化层增大感受野二是通过转置卷积增大图像尺寸。在先减小后增大的过程中肯定会丢失信息那么能否不同池化层也可以使得网络具有较大的感受野呢空洞卷积应运而生。 原理示意图如下 (a)图 对应3x3的1-dilated conv和普通的卷积操作一样 (b)图 对应3x3的2-dilated conv实际的卷积 kernel size 还是 3x3但是空洞为1也就是对于一个7x7的图像patch只有9个红色的点和3x3的kernel发生卷积操作其余的点略过。也可以理解为kernel的size为7x7但是只有图中的9个点的权重不为0其余都为0。 可以看到虽然kernel size只有3x3但是这个卷积的感受野已经增大到了7x7如果考虑到这个2-dilated conv的前一层是一个1-dilated conv的话那么每个红点就是1-dilated的卷积输出所以感受野为3x3所以1-dilated和2-dilated合起来就能达到7x7的conv (c)图 是4-dilated conv操作同理跟在两个1-dilated和2-dilated conv的后面能达到15x15的感受野。对比传统的conv操作3层3x3的卷积加起来stride为1的话只能达到(kernel-1)*layer17的感受野也就是和层数layer成线性关系而dilated conv的感受野是指数级的增长。 dilated的好处是不做pooling损失信息的情况下加大了感受野让每个卷积输出都包含较大范围的信息。在图像需要全局信息或者语音文本需要较长的sequence信息依赖的问题中都能很好的应用dilated conv比如图像分割[3]、语音合成WaveNet[2]、机器翻译ByteNet[1]中。 2.5 转置卷积 卷积是使输出大小变小的过程。 因此而反卷积deconvolution可以进行向上采样以增大输出大小。但是反卷积并代表卷积的逆过程。因此它也被称为向上卷积或转置卷积transposed convolution。 当使用分数步幅时也称为分数步幅卷积fractional stride convolution。 正常卷积 假设图像尺寸为 4×4卷积核为 3×3padding0stride1     图像卷积核输出 转置卷积 假设图像尺寸为 2×2 卷积核为 3×3padding0stride1     图像卷积核 输出 ConvTranspose1d class torch.nn.ConvTranspose1d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone) in_channels (int) – Number of channels in the input image out_channels (int) – Number of channels produced by the convolution kernel_size (int or tuple) – Size of the convolving kernel stride (int or tuple, optional) – Stride of the convolution. Default: 1 padding (int or tuple, optional) – dilation * (kernel_size - 1) - padding zero-padding will be added to both sides of the input. Default: 0 output_padding (int or tuple, optional) – Additional size added to one side of the output shape. Default: 0 groups (int, optional) – Number of blocked connections from input channels to output channels. Default: 1 bias (bool, optional) – If True, adds a learnable bias to the output. Default: True dilation (int or tuple, optional) – Spacing between kernel elements. Default: 1 输出计算 ConvTranspose2d class torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone) in_channels (int ) – Number of channels in the input image out_channels (int ) – Number of channels produced by the convolution kernel_size  (int or tuple) – Size of the convolving kernel stride (int or tuple, optional) – Stride of the convolution. Default: 1 padding (int or tuple, optional) – dilation * (kernel_size - 1) - padding zero-padding will be added to both sides of each dimension in the input. Default: 0 output_padding (int or tuple, optional) – Additional size added to one side of each dimension in the output shape. Default: 0 groups (int, optional) – Number of blocked connections from input channels to output channels. Default: 1 bias (bool, optional) – If True, adds a learnable bias to the output. Default: True dilation (int or tuple, optional) – Spacing between kernel elements. Default: 1 输出计算 ConvTranspose3d class torch.nn.ConvTranspose3d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone) in_channels (int) – Number of channels in the input image out_channels (int) – Number of channels produced by the convolution kernel_size  (int or tuple) – Size of the convolving kernel stride (int or tuple, optional) – Stride of the convolution. Default: 1 padding (int or tuple, optional) – dilation * (kernel_size - 1) - padding zero-padding will be added to both sides of each dimension in the input. Default: 0 output_padding (int or tuple, optional) – Additional size added to one side of each dimension in the output shape. Default: 0 groups (int, optional) – Number of blocked connections from input channels to output channels. Default: 1 bias (bool, optional) – If True, adds a learnable bias to the output. Default: True dilation (int or tuple, optional) – Spacing between kernel elements. Default: 1 输出计算 2.6 深度可分离卷积 MobileNet中大量使用的了深度可分离卷积Depth-wise Separable Convolutions主要起到降低参数量增加非线性跨通道信息融合的作用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/89389.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

做一个响应式网站价格网站备案 修改

目录 三、FP-增长算法(一)算法的背景(二)构造FP-树(三)生成频繁项集 四、关联规则的评价(一)支持度和置信度的不足(二)相关性分析 三、FP-增长算法 &#xf…

网站开发报价单 excel网站功能策划书

Python搭建简单的web服务器 1.winR输入cmd打开命令行 2.通过 cd 进入到你保存 HTML 文件的目录。例如:H:\D3\d3 输入 cd\ 指令进入到C盘的根目录。(CD(更改目录)。使用此命令可以更改当前目录) 这里解释一下cd指令基本…

科院公司网站建设目标是什么上海虹口网站建设

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、pandas是什么?二、使用步骤 1.引入库2.读入数据总结 前言 根据AS自治系统可以将动态路由协议划分为IGP和EGP协议。IGP协议是应用在AS内部&#…

网站建设先进个人事迹崔凯 本地wordpress

Redis持久化机制的三种方式:RDB、AOF和混合持久化 Redis是一种高性能的内存数据结构存储系统,它提供了丰富的数据结构和操作,如键值对、列表、集合、哈希表等。然而,由于Redis是内存存储,一旦服务器停止运行&#xff…

单位的网站建设费如何核算延边省建设局网站官网

vim 快速跳到文件末尾 在最后一行下方新增一行 移到末尾,并且进入文本录入模式 GA (大写G大写A) 在一般模式(刚进入的模式,esc模式) GA 或 Shift ga 先 G 或 shiftg 到最后一行 然后 A 或 shifta 到本行末尾 并且进入文本录入模式 在最后一行下方新增一行 (光标换行,文字不…

劳务派遣做网站的好处asp 网站运行

不再多言 玩者自知しょぼんのアクション猫版超级玛丽 下载

手机怎么创网站免费惠阳区城市建设规划局网站

文 | 琴梨梨源 | 知乎今天无聊刷GitHub看到一个让我血压上来的项目乍一看,2.4k star,应该不像是什么小项目应该是比较有用的项目,但接下来的事情属实是让我气的很对于开源项目我是不喜欢下载预构建的成品的,我更喜欢自己动手从源代…

佛山网站建设佛山网络推广保定网站建设找谁

如何使用 dotnet pack 打包 .NET 跨平台程序集? dotnet pack 介绍官方描述 dotnet pack 命令说明使用示例打包 .net 类库项目生成带注释的 nuget 包构建特定平台的 nuget 包关于 .NET RID 目录 dotnet pack 介绍 dotnet pack 是一个 .NET Core NuGet 包打包程序。 …

制作网站制作公司甘肃省建设厅查行网站

目录 1 学习路线图2 应用介绍3 编辑器介绍总结 低代码的概念于2014年由 Forrester 首次正式提出。其将低代码定义为:能够以“最少的手写代码”和设置快速开发应用、配置和部署业务应用程序。 不同应用厂商的解法不一样,Gartner评估了400多款低代码/无代码…

wordpress建站怎么上传公司企业宣传片的拍摄

6 分布式系统 Redis 分布式系统,官方称为 Redis Cluster,Redis 集群,其是 Redis 3.0 开始推出的分布式解决方案。其可以很好地解决不同 Redis 节点存放不同数据,并将用户请求方便地路由到不同 Redis 的问题。 什么是分布式系统?…

如何在网站做电子报深圳福田香格里拉酒店

火狐浏览器是我们大家经常使用的浏览器之一,在使用这款浏览器的过程有时候需要使用到摄像头,那你知道火狐浏览器摄像头权限怎么开启的吗?接下来我们一起往下看看火狐浏览器摄像头权限开启的方法吧。 方法步骤 1、打开火狐浏览器,点击右上角…

建设一个网站最低消费微信开放平台创建小程序

Part11-Join Algorithms Why Do We Need to Join? Join其实是关系数据库和范式化表时候所产生的副产物。 也就是说我们范式化表是为了减少冗余信息,而我们使用join就是为了去重建reconstruct 这些原本的tuple Join Algorithms 主要关注两表的inner equijoin a…

金坛做网站桂林象鼻山景区简介

森林防火手抄报模板参考【文字素材参考】01森林防火根据森林火灾燃烧中央地点,蔓延速度,受害部位和程度,大致可把森林火灾分为三大类:一.地表火 二.树冠火 三.地下火。以受害森林面积大小为标准,森林火灾分为以下四类:1.森林火警:…

在工行网站上如何做现金理财做网站看什么书好

背景介绍 在ADO.NET中我们可以根据用户输入的查询条件拼接出指定的SQL语句进行查询或者筛选出所需的数据,但是在ORM框架如EF中,我们一般用LINQ操作数据查询,LINQ是否可以像SQL一样拼接查询条件呢?答案是可以的。这一技术叫Linq.D…

沈阳企业网站怎样制作妇科医生免费咨询

c中的对象的构造顺序与析构顺序 问题一 当程序中存在多个对象时,如何确定这些对象的析构顺序? 一.单个函数创建时构造函数的调用顺序 1.调用父类的构造过程 2.调用成员变量的构造函数(调用顺序与声明顺序相同) 3.调用类自身的构造函数 而析构函数与…

番禺网站制作价格聚美优品网站建设分析

摘要: 一图胜千言,下面图解均来自Program Creek 网站的Java教程,目前它们拥有最多的票选。如果图解没有阐明问题,那么你可以借助它的标题来一窥究竟。8张图理解Java一图胜千言,下面图解均来自Program Creek 网站的Java…

网站开发和游戏开发哪个好做网站生意

目录一、Nacos简介二、Nacos安装及配置1、环境准备2、安装包下载(1)源码方式(2)发行包方式3、启动Nacos服务4、Nacos数据库配置(1)MySQL数据源(2)初始化 MySQL 数据库(3&…

网站建设五站合一给wordpress添加字段

科目编号:0105 座位号 2017年度第二学期期末考试 酒店营销实务 试题 2018年7月 一、名词解释:(每题5分,共20分) 1.酒店的营销渠道: 产品生命周期: 市场营销: 酒店产品…

怎么自己做网站吗淘宝网页版下载

1.1 访问路径设置 RequestMapping注解的作用就是将请求的 URL 地址和处理请求的方式(handler方法)关联起来,建立映射关系。 SpringMVC 接收到指定的请求,就会来找到在映射关系中对应的方法来处理这个请求。 1.1.1 精准路径匹配…

南山建站公司现在做个app多少钱

今天25学堂跟大家推荐一款非常有趣和简单的APP图标生成工具:Iconion Icon Generator(iconion图标生成器) 我们可以用它来创建美丽的扁平化图标,长投影图标,桌面图标,社会媒体图标和移动APP图标等&#xff0…