wordpress更改中文版后还是英文徐州百度seo排名
news/
2025/10/5 3:49:05/
文章来源:
wordpress更改中文版后还是英文,徐州百度seo排名,wordpress 3.4漏洞,移动端网站如何做导出功能吗#x1f680;个人主页#xff1a;为梦而生~ 关注我一起学习吧#xff01; #x1f4a1;专栏#xff1a;机器学习 欢迎订阅#xff01;相对完整的机器学习基础教学#xff01; ⭐特别提醒#xff1a;针对机器学习#xff0c;特别开始专栏#xff1a;机器学习python实战… 个人主页为梦而生~ 关注我一起学习吧 专栏机器学习 欢迎订阅相对完整的机器学习基础教学 ⭐特别提醒针对机器学习特别开始专栏机器学习python实战 欢迎订阅本专栏针对机器学习基础专栏的理论知识利用python代码进行实际展示真正做到从基础到实战 往期推荐 【机器学习基础】一元线性回归适合初学者的保姆级文章 【机器学习基础】多元线性回归适合初学者的保姆级文章 【机器学习基础】决策树Decision Tree 【机器学习基础】K-Means聚类算法 【机器学习基础】DBSCAN 【机器学习基础】支持向量机 【机器学习基础】集成学习 【机器学习 深度学习】神经网络简述 本期内容卷积神经网络最常用于分析视觉图像并广泛应用于计算机视觉、自然语言处理等领域。卷积神经网络仿造生物的视知觉visual perception机制构建可以进行监督学习和非监督学习其隐含层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化grid-like topology特征例如像素和音频进行学习、有稳定的效果且对数据没有额外的特征工程feature engineering要求。 文章目录 0 前言1 卷积神经网络的层级结构2 卷积2.1 步长和填充2.2 卷积的作用2.2.1 用卷积层代替全连接层2.2.2 多个卷积核 3 池化3.1 池化层的结构3.2 池化层的作用3.3 池化层的参数选择 4 常见的卷积神经网络 0 前言 上一篇文章我们介绍了人工神经网络神经网络由大量的神经元相互连接而成。每个神经元接受线性组合的输入后最开始只是简单的线性加权后来给每个神经元加上了非线性的激活函数从而进行非线性变换后输出。每两个神经元之间的连接代表加权值称之为权重weight。不同的权重和激活函数则会导致神经网络不同的输出。 这一篇文章我们来了解一下更加神奇的卷积神经网络 1 卷积神经网络的层级结构
普通神经网络 卷积神经网络 卷积神经网络是一种前馈神经网络受生物学上感受野Receptive Field的机制而提出的。在视觉神经系统中一个神经元的感受野是指视网膜上的特定区域只有这个区域内的刺激才能够激活该神经元。 上图给出了经典的卷积神经网络各个层级结构
上图中CNN要做的事情是给定一张图片是车还是马未知是什么车也未知现在需要模型判断这张图片里具体是一个什么东西总之输出一个结果如果是车 那是什么车
CONV卷积计算层线性乘积 求和。RELU激励层上文2.2节中有提到ReLU是激活函数的一种。POOL池化层简言之即取区域平均或最大。FC全连接层 2 卷积 在泛函分析中卷积、旋积或褶积是通过两个函数f和g生成第三个函数的一种数学运算。 在深度学习中 对图像和滤波矩阵做内积的操作就是卷积。 卷积经常用在信号处理中用于计算信号的延迟累积。假设一个信号发生器每个时刻t产生一个信号xt 其信息的衰减率为wk 即在k−1个时间步长后信息为原来的wk 倍时刻t收到的信号yt 为当前时刻产生的信息和以前时刻延迟信息的叠加。 举个例子
给定一个输入信号序列和滤波器,卷积的输出为Filter: [-1,0,1]
不同的滤波器来提取信号序列中的不同特征 2.1 步长和填充 步长是指感受野窗口每次移动的长度单位对于2D输入来说分为沿向右方向和向下方向的移动长度。步长会影响到输出特征图的尺寸步长越大输出的特征图尺寸越小反之亦然。步长的选择需要根据实际任务需求和数据特点来决定通常情况下步长为1或2。 填充是指在输入高和宽的两侧填充元素通常是0元素以增加输出的特征图尺寸。填充的作用是控制输出特征图的尺寸同时可以使得卷积神经网络具有更强的平移不变性。通过填充可以在输入特征图上增加一些额外的信息使得卷积神经网络能够更好地处理数据。 卷积的结果按输出长度不同可以分为三类 窄卷积步长 1 两端不补零 0 卷积后输出长度为 − 1 宽卷积步长 1 两端补零 − 1 卷积后输出长度 − 1 等宽卷积步长 1 两端补零 ( − 1)/2 卷积后输出长度
在早期的文献中卷积一般默认为窄卷积。而目前的文献中卷积一般默认为等宽卷积。 2.2 卷积的作用
2.2.1 用卷积层代替全连接层
局部感知卷积层可以使得神经网络能够更好地感知局部特征这对于图像、语音等局部特征较为丰富的任务非常有利。而全连接层则无法实现局部感知因为它会将每个神经元与输入数据中的每个元素相连导致计算量和参数数量都非常大。参数共享卷积层中的卷积核可以在整个输入数据上共享参数这样不仅可以减少参数量还可以提高模型的泛化能力。而全连接层则没有参数共享的特点。平移不变性由于卷积层可以对输入数据进行局部感知和平移不变性处理因此它可以使得神经网络对于输入数据的平移变化具有更好的鲁棒性。而全连接层则不具备这种平移不变性的特点。特征提取卷积层可以通过逐渐增加感受野的大小来提取不同尺度的特征这对于一些需要多尺度特征的任务非常有利。而全连接层则无法实现多尺度特征的提取。 2.2.2 多个卷积核 在卷积神经网络中多个卷积核的作用是提取输入数据的多种局部特征。每个卷积核都可以从输入数据中提取出特定的特征例如边缘、角点、纹理等。通过使用多个卷积核可以同时学习多个特征并在输出层中将这些特征结合起来进行分类或回归。 卷积核的作用类似于滤波器可以对输入数据进行滤波操作提取出局部特征。在卷积神经网络中卷积核的大小和数量可以根据任务需求和数据特点进行选择和调整。通常情况下卷积核的大小为3x3或5x5数量可以从几十到几百不等。 使用多个卷积核可以增加神经网络的非线性表达能力使得神经网络能够更好地学习和模拟复杂的特征。同时多个卷积核还可以提高网络的泛化能力使得神经网络对于不同的数据分布更加鲁棒。 3 池化 卷积层虽然可以显著减少连接的个数但是每一个特征图的神经元个数并没有显著减少。 池化层是卷积神经网络中的一种重要层用于降低输入数据的空间维度减少参数数量提高模型的计算效率。 3.1 池化层的结构
池化层通常位于卷积层之后通过对输入数据的降采样来减小数据的空间尺寸。
池化层的操作可以分为两种最大池化和平均池化。最大池化是从输入数据中选取固定大小的区域取该区域中的最大值作为输出平均池化则是计算固定大小区域的平均值作为输出。 3.2 池化层的作用
降低维度通过减小数据的空间尺寸池化层可以降低输入数据的维度减少计算量和参数数量提高模型的计算效率。提高平移不变性由于池化层的操作是针对固定大小的区域进行的因此它可以对输入数据进行下采样使得神经网络对于输入数据的平移变化具有更好的鲁棒性。特征提取和降噪池化层可以提取输入数据中的重要特征和降低噪声干扰。通过减小数据的空间尺寸可以将一些不重要的细节信息过滤掉保留重要的特征信息。 3.3 池化层的参数选择
池化窗口的大小池化窗口的大小决定了降采样的程度和输出的特征图尺寸。通常情况下池化窗口的大小为2x2或3x3但具体选择需要根据任务需求和数据特点进行决定。步长stride步长决定了池化操作的移动速度即每次池化操作的间隔。步长越大输出的特征图尺寸越小反之亦然。步长的选择也需要根据实际情况进行决定。填充padding填充是在输入数据的周围添加额外的元素通常是0以保持输出特征图的尺寸与输入数据一致。填充可以控制输出特征图的尺寸但同时也会增加计算量和参数数量。 4 常见的卷积神经网络
LeNet-5
LeNet-5 是一个非常成功的神经网络模型。
基于 LeNet-5 的手写数字识别系统在 90 年代被美国很多银行使用用来识别支票上面的手写数字。 AlexNet
2012 ILSVRC winnertop 5 error of 16% compared to runner-up with 26% error
第一个现代深度卷积网络模型 首次使用了很多现代深度卷积网络的一些技术方法 使用GPU进行并行训练采用了ReLU作为非线性激活函数使用Dropout防止过拟合使用数据增强 5个卷积层、3个汇聚层和3个全连接层
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/927834.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!