嘉兴网站seo外包百度网站提交
news/
2025/10/2 23:39:11/
文章来源:
嘉兴网站seo外包,百度网站提交,企业邮箱可以是个人qq邮箱吗,网站页面设计成品下载1.概念
有监督学习正向传播#xff1a;输入样本---输入层---各隐层---输出层反向传播#xff1a;误差以某种形式在通过隐层向输入层逐层反转#xff0c;并将误差分摊给各层的所有单元#xff0c;以用于修正各层的权值激活函数#xff1a;也叫阶跃函数#xff0c;目的是引…1.概念
有监督学习正向传播输入样本---输入层---各隐层---输出层反向传播误差以某种形式在通过隐层向输入层逐层反转并将误差分摊给各层的所有单元以用于修正各层的权值激活函数也叫阶跃函数目的是引入非线性因素有很多种激活函数如sigmoidrelu使用情景如下 激活函数作用如果没有激活函数则不管有几个隐藏层都只能表示线性切割即与单层神经网络相同而通过使用激活函数神经网络的每一层都可以学习输入数据的非线性变换这使得整个网络能够逼近任何复杂的函数。解释如下图。 1.感知机处理二分类问题
1.1.概念及与线性回归模型的比较 1.2.梯度下降思想调整感知机参数w和b
1损失函数为误分点到超平面距离的和 书上推理补充 3.多层前馈神经网络
3.1.思想 任意复杂连续函数都是n个一般线性函数的叠加即感知机相当于一个线性函数那增加n个隐层就可表示任意复杂连续函数。
3.2.区分
1感知机为单层网络
2加一个隐层为两层网络也叫单隐层网络
3.3.误差逆传播算法BP算法
1用于多层前馈神经网络或其他类型网络采用链式法则计算各层参数的梯度然后使用梯度下降法来更新参数以减小误差。
2损失函数为每个预测y值与样本实际y值之差绝对值的和 3.4.标准BP算法与累计BP算法 类似随机梯度下降每次迭代中仅使用一个样本来计算梯度、标准梯度下降整个数据集来计算梯度
标准BP算法更新频繁需要更多次数迭代累计BP算法读取整个训练集后才更新频率低更快获得较好解数据集大更明显 3.5.过拟合解决方案 过拟合表现训练误差持续降低测试误差可能上升
1早停
若训练误差降低但测试误差上升则停止返回最小测试误差的权重和偏置阈值
2正则化
增加描述网络复杂度的部分eg权重和阈值的平方和想要这部分也小一点别太复杂损失函数变为了\lambda*经验误差1-\lambda*网络复杂度其中经验误差就是我们上面一直用的损失函数即预测y与实际y值的差和
4.全局最小与局部极小 在神经网络中我们对样本进行训练对于训练得到的结果我们通过损失函数计算调整权重和阈值在这个过程中不管是感知机还是多层前馈网络使用的都是梯度下降策略希望找到损失函数在某个参数权重或阈值方向上的是极小值的点也就是寻找损失函数在某参数上偏导为0的点若不为0则调整该参数使得在损失函数上的取值向最低点靠近。在这个过程中涉及到一个全局最小和一个局部极小的概念即如果有多个极小点那么根据梯度下降很可能找到的是一个局部最小点而不是全局最小点。解决方案如下
多组不同参数值的神经网络出发模拟退火算法每一步有一定概率接受比当前更差的结果随机梯度下降在梯度为0时计算出来的梯度仍可能不为0
5.其他神经网络
1PBF网络单隐层、径向基函数作为隐层神经元激活函数
2ART 网络无监督学习策略、输出神经元相互竞争每一时刻仅有一个神经元被激活、可塑性-稳定性
3SOM 网络竞争型、无监督神经网络、将高维数据映射到低维空间通常为2维同时保持输入数据在高维空间的拓扑结构
4级联相关网络
5Elman 网络不同于前馈神经网络elman是一种递归神经网络神经元的输出反馈回来作为输入信号
6Boltzmann 机基于能量的模型
6.深度学习模型 模型深度和宽度都较大其中增加隐层的数目比增加隐层神经元的数目更有效由于复杂则难以直接用经典算法例如标准BP算法进行训练。
训练方法
1无监督逐层训练预训练训练时将上一层隐层结点的输出作为输入微调一般使用BP算法可以先找到局部看起来比较好的设置, 然后再基于这些局部较优的结果联合起来进行全局寻优
2权共享一组神经元使用相同的连接权值卷积神经网络就是这样
**卷积神经网络
1卷基层含n个特征映射每个特征映射为由多个神经元构成的“平面”
2采样层汇合层减少数据量的同时保留有用信息
3连接层每个神经元被全连接到上一层每个神经元, 本质就是传统的神经网络
激活函数采用修正线性函数relu可用bp算法训练每一层的权值都相同好训练
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/925412.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!