网站建设模板删不掉仙侠手游代理平台

pingmian/2025/10/7 21:23:44/文章来源:
网站建设模板删不掉,仙侠手游代理平台,安徽省高等级公路工程建设指挥部网站,石景山网站建设的大公司机器学习综述 摘要 本文主要参考中科院自动化研究所复杂系统与智能科学实验室王珏研究员《关于机器学习的讨论》#xff0c;讨论机器学习的描述#xff0c;理论基础#xff0c;发展历史以及研究现状。 关键字:机器学习#xff0c;科学依据#xff0c;发展脉络 0引言 20世纪… 机器学习综述 摘要 本文主要参考中科院自动化研究所复杂系统与智能科学实验室王珏研究员《关于机器学习的讨论》讨论机器学习的描述理论基础发展历史以及研究现状。 关键字:机器学习科学依据发展脉络 0引言 20世纪90年代初当时的美国副总统提出了一个重要的计划——国家信息基本设施计划(NationalInformation Infrastructure,NII)。这个计划的技术含义包含了四个方面的内容 (1)不分时间与地域可以方便地获得信息。 (2)不分时间与地域可以有效地利用信息。 (3)不分时间与地域可以有效地利用软硬件资源。 (4)保证信息安全。 本文主要讨论解决“信息有效利用”问题其本质是如何根据用户的特定需求从海量数据中建立模型或发现有用的知识。对计算机科学来说这就是机器学习。 计算机科学特别是人工智能的研究者一般公认Simon对学习的论述“如果一个系统能够通过执行某个过程改进它的性能这就是学习。”这是一个相当广泛的说明, 其要点是“系统”, 它涵盖了计算系统、控制系统以及人系统等, 对这些不同系统的学习, 显然属于不同的科学领域。即使计算系统, 由于目标不同, 也分为了“从有限观察概括特定问题世界模型的机器学习”、“发现观测数据中暗含的各种关系的数据分析”,以及“从观测数据挖掘有用知识的数据挖掘”等不同分支。由于这些分支发展的各种方法的共同目标都是“从大量无序的信息到简洁有序的知识”,因此,它们都可以理解为Simon 意义下的“过程”,也就都是“学习”。 1   机器学习描述 本文将讨论限制在“从有限观察概括特定问题世界模型的机器学习”与“从有限观察发现观测数据中暗含的各种关系的数据分析”的方法上, 并统称其为机器学习。 我们描述机器学习如下: 令W是给定世界的有限或无限的所有观测对象的集合, 由于我们观察能力的限制, 我们只能获得这个世界的一个有限的子集Q W, 称为样本集。机器学习就是根据这个样本集, 推算这个世界的模型, 使它对这个世界(尽可能地)为真。 这个描述隐含了三个需要解决的问题: (1) 一致: 假设世界W与样本集Q有相同的性质。例如,如果学习过程基于统计原理,独立同分布( i. i. d )就是一类一致条件。 (2) 划分: 将样本集放到n维空间,寻找一个定义在这个空间上的决策分界面(等价关系),使得问题决定的不同对象分在不相交的区域。 (3) 泛化: 泛化能力是这个模型对世界为真程度的指标。从有限样本集合, 计算一个模型,使得这个指标最大(最小)。 这些问题对观测数据提出了相当严厉的条件,首先需要人们根据一致假设采集数据,由此构成机器学习算法需要的样本集; 其次, 需要寻找一个空间, 表示这个问题; 最后, 模型的泛化指标需要满足一致假设, 并能够指导算法设计。这些条件限制了机器学习的应用范围。 2   机器学习的发展历史 2.1   机器学习与人工智能 机器学习是人工智能研究的核心内容。它的应用已遍及人工智能的各个分支如专家系统、自动推理、自然语言理解、模式识别、计算机视觉、智能机器人等领域。 人工智能涉及到诸如意识consciousness、自我self、心灵mind包括无意识的精神unconscious_mind等等问题。人唯一了解的智能是人本身的智能这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限对构成人的智能的必要元素也了解有限所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人的智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。下图展示了人工智能的发展路线 机器学习是人工智能研究发展到一定阶段的必然产物。从 20 世纪50 年代到 70 年代初人工智能研究处于“推理期”人们认为只要给机器赋予逻辑推理能力机器就能具有智能。这一阶段的代表性工作主要有 A. Newell 和 H. Simon 的“逻辑理论家”程序以及此后的“通用问题求解”程序等这些工作在当时取得了令人振奋的成果。例如“逻辑理论家”程序在 1952 年证明了著名数学家罗素和怀特海的名著《数学原理》中的 38 条定理在1963年证明了全部的52 条定理而且定理 2.85甚至比罗素和怀特海证明得更巧妙。A. Newell和 H. Simon因此获得了 1975 年图灵奖。然而随着研究向前发展人们逐渐认识到仅具有逻辑推理能力是远远实现不了人工智能的。E.A. Feigenbaum等人认为要使机器具有智能就必须设法使机器拥有知识。在他们的倡导下20 世纪 70 年代中期开始人工智能进入了“知识期”。在这一时期大量专家系统问世在很多领域做出了巨大贡献。E.A. Feigenbaum 作为“知识工程”之父在 1994 年获得了图灵奖。但是专家系统面临“知识工程瓶颈”简单地说就是由人来把知识总结出来再教给计算机是相当困难的。于是一些学者想到如果机器自己能够学习知识该多好实际上图灵在1950年提出图灵测试的文章中就已经提到了机器学习的可能而20世纪50年代其实已经开始有机器学习相关的研究工作主要集中在基于神经网络的连接主义学习方面代表性工作主要有 F. Rosenblatt 的感知机、B. Widrow 的 Adaline 等。在 20 世纪 6、70 年代多种学习技术得到了初步发展例如以决策理论为基础的统计学习技术以及强化学习技术等代表性工作主要有 A.L. Samuel 的跳棋程序以及 N.J. Nilson 的“学习机器”等20 多年后红极一时的统计学习理论的一些重要结果也是在这个时期取得的。在这一时期基于逻辑或图结构表示的符号学习技术也开始出现代表性工作有 P. Winston的“结构学习系统”、R.S. Michalski等人的“基于逻辑的归纳学习系统”、E.B. Hunt 等人的“概念学习系统”等。1980 年夏天在美国卡内基梅隆大学举行了第一届机器学习研讨会同年《策略分析与信息系统》连出三期机器学习专辑1983年Tioga出版社出版了R.S. Michalski、J.G. Carbonell和T.M. Mitchell主编的《机器学习一种人工智能途径》书中汇集了 20 位学者撰写的 16 篇文章对当时的机器学习研究工作进行了总结产生了很大反响1986 年《Machine Learning》创刊1989 年《Artificial Intelligence》出版了机器学习专辑刊发了一些当时比较活跃的研究工作其内容后来出现在J.G. Carbonell主编、MIT出版社 1990 年出版的《机器学习风范与方法》一书中。总的来看20 世纪 80 年代是机器学习成为一个独立的学科领域并开始快速发展、各种机器学习技术百花齐放的时期。R.S. Michalski等人中把机器学习研究划分成“从例子中学习”、“在问题求解和规划中学习”、“通过观察和发现学习”、“从指令中学习”等范畴而 E.A. Feigenbaum在著名的《人工智能手册》中则把机器学习技术划分为四大类即“机械学习”、“示教学习”、“类比学习”、“归纳学习”。 2.2    机器学习的理论基础 机器学习的科学基础之一是神经科学, 然而, 对机器学习进展产生重要影响的是以下三个发现, 分别是: (1) James关于神经元是相互连接的发现。 (2) McCulloch 与Pitts 关于神经元工作方式是“兴奋”和“抑制”的发现。 (3) Hebb 的学习律(神经元相互连接强度的变化)。 其中, McCulloch 与Pitts 的发现对近代信息科学产生了巨大的影响。对机器学习, 这项成果给出了近代机器学习的基本模型, 加上指导改变连接神经元之间权值的Hebb学习律,成为目前大多数流行的机器学习算法的基础。 1954年, Barlow 与Hebb 在研究视觉感知学习时,分别提出了不同假设: Barlow 倡导单细胞学说, 假设从初级阶段而来的输入集中到具有专一性响应特点的单细胞, 并使用这个神经单细胞来表象视觉客体。这个考虑暗示, 神经细胞可能具有较复杂的结构; 而Hebb主张视觉客体是由相互关联的神经细胞集合体来表象, 并称其为ensemble。在神经科学的研究中, 尽管这两个假设均有生物学证据的支持, 但是, 这个争论至今没有生物学的定论。这个生物学的现实, 为我们计算机科学家留下了想象的空间, 由于在机器学习中一直存在着两种相互补充的不同研究路线, 这两个假设对机器学习研究有重要的启示作用。 在机器学习划分的研究中, 基于这两个假设, 可以清晰地将机器学习发展历程总结为: 以感知机、BP与SVM 等为一类以样条理论、k-近邻、Madalin e、符号机器学习、集群机器学习与流形机器学习等为另一类。 在McCulloch 与Pitts 模型的基础上, 1957 年, Rosenblatt 首先提出了感知机算法,这是第一个具有重要学术意义的机器学习算法。这个思想发展的坎坷历程, 正是机器学习研究发展历史的真实写照。感知机算法主要贡献是: 首先, 借用最简单的McCulloch与Pitts模型作为神经细胞模型; 然后,根据Hebb集群的考虑, 将多个这样的神经细胞模型根据特定规则集群起来,形成神经网络, 并将其转变为下述机器学习问题: 计算一个超平面, 将在空间上不同类别标号的点划分到不同区域。在优化理论的基础上, Rosenblatt 说明, 如果一个样本集合是线性可分, 则这个算法一定可以以任何精度收敛。由此导致的问题是, 对线性不可分问题如何处理。 1969年,Minsky 与Paper出版了对机器学习研究具有深远影响的著作Perceptron(《感知机》)。目前, 人们一般的认识是, 由于这本著作中提出了XOR 问题, 从而扼杀了感知机的研究方向。然而, 在这本著作中对机器学习研究提出的基本思想, 至今还是正确的, 其思想的核心是两条: (1) 算法能力: 只能解决线性问题的算法是不够的, 需要能够解决非线性问题的算法。 (2) 计算复杂性: 只能解决玩具世界问题的算法是没有意义的, 需要能够解决实际世界问题的算法。 在1986 年, Rumelhart 等人的BP 算法解决了XOR 问题, 沉寂近二十年的感知机研究方向重新获得认可,人们自此重新开始关注这个研究方向, 这是Rumelhart等人的重要贡献。 在20 世纪60 年代的另一个重要研究成果来自Widrow。1960 年,Widrow 推出了Madaline 模型, 在算法上,对线性不可分问题, 其本质是放弃划分样本集的决策分界面连续且光滑的条件, 代之分段的平面。从近代的观点来看, 这项研究与感知机的神经科学假设的主要区别是: 它是确认Barlow 假设中神经细胞具有较复杂结构的思想,由此,将线性模型(例如, 感知机)考虑为神经细胞模型( 而不是简单的McCulloch与Pitts模型) ,然后, 再基于Hebb 神经元集合体假设, 将这些局部模型集群为对问题世界的表征, 由此解决线性不可分问题。但是, 这项研究远不如感知机著名, 其原因是: 其一, 尽管Madaline可以解决线性不可分问题, 但是, 其解答可能是平凡的; 其二,Widrow 没有给出其理论基础, 事实上,其理论基础远比感知机复杂, 直到1990 年, Schapire根据Valiant 的“概率近似正确(PAC)”理论证明了“弱可学习定理”之后, 才真正引起人们的重视。 进一步比较机器学习中两个不同路线的神经科学启示是有趣的: 对机器学习来说, 它们最显著的差别是对神经细胞模型的假设, 例如, 感知机是以最简单的McCulloch与Pitts 模型作为神经细胞模型, 而Madaline 是以问题世界的局部模型作为神经细胞模型,两种方法都需要根据Hebb 思想集群。因此, 对机器学习研究, 两个神经科学的启示是互补的。但是, 两者还有区别: 前者强调模型的整体性, 这与Barlow“表征客体的单一细胞论”一致, 因此, 我们称其为Barlow 路线; 而后者则强调对世界的表征需要多个神经细胞集群, 这与Hebb“表征客体的多细胞论”一致, 我们称其为Hebb 路线。鉴于整体模型与局部模型之间在计算上有本质差别, 尽管根据Barlow 与Hebb 假设区分机器学习的方法。 在这一节的最后, 将1989 年Carbonell对机器学习以后十年的展望与十年后Diet terich 的展望作一个对比, 可能是有趣的, 我们希望以此说明机器学习研究由于面临问题的改变所发生的变迁(表1) 。 3  统计机器学习 统计机器学习是近几年被广泛应用的机器学习方法,事实上,这是一类相当广泛的方法。更为广义地说, 这是一类方法学。当我们获得一组对问题世界的观测数据, 如果我们不能或者没有必要对其建立严格物理模型,我们可以使用数学的方法, 从这组数据推算问题世界的数学模型, 这类模型一般没有对问题世界的物理解释, 但是, 在输入输出之间的关系上反映了问题世界的实际, 这就是“黑箱”原理。一般来说,“黑箱”原理是基于统计方法的(假设问题世界满足一种统计分布) , 统计机器学习本质上就是“黑箱”原理的延续。与感知机时代不同, 由于这类机器学习科学基础是感知机的延续, 因此,神经科学基础不是近代统计机器学习关注的主要问题, 数学方法成为研究的焦点。 3.1   统计机器学习概述 统计机器学习方法的基本假设是同类数据具有一定的统计规律性。其目标是从假设空间也即模型空间从输入空间到输出空间的映射函数空间中寻找一个最优的模型。 通过对统计机器学习目标的描述我们可以发现统计机器学习方法主要研究三个问题 (1)模型假设这个问题解决的是如何将样本从输入空间转化到输出空间的它往往是一个后验概率或者是一个映射函数。 (2)模型选择模型所在空间也就是假设空间往往包含无穷多个满足假设的可选模型如何从假设空间中选择一个最优模型应该采用怎样的选择标准这就是模型选择应该解决的问题。一般采用损失函数来制定模型选择策略将模型选择转化为一个最优化问题来求解。常用的损失函数包括0-1损失、平方误差损失、绝对损失、对数损失等等。通常我们也会在损失函数中加上正则化项从而降低模型的复杂性提高模型的泛化能力拒绝Overfitting。 (3)学习算法学习算法是用来解决最优化问题的方法。在给定损失函数后如何快速找到损失函数约定条件下的最优解就是学习算法需要解决的问题。常用的学习算法包括梯度下降、拟牛顿法等等。 统计机器学习方法的三个问题都是非常值得研究的对于模型假设这个问题如果模型都选择错误无论后面如何选择模型也都难以反映数据集的正确分布。因此首先需要选择对模型做出正确假设如何选择模型的假设空间是一个学问除掉交叉验证的方法之外还有不少其他方法。模型选择的关键在于如何设计损失函数而损失函数通常包括损失项和正则化项不同的模型选择策略通常选出的模型也非常不同从而导致模型的预测效果也大大不同。学习算法比较定式不同的学习算法不仅学习的效率不同而且学习出来的效果也不一样。 3.2   统计机器学习的理论基础 机器学习早期研究的特点是以划分为主要研究课题, 这个考虑一直延续到Vapnik 在20 世纪70 年代发展的关于有限样本统计理论, 并于20 世纪80 年代末流传到西方之后,在泛化能力意义下指导算法设计才成为人们关注的主要问题, 这是本文需要进一步讨论的问题。 尽管以Open 问题驱动的BP 算法研究大大推动了感知机研究方向的发展, 然而, 近十年计算机科学与技术的快速发展,使得人们获得数据的能力大大提高, BP 这类算法已不能完全适应这种需求, 同时,Minsky 的算法设计原则愈显重要。 然而,沿着Barlow 路线的机器学习研究并没有终止,自1992年开始,Vapnik 将有限样本统计理论介绍给全世界, 并出版了统计机器学习理论的著作尽管这部著作更多地是从科学、哲学上讨论了机器学习的诸多问题, 但是, 其暗示的算法设计思想对以后机器学习算法研究产生了重要的影响。 Vapnik 的研究主要涉及机器学习中两个相互关联的问题, 泛化问题与表示问题。前者包含两个方面的内容: 其一, 有限样本集合的统计理论; 其二, 概率近似正确的泛化描述。而后者则主要集中在核函数, 由此, 将算法设计建立在线性优化理论之上。 Valiant的“概率近似正确”学习的考虑在机器学习的发展中扮演了一个重要的角色。1984 年,Valiant 提出了机器学习的一个重要考虑, 他建议评价机器学习算法应该以“概率近似正确(PAC)”为基础,而不是以传统模式识别理论中以概率为1 成立为基础,由此, 他引入了类似在数学分析中的ε-δ语言来描述PAC, 这个考虑对近代机器学习研究产生了重要的影响。首先, 统计机器学习理论中泛化不等式的推导均以这个假设为基础;其次, 基于这个考虑的“弱可学习理论”,为研究基于Hebb 路线的学习算法设计奠定了理论基础, 并产生被广泛应用的集群机器学习理念( ensemble )。 3.3   统计机器学习的研究现状 3.3.1SVM与Deep Learning的竞争 当前统计学习领域最热门方法主要有deep learning和SVMsupportvector machine它们是统计学习的代表方法。 可以认为神经网络与支持向量机都源自于感知机Perceptron。感知机是由Rosenblatt发明的线性分类模型1958年。感知机对线性分类有效但现实中的分类问题通常是非线性的。 神经网络与支持向量机包含核方法都是非线性分类模型。1986年Rummelhart与McClelland发明了神经网络的学习算法Back Propagation。后来Vapnik等人于1992年提出了支持向量机。神经网络是多层通常是三层的非线性模型支持向量机利用核技巧把非线性问题转换成线性问题。 神经网络与支持向量机一直处于“竞争”关系。SVM应用核函数的展开定理无需知道非线性映射的显式表达式由于是在高维特征空间中建立线性学习机所以与线性模型相比不但几乎不增加计算的复杂性而且在某种程度上避免了“维数灾难”。而早先的神经网络算法比较容易过训练大量的经验参数需要设置训练速度比较慢在层次比较少(小于等于3)的情况下效果并不比其它方法更优。 神经网络研究领域领军者Hinton在2006年提出了神经网络Deep Learning算法使神经网络的能力大大提高向支持向量机发出挑战。Deep Learning假设神经网络是多层的首先用RestrictedBoltzmann Machine非监督学习学习网络的结构然后再通过Back Propagation监督学习学习网络的权值。 3.3.2 支持向量机SVM SVM方法是通过一个非线性映射p把样本空间映射到一个高维乃至无穷维的特征空间中Hilber空间使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题。升维就是把样本向高维空间做映射一般情况下这会增加计算的复杂性甚至会引起“维数灾难”因而人们很少问津。但是作为分类、回归等问题来说很可能在低维样本空间无法线性处理的样本集在高维特征空间中却可以通过一个线性超平面实现线性划分或回归。一般的升维都会带来计算的复杂化SVM方法巧妙地解决了这个难题应用核函数的展开定理就不需要知道非线性映射的显式表达式由于是在高维特征 空间中建立线性学习机所以与线性模型相比不但几乎不增加计算的复杂性而且在某种程度上避免了“维数灾难”这一切要归功于核函数的展开和计算理论 选择不同的核函数可以生成不同的SVM常用的核函数有以下4种 ⑴  性核函数K(x,y)x·y ⑵多项式核函数K(x,y)[(x·y)1]d ⑵  向基函数K(x,y)exp(-|x-y|^2/d^2 ⑶  层神经网络核函数K(x,y)tanh(a(x·y)b 3.3.2.1   SVM有如下主要几个特点 (1)非线性映射是SVM方法的理论基础,SVM利用内积核函数代替向高维空间的非线性映射 (2)对特征空间划分的最优超平面是SVM的目标,最大化分类边际的思想是SVM方法的核心 (3)支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。(4)SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度及大数定律等,因此不同于现有的统计方法。从本质上看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预报样本的“转导推理”,大大简化了通常的分类和回归等问题。 (5)SVM 的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。 (6)少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在: ①增、删非支持向量样本对模型没有影响; ②支持向量样本集具有一定的鲁棒性; ③有些成功的应用中,SVM 方法对核的选取不敏感 3.3.2.2   SVM的两个不足 (1) SVM算法对大规模训练样本难以实施 由 于SVM是借助二次规划来求解支持向量而求解二次规划将涉及m阶矩阵的计算m为样本的个数当m数目很大时该矩阵的存储和计算将耗费大量的机器内存 和运算时间。针对以上问题的主要改进有有J.Platt的SMO算法、T.Joachims的SVM、C.J.C.Burges等的PCGC、张学工的 CSVM以及O.L.Mangasarian等的SOR算法。 (2) 用SVM解决多分类问题存在困难 经典的支持向量机算法只给出了二类分类的算法而在数据挖掘的实际应用中一般要解决多类的分类问题。可以通过多个二类支持向量机的组合来解决。主要有一对多组合模式、一对一组合模式和SVM决策树再就是通过构造多个分类器的组合来解决。主要原理是克服SVM固有的缺点结合其他算法的优势解决多类问题的分类精度。如与粗集理论结合形成一种优势互补的多类问题的组合分类器。 3.3.2 DeepLearning DeepLearning本身算是MachineLearning的一个分支简单可以理解为Neural Network的发展。大约二三十年前Neural Network曾经是ML领域特别火热的一个方向但是后来确慢慢淡出了原因包括以下几个方面 (1)    比较容易过训练参数比较难确定 (2)    训练速度比较慢在层次比较少(小于等于3)的情况下效果并不比其它方法更优 所以中间有大约20多年的时间神经网络被关注很少这段时间基本上由SVM和Boosting算法主导。但是Hinton坚持下来并最终和Bengio、Yann.lecun等提成了一个实际可行的Deep Learning框架。 3.3.3.1   Deep Learning与传统的神经网络异同 Deep Learning与传统的神经网络的相同在于Deep Learning采用了神经网络相似的分层结构系统由包括输入层、隐层多层、输出层组成的多层网络只有相邻层节点之间有连接同一层以及跨层节点之间相互无连接每一层可以看作是一个Logistic Regression模型这种分层结构是比较接近人类大脑的结构的。 而为了克服神经网络训练中的问题DL采用了与神经网络很不同的训练机制。传统神经网络中采用的是Back Propagation的方式进行简单来讲就是采用迭代的算法来训练整个网络随机设定初值计算当前网络的输出然后根据当前输出和label之间的 差去改变前面各层的参数直到收敛整体是一个梯度下降法。而DeepLearning整体上是一个Layer-Wise的训练机制。这样做的原因是因为如果采用Back Propagation的机制对于一个Deep Network7层以上残差传播到最前面的层已经变得太小出现所谓的Gradient Diffusion。 3.3.3.2   Deep Learning训练过程 (1)采用无标定数据有标定数据也可分层训练各层参数这一步可以看作是一个无监督训练过程是和传统神经网络区别最大的部分这个过程可以看作是feature learning过程具体的先用无标定数据训练第一层训练时可以采用auto-encoder来学习第一层的参数这一层可以看作是得到一个使得输出和输入差别最小的三层神经网络的隐层由于模型capacity的限制以及稀疏性约束使得得到的模型能够学习到数据本身的结构从而得到比输入更具有表示能力的特征在学习得到第n-1层后将n-1层的输出作为第n层的输入训练第n层由此分别得到各层的参数这里面需要重点理解auto-encoder以及sparse的机制的原理和作用。可以参考这篇文章。 (2)基于第一步得到的各层参数进一步fine-tune整个多层模型的参数这一步是一个有监督训练过程第一步类似神经网络的随机初始化初值过程由于DL 的第一步不是随机初始化而是通过学习输入数据的结构得到的因而这个初值更接近全局最优从而能够取得更好的效果所以deep learning效果好很大程度上归功于第一步的feature learning过程。 总之deep learning能够得到更好地表示数据的feature同时由于模型的层次、参数很多capacity足够因此模型有能力表示大规模数据所以对于图像、语音这种特征不明显需要手工设计且很多没有直观物理含义的问题能够在大规模训练数据上取得更好的效果。此外从模式识别特征和分类器的角 度deep learning框架将feature和分类器结合到一个框架中用数据去学习feature在使用中减少了手工设计feature的巨大工作量这是目前工业界工程师付出努力最多的方面因此不仅仅效果可以更好而且使用起来也有很多方便之处。 4  集群机器学习 4.1 弱可学习定理 1990 年, Schapire 证明了一个有趣的定理: 如果一个概念是弱可学习的, 充要条件是它是强可学习的。这个定理的证明是构造性的, 证明过程暗示了弱分类器的思想。所谓弱分类器就是比随机猜想稍好的分类器, 这意味着, 如果我们可以设计这样一组弱分类器, 并将它们集群起来, 就可以成为一个强分类器, 这就是集群机器学习。由于弱分类器包含“比随机猜想稍好”的条件, 从而, 避免了对Madaline 平凡解的批评。另外, 由于Schapire 定理的证明基于PAC的弱可学习理论, 因此, 这种方法又具有泛化理论的支持。这样, 自Widrow 提出Madaline近30 年之后, 人们终于获得了基于Hebb 路线下的机器学习算法设计的理论基础。这个学习理念立即获得人们的广泛关注, 其原因不言自明,弱分类器的设计总比强分类器设计容易, 特别是对线性不可分问题更是如此。由此,Madaline 与感知机一样, 成为机器学习最重要的经典。 4.2   经典算法 Boosting 是一种用来提高学习算法准确度的方法, 这种方法通过构造一个预测函数系列, 然后以一定的方式将它们组合成一个预测函数, 达到把一弱学习算法提升为强学习算法的目的。1989 年Schapire 提出了第一个可证明的多项式时间Boosting 算法, 对这个问题作出了肯定的回答。一年后,Freund 设计了一个高效得多的通过重取样或过滤运作的Boosting- by-Majority 算法。这个算法尽管在某种意义上是优化的, 但却有一些实践上的缺陷。1995 年Freund 和Schapire介绍了通过调整权重而运作的AdaBoost 算法解决了早期Boosting算法很多实践上的困难。 AdaBoost 是Boosting 家族中的基础算法。Boosting家族中的大部分扩展( 算法) 都由它得来,对AdaBoost 的分析结论也适用于其它的Boosting。下面简要地介绍一下它的思想。 AdaBoost 算法的主要思想是给定一弱学习算法和训练集( x1, y1) , , , ( xn, yn ) 。这里xi 为一向量, yi 对于分类问题为一类别标志, 对于回归问题为一数值。初始化时对每一个训练例赋相等的权重1/ n , 然后用该学习算法对训练集训练t 轮, 每次训练后, 对训练失败的训练例赋以较大的权重, 也就是让学习算法在后续的学习中集中对比较难的训练例进行学习, 从而得到一个预测函数序列h1, , , ht ,其中hj 也有一定的权重, 预测效果好的预测函数权重较大, 反之较小。最终的预测函数H 对分类问题采用有权重的投票方式, 对回归问题采用加权平均的方法对新示例进行判别。 Boosting 算法是一种基于其他机器学习算法之上的用来提高算法精度和性能的方法。当用于回归分析时, 不需要构造一个拟合精度高、预测能力好的回归算法, 只要一个效果只比随机猜测略好的粗糙算法即可, 称之为基础算法。通过不断地调用这个基础算法就可以获得一个拟合和预测误差都相当好的组合回归模型。Boosting 算法可以应用于任何的基础回归算法, 无论是线性回归、神经网络、还是SVM 方法, 都可以有效地提高精度。因此, Boosting可以被视为一种通用的增强基础算法性能的回归分析算法。 Bagging(Bootstrap Aggregating) 又被称为自举聚合, 是Breiman 提出的与Boosting 相似的技术。[ 11]Bagging 技术的主要思想是给定一弱学习算法和一训练集( x 1, y1), , ( xn , yn ) 。让该学习算法训练多轮, 每轮的训练集由从初始的训练集中随机取出的n 个训练例组成, 初始训练例在某轮训练集中可以出现多次或根本不出现。训练之后可得到一个预测函数序列: h1, , , ht , 最终的预测函数H 对分类问题采用投票方式, 对回归问题采用简单平均。 Bagging 与Boosting 的区别在于Bagging 的训练集的选择是随机的, 各轮训练集之间相互独立, 而Boosting的训练集的选择不是独立的, 各轮训练集的选择与前面各轮的学习结果有关; Bagging 的各个预测函数没有权重, 可以并行生成, 而Boosting 是有权重的, 只能依次顺序生成; Boosting 往往从一些弱的学习器开始, 组合形成一个集成学习器, 从而给出一个好的学习结果, 而Bagging学习效果的好坏往往取决于集成学习器中每个学习器的相关性和各个学习器的学习效果。对于神经网络这类极为耗时的学习方法, Bagging 可通过并行训练节省大量时间开销。 5  符号机器学习 自1969 年Minsky 出版Perceptron(《感知机》)一书以后, 感知机的研究方向被终止,到1986 年Rumelhart 等发表BP 算法, 近20 年间, 机器学习研究者在做什么事情呢? 这段时间正是基于符号处理的人工智能的黄金时期, 由于专家系统研究的推动, 符号机器学习得到发展, 事实上, 这类研究方法除了建立在符号的基础上之外, 从学习的机理来看, 如果将学习结果考虑为规则, 每个规则将是一个分类器, 尽管这些分类器中有些不一定满足弱分类器的条件, 但是, 它应该是Hebb 路线的延续。 符号机器学习的最大优点是归纳的解答与归纳的过程是可解释的, 换句话说, 数据集合中的每个观测(样本或对象)对用户都是透明的, 它在解答以及计算过程中所扮演的角色, 用户都是可以显现了解的。然而, 它的缺陷同样突出, 就是泛化能力。由于学习结果是符号表述, 因此, 只可能取“真”与“假”, 这样大大减低了对具有一定噪音数据的分析能力, 需要其他技术来补充: 其一, 观测世界的数据到符号域的映射, 其二, 不确定推理机制。但是, 这两种方法与符号机器学习方法本身并没有必然的关系。 近几年, 由于数据挖掘的提出, 符号机器学习原理有了新的用途, 这就是符号数据分析, 在数据挖掘中称为数据描述, 以便与数据预测类型的任务相区别(从任务来说, 这类任务与机器学习是一致的)。 与机器学习的目标不同, 数据分析不是以所有用户具有相同需求为假设, 相反, 强调不同用户具有不同的需求。另外, 数据分析强调, 分析结果是为用户提供可阅读的参考文本, 决策将依赖人的洞察。如何根据用户的特定需求将观测数据集合变换为简洁的、可为用户理解的表示成为关键。这是符号机器学习的另一个可以考虑的应用领域。由于符号机器学习在泛化能力上的欠缺, 这也是它在与基于统计的机器学习方法竞争中避免遭到淘汰的出路。 6  增强机器学习方法 增强机器学习( reinfo rcementlearning )的本质是对变化的环境的适应。应该说,这是一种“古老”的机器学习思想.在1948年, Wiener的著作“控制论”中,就讨论了这个问题,而在以后的控制理论的研究中,这发展成为重要的研究课题—— 自适应控制。由于控制理论研究这个问题的焦点在于控制品质,且其使用的数学工具是微分方程,因此,对非线性问题,使用计算机进行数值求解存在着本质性的困难。这是这类机器学习长期未得到计算机科学家注意的原因。 直到20世纪70年代, Holland在讨论进化计算时,需要考虑控制物种群体的染色体数量,以便淘汰对变化环境不适应的个体,为此,提出使用桶队算法解决这个问题。桶队算法在Holland提出的分类器系统中扮演着对变换环境适应的角色。 以后,在20世纪90年代初, Sutton提出将这类机器学习建立在Markov 过程上,并称其为增强机器学习方法。这个方法是根据环境变化对系统的刺激,并作为系统输入,然后,利用基于统计的方法优化转移概率,并使系统适应新的环境。 一般地说,增强机器学习应该属于无教师学习,但是,如果考虑环境就是教师,这类机器学习也可以认为是一类特殊有教师的机器学习,与一般有教师机器学习的区别在于: 教师是环境,且是变化的环境。这意味着,不像传统意义下的有教师学习,教师教授的知识不是事先给定的,而是采用更灵活方法,在问题求解的过程中获得的。 7  总结 本文从机器学习的起源发展依据历史上的重要事件角度讨论了机器学习发展脉络。通过“对神经细胞模型假设的差别”将机器学习领域划分为两大支系——强调模型的整体性基于Barlow“表征客体的单一细胞论”的Barlow路线强调对世界的表征需要多个神经细胞集群基于Hebb“表征客体的多细胞论”的Hebb路线。这一划分可以清晰地将机器学习发展历程总结为以感知机、BP与SVM等为一类的Barlow路线以样条理论、k-紧邻、Madaline、符号机器学习集群机器学习与流行机器学习等为一类的Hebb路线。 其中又重点关注了目前发展良好的统计机器学习与集群学习。讨论了SVM与神经网络的关系与优缺点以及将弱学习算法提升为强学习算法的Boosting算法。 本文提倡研究者需要重视这样一个问题我们探讨机器学习在理念、理论、与技术上发展的各种方法所遵循的假设是否能够适应当前任务的需要如果问题是否定的,那么我们是修补这些已被普遍认可的理念、理论与方法(打补丁)以适应当前的需要还是从根本上清理原有假设提出新的假设从而发展新的理念、理论和方法这是一个需要仔细分析已有理论与方法并权衡各种利弊才能决定的事情。综上所述讨论机器学习发展脉络以从这个脉络发现有趣的经验和教训对回答这个问题是重要的这必须考虑机器学习发展的科学依据历史上的重要事件以及理论研究中的重要结论。这就是我们本文的讨论集中在动机和理论的原因。 本文转自 http://blog.csdn.net/solomon1558/article/details/40798401

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/89572.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

长沙房产集团网站建设能翻到国外的浏览器

一、排查过程 问题发现是因为当时接到了内存UMP报警信息,如下: 通过查看PFinder发现内存一直在增长,没有停止迹象,触发fullGC也并没有下降趋势: 当机立断,先立即去NP上摘除了此台机器流量,然后…

网站建设素材库网络营销策划书ppt

注意:转化之前先将移动硬盘中的内容进行备份 1、点击桌面上的【前往】,选择【实用工具】 2、在列表中选择【磁盘工具】 3、在左侧选中你的磁盘,点击右侧上方的【抹掉】,注意:将永久抹掉储存在上面的所有数据,因此需要…

大学的网站设计重庆装修公司哪家口碑最好

ADC工作原理: 1、输入通道: 2、转换序列: A/D转换被组织为两组:规则组(常规转换组)和注入组(注入转换组) 规则组最多可以有16个转换,注入组最多有4个转换 规则组和注入…

福州房地产网站建设wordpress 去掉rss

Go 一、Windows下安装Go1、下载Go2、配置环境变量3、下载Jetbrain下的GoLang4、编写hello world5、编译和执行 二、Go语言介绍1、开发文档2、Go语言核心开发团队3、为什么要创建Go4、Go语言发展史5、Go语言特点6、Golang执行过程6.1 执行过程分析6.2 编译是什么 7、开发注意事项…

成都市网站建设费用及企业Wordpress 分表分库

golang 引入swagger(iris、gin) 在开发过程中,我们不免需要调试我们的接口,但是有些接口测试工具无法根据我们的接口变化而动态变化。文档和代码是分离的。总是出现文档和代码不同步的情况。这个时候就可以在我们项目中引入swagge…

天津网站建设费用电脑可以做网站主机么

C编译环境和预处理(非常详细,建议收藏) 一、程序的翻译环境和执行环境二、 详解编译链接2.1 翻译环境2.2 编译本身的几个阶段符号汇总、符号表、合并段表、符号表的合并和重定位分别是什么? 2.2 运行环境 三、预处理详解3.1 预定义…

Python用数据库做网站做一个网站能卖多少钱

1. 外部类 (写在pulic修饰的类外面) 2. 静态内部类(写在类的里面) 3. 局部内部类(写在方法里面) 4. 匿名内部类 5. 函数式接口。lambada表达式。public class LambdaDemo01 {/*** 2. 静态内部类*/static class Love02 implements Lover {Overridepublic void love() {System.ou…

交换机做网站在招聘网站里做电话销售

java的封装,继承,多态 1 封装 1.1 封装 指一种将抽象性函式接口的实现细节部份包装、隐藏起来的方法。封装可以被认为是一个保护屏障,防止该类的代码和数据被外部类定义的代码随机访问。要访问该类的代码和数据,必须通过严格的…

企业手机网站建设流程图关键词查询网址

1.解析原理图 由上图可以看到8个共阳LED灯接到了573输出口,而573输入接到单片机P0口上。当573 LE脚输入高电平时,输出随输入变化,当LE为低电平时,输出锁存。 由上图可以看到Y4C接到了或非门74HC02的输出端,而输入端为…

袜子网站建设规划书推广网站概况

一、AI创作系统 SparkAi创作系统是基于OpenAI很火的ChatGPT进行开发的Ai智能问答系统。本期针对源码系统整体测试下来非常完美,可以说SparkAi是目前国内一款的ChatGPT对接OpenAI软件系统。那么如何搭建部署AI创作ChatGPT?小编这里写一个详细图文教程吧&…

手机端网站建设广告词做网站的价格是多少

3166练27.3 称心如意《信息学奥赛一本通编程启蒙(C版)》 【题目描述】 每次测试后狐狸老师总会把成绩输入计算机,进行处理分析。但输入时有时会出错,如当满分为100分时,输入小于0或大于100的数,表示输入有…

如何加强省市级政门户网站建设建设银行上海分行招聘网站

1. Symbol概念以及引入原因 ES6 引入了的一种新的原始数据类型Symbol,表示独一无二的值。它是 JavaScript 语言的第七种数据类型,前六种是:undefined、null、布尔值(Boolean)、字符串(String)、…

企业网站建设免备案镇江方圆建设监理咨询有限公司网站

提到家务清洁,相信应该是很多宝妈头疼的事儿,不仅工作量打,耗时又耗力,拥有一款完美的清洁工具,那讲大大的提升幸福指数,而洗地机便是当下的智能清洁神器之一。那么家用洗地机哪个牌子最好用,质…

外国炫酷网站网址新做的网站如何

From: http://www.bubuko.com/infodetail-598915.html

喀什百度做网站多少钱定制网络零信任

小家电中要说对自己家里最有用的,其中之一就是扫地机器人,自从三年多前开始用了扫地机器人后,家里的地面是大为改观,劳动强度大为下降,可谓朕心甚慰。从此之后,一发不可收拾,用过也有20台以上的…

高端网站开发哪里好个人特种证件查询网站

Reflector类负责对一个类进行反射解析&#xff0c;并将解析后的结果在属性中存储起来。 一个类反射解析后都有哪些属性呢&#xff1f;我们可以通过Reflector类定义的属性来查看 public class Reflector {// 要被反射解析的类private final Class<?> type;// 可读属性列…

大型小说网站开发语言社交网站 cms

简介&#xff1a; 2020 年的“十一出行节”期间&#xff0c;高德地图创造了记录 ——截止 2020 年 10 月 1 日 13 时 27 分 27 秒&#xff0c;高德地图当日活跃用户突破 1 亿&#xff0c;比 2019 年 10 月 1 日提前 3 时 41 分达成此记录。 期间&#xff0c;Serverless 作为其中…

dedecms做模板网站网站上怎么做动画广告视频在线观看

基于Camunda实现bpmn中各种类型任务 ​ Camunda Modeler -为流程设置器&#xff08;建模工具&#xff09;&#xff0c;用来构建我们的流程模型。Camunda Modeler流程绘图工具&#xff0c;支持三种协议类型流程文件分别为&#xff1a;BPMN、DMN、Form。 ​ Camunda Modeler下载…

网站建设具体工作重庆彼客的网站是谁家做的

PoPo数据可视化 聚焦于Web数据可视化与可视化交互领域&#xff0c;发现可视化领域有意思的内容。不想错过可视化领域的精彩内容, 就快快关注我们吧 :) 微信订阅号&#xff1a;popodv_com谷歌决定关闭云可视化服务 Fusion Tables谷歌宣布即将关闭其 Fusion Tables 云服务&#x…

有哪些做微信小游戏的网站wordpress网站恢复

系列文章目录 代码随想录算法训练营第一天|数组理论基础&#xff0c;704. 二分查找&#xff0c;27. 移除元素 代码随想录算法训练营第二天|977.有序数组的平方 &#xff0c;209.长度最小的子数组 &#xff0c;59.螺旋矩阵II 代码随想录算法训练营第三天|链表理论基础&#xff…