linux网站建设技术指南 pdfwordpress文库管理系统
news/
2025/10/9 10:25:59/
文章来源:
linux网站建设技术指南 pdf,wordpress文库管理系统,做ppt选小图案的网站,怎么交换友情链接一、人工智能、机器学习、深度学习的关系
近些年人工智能、机器学习和深度学习的概念十分火热#xff0c;但很多从业者却很难说清它们之间的关系#xff0c;外行人更是雾里看花。概括来说#xff0c;人工智能、机器学习和深度学习覆盖的技术范畴是逐层递减的#xff0c;三…一、人工智能、机器学习、深度学习的关系
近些年人工智能、机器学习和深度学习的概念十分火热但很多从业者却很难说清它们之间的关系外行人更是雾里看花。概括来说人工智能、机器学习和深度学习覆盖的技术范畴是逐层递减的三者的关系如 图1 所示即人工智能 机器学习 深度学习。 图1人工智能、机器学习和深度学习三者关系示意
人工智能ArtificialIntelligenceAI是最宽泛的概念是研发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。由于这个定义只阐述了目标而没有限定方法因此实现人工智能存在的诸多方法和分支导致其变成一个“大杂烩”式的学科。机器学习MachineLearningML是当前比较有效的一种实现人工智能的方式。深度学习DeepLearningDL是机器学习算法中最热门的一个分支近些年取得了显著的进展并替代了大多数传统机器学习算法。
二、机器学习
区别于人工智能机器学习、尤其是监督学习则有更加明确的指代。机器学习是专门研究计算机怎样模拟或实现人类的学习行为以获取新的知识或技能重新组织已有的知识结构使之不断改善自身的性能。这句话有点“云山雾罩”的感觉让人不知所云下面我们从机器学习的实现和方法论两个维度进行剖析。
2.1 机器学习的实现 机器学习的实现可以分成两步训练和预测类似于归纳和演绎
归纳 从具体案例中抽象一般规律机器学习中的“训练”亦是如此。从一定数量的样本已知模型输入X和模型输出Y中学习输出Y与输入 X的关系可以想象成是某种表达式。 演绎 从一般规律推导出具体案例的结果机器学习中的“预测”亦是如此。基于训练得到的Y与X之间的关系如出现新的输入X计算出输出 Y。通常情况下如果通过模型计算的输出和真实场景的输出一致则说明模型是有效的。
2.2 机器学习的方法论 机器学习的方法论和人类科研的过程有着异曲同工之妙下面以“机器从牛顿第二定律实验中学习知识”为例帮助读者更加深入理解机器学习监督学习的方法论本质即在“机器思考”的过程中确定模型的三个关键要素假设、评价、优化。
三、深度学习
机器学习算法理论在上个世纪90年代发展成熟在许多领域都取得了成功但平静的日子只延续到2010年左右。随着大数据的涌现和计算机算力提升深度学习模型异军突起极大改变了机器学习的应用格局。今天多数机器学习任务都可以使用深度学习模型解决尤其在语音、计算机视觉和自然语言处理等领域深度学习模型的效果比传统机器学习算法有显著提升。
相比传统的机器学习算法深度学习做出了哪些改进呢其实两者在理论结构上是一致的即模型假设、评价函数和优化算法其根本差别在于假设的复杂度。如 图6 第二个示例图像识别所示对于美女照片人脑可以接收到五颜六色的光学信号能快速反应出这张图片是一位美女而且是程序员喜欢的类型。但对计算机而言只能接收到一个数字矩阵对于美女这种高级的语义概念从像素到高级语义概念中间要经历的信息变换的复杂性是难以想象的如图所示。 图深度学习的模型复杂度难以想象 这种变换已经无法用数学公式表达因此研究者们借鉴了人脑神经元的结构设计出神经网络的模型如图所示。图a展示了神经网络基本单元-感知机的设计方案其处理信息的方式与人脑中的单一神经元有很强的相似性图b展示了几种经典的神经网络结构类似于人脑中多种基于大量神经元连接而形成的不同职能的器官。 图模拟人脑结构针对各种任务设计不同的深度学习模型
3.1 神经网络的基本概念
人工神经网络包括多个神经网络层如卷积层、全连接层、LSTM等每一层又包括很多神经元超过三层的非线性神经网络都可以被称为深度神经网络。通俗的讲深度学习的模型可以视为是输入到输出的映射函数如图像到高级语义美女的映射足够深的神经网络理论上可以拟合任何复杂的函数。因此神经网络非常适合学习样本数据的内在规律和表示层次对文字、图像和语音任务有很好的适用性。这几个领域的任务是人工智能的基础模块因此深度学习被称为实现人工智能的基础也就不足为奇。
神经网络基本结构如 图9 所示。 图神经网络基本结构示意图
神经网络包括 神经元 神经网络中每个节点称为神经元由两部分组成 加权和将所有输入加权求和。 非线性变换激活函数加权和的结果经过一个非线性函数变换让神经元计算具备非线性的能力。 多层连接 大量这样的节点按照不同的层次排布形成多层的结构连接起来即称为神经网络。 前向计算 从输入计算输出的过程顺序从网络前至后。 计算图 以图形化的方式展现神经网络的计算逻辑又称为计算图也可以将神经网络的计算图以公式的方式表达 由此可见神经网络并没有那么神秘它的本质是一个含有很多参数的“大公式”。
3.2 深度学习的发展历程 神经网络思想的提出已经是70多年前的事情了现今的神经网络和深度学习的设计理论是一步步趋于完善的。在这漫长的发展岁月中一些取得关键突破的闪光时刻值得深度学习爱好者们铭记如 图10 所示。 图深度学习发展历程
1940年代首次提出神经元的结构但权重是不可学的。 50-60年代提出权重学习理论神经元结构趋于完善开启了神经网络的第一个黄金时代。 1969年提出异或问题人们惊讶的发现神经网络模型连简单的异或问题也无法解决对其的期望从云端跌落到谷底神经网络模型进入了被束之高阁的黑暗时代。 1986年新提出的多层神经网络解决了异或问题但随着90年代后理论更完备并且实践效果更好的SVM等机器学习模型的兴起神经网络并未得到重视。 2010年左右深度学习进入真正兴起时期。随着神经网络模型改进的技术在语音和计算机视觉任务上大放异彩也逐渐被证明在更多的任务如自然语言处理以及海量数据的任务上更加有效。至此神经网络模型重新焕发生机并有了一个更加响亮的名字深度学习。 为何神经网络到2010年后才焕发生机呢这与深度学习成功所依赖的先决条件大数据涌现、硬件发展和算法优化有关。
大数据是神经网络发展的有效前提。神经网络和深度学习是非常强大的模型需要足够量级的训练数据。时至今日之所以很多传统机器学习算法和人工特征依然是足够有效的方案原因在于很多场景下没有足够的标记数据来支撑深度学习。深度学习的能力特别像科学家阿基米德的豪言壮语“给我一根足够长的杠杆我能撬动地球”。深度学习也可以发出类似的豪言“给我足够多的数据我能够学习任何复杂的关系”。但在现实中足够长的杠杆与足够多的数据一样往往只能是一种美好的愿景。直到近些年各行业IT化程度提高累积的数据量爆发式地增长才使得应用深度学习模型成为可能。
依靠硬件的发展和算法的优化。现阶段依靠更强大的计算机、GPU、autoencoder预训练和并行计算等技术深度学习在模型训练上的困难已经被逐渐克服。其中数据量和硬件是更主要的原因。没有前两者科学家们想优化算法都无从进行。
3.3 深度学习的研究和应用蓬勃发展 早在1998年一些科学家就已经使用神经网络模型识别手写数字图像了。但深度学习在计算机视觉应用上的兴起还是在2012年ImageNet比赛上使用AlexNet做图像分类。如果比较下1998年和2012年的模型会发现两者在网络结构上非常类似仅在细节上有所优化。在这十四年间计算性能的大幅提升和数据量的爆发式增长促使模型完成了从“简单的数字识别”到“复杂的图像分类”的跨越。
虽然历史悠久但深度学习在今天依然在蓬勃发展一方面基础研究快速发展另一方面工业实践层出不穷。基于深度学习的顶级会议ICLR(International Conference on Learning Representations)统计深度学习相关的论文数量呈逐年递增的状态如 图11 所示。同时不仅仅是深度学习会议与数据和模型技术相关的会议ICML和KDD专注视觉的CVPR和专注自然语言处理的EMNLP等国际会议的大量论文均涉及着深度学习技术。该领域和相关领域的研究方兴未艾技术仍在不断创新突破中。 图深度学习相关论文数量逐年攀升
另一方面以深度学习为基础的人工智能技术在升级改造众多的传统行业领域存在极其广阔的应用场景。图 选自艾瑞咨询的研究报告人工智能技术不仅可在众多行业中落地应用广度同时在部分行业如安防、遥感、互联网、金融、工业等已经实现了市场化变现和高速增长深度为社会贡献了巨大的经济价值。 图以深度学习为基础的AI技术在各行业广泛应用 如图所示以计算机视觉的行业应用分布为例根据IDC的数据统计和预测随着人工智能向各个行业的渗透当前较多运用人工智能的互联网行业的产值占比反而会逐渐变小。
图以深度学习为基础的AI技术在各行业广泛应用
3.4 深度学习改变了AI应用的研发模式 3.4.1 实现了端到端的学习 深度学习改变了很多领域算法的实现模式。在深度学习兴起之前很多领域建模的思路是投入大量精力做特征工程将专家对某个领域的“人工理解”沉淀成特征表达然后使用简单模型完成任务如分类或回归。而在数据充足的情况下深度学习模型可以实现端到端的学习即不需要专门做特征工程将原始的特征输入模型中模型可同时完成特征提取和分类任务如图所示。 图深度学习实现了端到端的学习
以计算机视觉任务为例特征工程是诸多图像科学家基于人类对视觉理论的理解设计出来的一系列提取特征的计算步骤典型如SIFT特征。在2010年之前的计算机视觉领域人们普遍使用SIFT一类特征SVM一类的简单浅层模型完成建模任务。
说明
SIFT特征由David Lowe在1999年提出在2004年加以完善。SIFT特征是基于物体上的一些局部外观的兴趣点而与影像的大小和旋转无关。对于光线、噪声、微视角改变的容忍度也相当高。基于这些特性它们是高度显著而且相对容易撷取在母数庞大的特征数据库中很容易辨识物体而且鲜有误认。使用SIFT特征描述对于部分物体遮蔽的侦测率也相当高甚至只需要3个以上的SIFT物体特征就足以计算出位置与方位。在现今的电脑硬件速度下和小型的特征数据库条件下辨识速度可接近即时运算。SIFT特征的信息量大适合在海量数据库中快速准确匹配。
3.4.2 实现了深度学习框架标准化 除了应用广泛的特点外深度学习还推动人工智能进入工业大生产阶段算法的通用性导致标准化、自动化和模块化的框架产生如 图15 所示。 图深度学习模型具有通用性特点
在此之前不同流派的机器学习算法理论和实现均不同导致每个算法均要独立实现如随机森林和支撑向量机SVM。但在深度学习框架下不同模型的算法结构有较大的通用性如常用于计算机视觉的卷积神经网络模型CNN和常用于自然语言处理的长期短期记忆模型(LSTM)都可以分为组网模块、梯度下降的优化模块和预测模块等。这使得抽象出统一的框架成为了可能并大大降低了编写建模代码的成本。一些相对通用的模块如网络基础算子的实现、各种优化算法等都可以由框架实现。建模者只需要关注数据处理配置组网的方式以及用少量代码串起训练和预测的流程即可。
在深度学习框架出现之前机器学习工程师处于“手工作坊”生产的时代。为了完成建模工程师需要储备大量数学知识并为特征工程工作积累大量行业知识。每个模型是极其个性化的建模者如同手工业者一样将自己的积累形成模型的“个性化签名”。而今“深度学习工程师”进入了工业化大生产时代只要掌握深度学习必要但少量的理论知识掌握Python编程即可在深度学习框架上实现非常有效的模型甚至与该领域最领先的模型不相上下。建模领域的技术壁垒面临着颠覆也是新入行者的机遇。 图深度学习框架大大减低了AI建模难度
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/932411.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!