判断网站开发语言wordpress 访问速度

news/2025/10/6 22:45:21/文章来源:
判断网站开发语言,wordpress 访问速度,网站制作沈阳,东莞大岭山医院来源#xff1a;德先生作者#xff1a;朱圆恒#xff0c;唐振韬#xff0c;李伟凡#xff0c;赵冬斌北京时间2019年1月25日2时#xff0c;DeepMind在伦敦向世界展示了他们的最新成果——星际争霸2人工智能AlphaStar[1] 。图1. DeepMind AlphaStar挑战星际人类职业玩家直播… 来源德先生作者朱圆恒唐振韬李伟凡赵冬斌北京时间2019年1月25日2时DeepMind在伦敦向世界展示了他们的最新成果——星际争霸2人工智能AlphaStar[1] 。图1. DeepMind AlphaStar挑战星际人类职业玩家直播画面 比赛共11局直播展示的是去年12月期间AlphaStar挑战Liquid team职业玩家TLO和MANA的部分比赛录像分别有5局。最后一局为AlphaStar对战MaNa的现场直播。比赛采用固定天梯比赛地图、神族对抗神族的形式。图2. 比赛地图、游戏版本、对战种族信息结果自然是AlphaStar大比分碾压式胜利在2018年12月10日以5:0击败TLO12月19日以5:0击败MaNa。但是当天现场表演赛上AlphaStar却不敌MaNa。最终AlphaStar取得了10-1的绝佳成绩堪称世界上第一个击败星际争霸顶级职业玩家的人工智能。星际争霸星际争霸是由暴雪娱乐公司开发的一款经典即时战略游戏。与国际象棋、Atari游戏、围棋不同星际争霸具有以下几个难点1、 博弈——星际争霸具有丰富的策略博弈过程没有单一的最佳策略。因此智能体需要不断的探索并根据实际情况谨慎选择对局策略。2、 非完全信息——战争迷雾和镜头限制使玩家不能实时掌握全场局面信息和迷雾中的对手策略。3、 长期规划——与国际象棋和围棋等不同星际争霸的因果关系并不是实时的早期不起眼的失误可能会在关键时刻暴露。4、 实时决策——星际争霸的玩家随着时间的推移不断的根据实时情况进行决策动作。5、 巨大动作空间——必须实时控制不同区域下的数十个单元和建筑物并且可以组成数百个不同的操作集合。因此由小决策形成的可能组合动作空间巨大。6、 三种不同种族——不同的种族的宏机制对智能体的泛化能力提出挑战。图3. 直播中组织者分析Atari围棋星际三者在信息获取程度、玩家数量、动作空间、动作次数的不同难度呈现逐渐提升 正因为这些困难与未知因素星际争霸不仅成为风靡世界的电子竞技也同时是对人工智能巨大的挑战。评估AlphaStar战力星际争霸中包含神族、人族、虫族三种选择不同种族有不同的作战单位、生产机制和科技机制因而各个种族间存在战术制衡。为了降低任务训练所需时间并避免不同种族间客观存在的不平衡性AlphaStar以神族对阵神族为特定训练场景固定使用天梯地图-CatalystLE为训练和对决地图。面对虫族职业玩家TLO和排名更加靠前的神族职业玩家MaNa的轮番挑战AlphaStar凭借近乎无解的追猎微观操作和凤凰技能单位的配合能在绝大多数人类玩家都认为严重受到克制的兵种不朽下在正面战场上反败为胜扭转战局并最终兵不血刃的横扫人类职业玩家取得了星际争霸AI当前最佳的表现水平在实时战略游戏上取得了里程碑式的意义。图4. 追猎者相互克制兵种关系AlphaStar是如何训练的AlphaStar的行为是由一个深度神经网络产生。网络的输入来自游戏原始的接口数据包括单位以及它们的属性输出则是一组指令这些指令构成了游戏的可行动作。网络的具体结构包括处理单位信息的变换器transformer深度LSTM核(deep LSTM core)基于指针网络pointer network的自动回归策略头auto-regressive policy head和一个集中式价值评估基准centralised value baseline。这些组成元件是目前最先进的人工智能方法之一。DeepMind将这些技术组合在一起有信心为机器学习领域中普遍存在的一些问题包括长期序列建模、大规模输出空间如翻译、语言建模、视觉表示等提供一种通用的结构。AlphaStar权重的训练同样是使用新型的多智能体学习算法。研究者首先是使用暴雪发布的人类匿名对战数据对网络权重进行监督训练通过模仿来学习星际天梯上人类玩家的微观、宏观策略。这种模拟人类玩家的方式让初始的智能体能够以95%的胜率打败星际内置电脑AI精英模式相当于人类玩家黄金级别水平。在这初始化之后DeepMind使用了一种全新的思路进一步提升智能体的水平。星际本身是一种不完全信息的博弈问题策略空间非常巨大几乎不可能像围棋那样通过树搜索的方式确定一种或几种胜率最大的下棋方式。一种星际策略总是会被别一种策略克制关键是如何找到最接近纳什均衡的智能体。为此DeepMind设计了一种智能体联盟league的概念将初始化后每一代训练的智能体都放到这个联盟中。新一代的智能体需要要和整个联盟中的其它智能体相互对抗通过强化学习训练新智能体的网络权重。这样智能体在训练过程中会持续不断地探索策略空间中各种可能的作战策略同时也不会将过去已经学到的策略遗忘掉。图5. 在使用人类数据初始化智能体后DeepMind构建了一个智能体联盟在每一代都将强化学习得到的智能体放入这个联盟中每个智能体要和联盟中其它的智能体做对抗学习。最终从联盟中水平靠前的几个智能体中选取一个和MaNa对抗。 这种思路最早出现在DeepMind另一项工作——种群强化学习population-based reinforcement learning。这与AlphaGo明显的不同在于AlphaGo让当前智能体与历史智能体对抗然后只对当前智能体的权重做强化学习训练而种群强化学习则是让整个种群内的智能体相互对抗根据结果每个智能体都要进行学习从而不只是最强的智能体得到了提升它的所有可能的对手都有所提升整个种群都变得更加智能。图6. 随着联盟中对智能体的训练整个联盟的最强水平和整体水平都得到了提升最终超过了人类玩家MaNa和TLO神族在MMR下的评分。图中纵坐标给出的是Match Making Rate (MMR)是一种对玩家水平的有效评估图中横线对应暴雪对线上玩家水平的分级。 此外DeepMind还宣称每个智能体不只是简单地和联盟其它智能体相互对抗学习而是有针对性、有目的性的学习。例如通过内在激励的调整有些智能体只考虑打败某种类型的竞争对手而另一些智能体则是要尽可能地击败种群的大部分智能体。这就需要在整体训练过程中不断地调整每个智能体的目标。权重的训练使用了新型的强化学习——离策略执行-评价off-policy actor-critic算法结合了经验回放experience replay、自我模仿学习self-imitation learning、和策略蒸馏policy distillation。这些技术保证了训练的稳定性和有效性。图7. 黑点代表了和MaNa对战所选择的智能体。大图给出了该智能体在训练过程中策略的变化情况。其它彩色点代表了不同策略对应的智能体并显示出了不同时期不同策略被选中和MaNa智能体对抗的概率。尺寸越大被选中概率越大。左下图给出了不同训练时期MaNa智能体出兵组成变化。硬件部分为了训练AlphaStarDeepMind调动了Google的v3云TPU。构建了高度可拓展的分布式训练方式支持数千个智能体群并行训练。整个AlphaStar智能体联盟训练了14天每个智能体调用了16个TPU。在训练期间每个智能体经历了相当于正常人类要玩200年的游戏时长。最终的AlphaStar智能体集成了联盟当中最有效策略的组合并且可以在单块桌面级GPU上运行。AlphaStar是如何玩游戏的在比赛时AlphaStar通过其界面直接与星际争霸游戏引擎交互获得地图上可以观察的所有信息也可称为全局信息。它并没有输入移动视角的视野图像。不过对比赛录像的分析表明AlphaStar隐式地学到了注意力集中机制。平均而言AlphaStar的动作指令每分钟会在前线和运营之间切换30次这与MANA和TLO等人类玩家的切屏行为非常相近。图8. 与MaNa第二场比赛中AlphaStar的神经网络可视化。从智能体的角度显示了它对游戏的理解左下角起为游戏的输入神经网络的激活可视化智能体的主要操作位置局势评估生产建造。 在12月份的比赛之后DeepMind开发了第二版的AlphaStar。加入了移动视角机制使其只能感知当前屏幕上的视野信息并且动作位置仅限于当前区域。结果表明AlphaStar同样能在移动视角输入下迅速提升性能紧紧追赶全局输入的性能最终结果几乎一致。DeepMind一共训练了两种智能体一个使用原始全局输入一个使用移动视角输入。它们都首先使用人类数据监督学习初始化然后使用上述强化学习过程和第一版学好的智能体联盟对抗。使用使用视角输入的智能体几乎与全局输入的一样强大。在DeepMind的内部排行榜上超过7000MMR远高于MaNa的MMR。然而在直播比赛当中MaNa战胜了移动视角的智能体。DeepMind分析认为该智能体只训练了七天的时间还没有达到它的最高水平希望在不久的将来会对收敛结果做进一步评测。图9. 以整个地图信息为输入和以移动视角为输入两种智能体训练的提升效果比较。两者都是不完全信息存在战争迷雾遮挡敌方单位的情况。只不过前者是将所有可视单位的信息放在全局地图上作为输入后者是只将玩家局部视野内的单位信息作为输入。因此后者需要智能体在游戏过程中不断调整局部视野的范围确保有用信息的输入。 众多观战者另一个关心的问题是AlphaStar的平均每分钟操作数Actions Per Minute, APM。计算机可以利用强大的计算能力在短时间集中大量的操作远超过人类的极限能力。就算是顶级职业玩家APM也仅有数百远远低于现有的对战机器人。如自动悍马2000可以独立控制每个单元APM维持在数万以上。在TLO和MANA的比赛当中AlphaStar的平均APM为280尽管其操作更为精确但APM明显低于大部分职业玩家。同时AlphaStar从观察到行动之间存在350毫秒的延迟。图10. 对战时AlphaStarTLO神族MaNa三者的APM比较 综上DeepMind认为AlphaStar对MaNa和TLO的胜利依靠的是卓越的宏观机制和微观战略决策而不是单纯的靠闪烁追猎Blink。AlphaStar优缺点分析AlphaStar优势1 战胜职业玩家AlphaStar的成功在星际争霸游戏乃至整个实时战略游戏具有里程碑式的意义不仅在于第一次正式击败人类职业玩家更在于这套深度强化学习框架在不完全依赖于规则脚本的基础上通过监督学习、模仿训练、种群提升、和后期强化学习来提升智能体的作战能力。这套研究思路和方法一样适用于其他的实时战略游戏。2 微观操作卓越即使在兵种对抗处于劣势的情况下AlphaStar依靠精准的微操决策控制能力仍然可以在形势不利的局面下反败为胜化逆境为顺境。表现了实时战略游戏的一种虽然简单粗暴但较为直接的解决方式证明了深度强化学习探索到较优可行解的能力。3 利用地形优势的感知能力在战争局势不利的情况下准确作出战略撤退并分散撤退到具有较高地势的关口四周。利用峡口因素精确作出包夹的动作行为形成对敌方的封锁及包抄从而为局势逆转提供条件具备较强的地形感知能力和利用性。 AlphaStar不足1 硬件资源需求高单个智能体训练需要16个V3版本最新版运算次数为V2版本的8倍的云TPU以Alpha League训练完成的10类智能体作为保守估计至少需要上百块TPU作为硬件计算支持带来的硬件基础成本使普通开发者难以承受。2 鲁棒性仍不足在最后一场直播中可见由于AlphaStar无法根据敌人骚扰意图分散安排兵力部署防守本方基地致使被人类玩家戏耍来回拉扯全军大部队从而始终无法对人类玩家发起进攻使人类玩家有足够时间生产大量的反追猎兵种不朽最终导致比赛的失利。3 地图场景较为简单本次使用CatalstLE为两人小地图没有多余的随机起始点因而AlphaStar不需要派侦察部队侦察敌人确定位置减小了环境的不确定性简化了整体的不完全信息性。并且小地图使智能体偏向于使用RUSH类战术使探索策略的复杂性显著降低。4 微操APM峰值过高不同于普通人类玩家AlphaStar的APM不具有冗余重复性每次都为有效操作EPM。普通人类玩家的EPM平均大约只有80左右只有在交战过程中短暂的20秒到30秒左右的时间达到EPM 200以上。但AlphaStar在使用近乎无解的闪烁追猎战术EPM估计能达到1000左右显然对于人类玩家并不公平。5 后期表现未知根据此次比赛公开的录像表现AlphaStar大部分时刻采取追猎者攻击、骚扰或防御等动作尚未观察到其他更为高级的兵种操作并且没有出现满人口满科技树的情况因而AlphaStar的后期表现能力存在较大疑问。总评从开放的11组视频对战资源分析AlphaStar可以在局势不利的情况下凭借卓越的微操控制能力、地形利用能力和多兵种整体协同配合能力有效逆转战局实现扭亏为盈。但是在最后一场现场直播中AlphaStar出现了明显的作战缺陷始终无法合理分配兵力保护基地被人类玩家来回拉扯战场错过了进攻的最佳时机导致最终失利。纵观本次人机对抗虽然在限制Bot的APM部分做的不太到位只限制其APM的均值而没对峰值限制但与2017年在韩国世宗大学举办的星际人机对抗同样没对电脑APM作限制以Bot的惨败相比较本次的AlphaStar是真正意义上在全尺度地图上击败了星际争霸人类职业玩家可谓进步显著。星际争霸AI的研究进展简介星际争霸是由暴雪娱乐公司于1998年公开发售为实时战略游戏的典型代表深受广大游戏玩家的欢迎并创造一列历史先河。与此同时随着BWAPITorchCraftSC2LE等开源API (Application Interface)的发布众多研究者和工程师们纷纷对星际争霸展开了深入研究。图11. 2017年星际人机对抗脚本Bot与2019年星际人机对抗AI Bot 早期的搜索型算法如α-β搜索MCTS树搜索已经被广泛用于完成星际中动作攻击选择任务和建筑生产序列规划任务。并随着计算资源及性能的不断提升演化计算、深度神经网络、深度强化学习AlphaStar的主要采用方法等方法正发挥着越来越显著的作用。图11表示了近些年人工智能算法在星际争霸的子任务中的具体应用。其中以强化学习为代表的计算智能算法在星际争霸领域取得了一系列显著的突破性进展。在特定场景的星际微操任务下多智能体强化学习方法如阿里的Peng等提出的基于双向RNN的BicNet[3] ,牛津大学Foerster等提出的基于反事实机制的COMA[4] , 自动化所Shao等提出的基于SARSA(λ)和权重共享的PS-MAGDS[5] 等方法表现突出能有效处理多智能体间信誉分配的问题。而在宏观序列生产预测任务自动化所Tang等基于卷积神经网络的前向Q学习方法[6] 能帮助智能体找到最佳的生产序列提升智能体的环境适应性从而击败内置AI。分层强化学习方法可以在需要长期规划的任务问题上解决奖赏反馈稀疏的问题以腾讯的TStarBot[7] 为代表的层级强化学习证明了该方法能在标准天梯地图中完整地完成AI的整套系统性学习任务。图12. 计算智能算法在星际争霸中的应用环境[2] AlphaStar同样采用深度强化学习作为其核心训练方法并与他的“哥哥”AlphaGo具有相似之处都采用人类对战数据作预训练模仿学习。但为了满足实时性要求AlphaStar舍弃了搜索模块只让神经网络输出发挥作用是一种更为纯粹的“深度强化学习”方法。结束语从AlphaStar的表现来看人工智能半只脚已经踏上了实时对战游戏的顶峰。然而另外半只脚能否踏上去还要看能否解决现存的后期乏力、鲁棒性差的问题。近年来随着国际象棋、Atari游戏、围棋、德州扑克等一一被征服人工智能在不断挑战人类智力领域的统治力。反之人类研究者也在不断推动和挖掘人工智能的极限。人工智能是否有极限下一个将会被征服的领域会是什么让我们拭目以待。[1]  AlphaStar: Mastering the Real-Time Strategy Game StarCraft II. DeepMind. https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/[2]  Z. Tang, et al., “A Review of Computational Intelligence for StarCraft AI,” SSCI-18, 2018.[3]  P. Peng, et al., “Multiagent bidirectionally-coordinated nets for learning to play StarCraft combat games,” arXiv, 2017.[4]  J. Foerster, et al., “Counterfactual multi-agent policy gradients,” AAAI-18, 2018. [5]  K. Shao, et al., “StarCraft micromanagement with reinforcement learning and curriculum transfer learning,” IEEE Transactions on Emerging Topics in Computational Intelligence, 2018. [6]  Z. Tang, et al., “Reinforcement learning for buildorder production in StarCraft II,” ICIST-18, 2018.[7]  P. Sun, et al. Tstarbots: Defeating the cheating level builtin ai in starcraft ii in the full game. arXiv, 2018未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/929781.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

分布式CAP理论 - 指南

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

【闲话】2025.9.24 记梦

破碎,离奇。话说 \(9.25\) 吃了 \(hz\) 校庆期间 \(hs\) 食堂免费饭菜的人第二天都被抓去做黑工,我和 @wkh2008 因为当时润去不知道干什么了所以没有被抓走,第二天回到班里发现毫无人,然后被学校里巡游的中介带走。…

北京撒网站设计git网站开发

文章目录 目录1. 程序的翻译环境和执行环境2. 详解编译链接2.1 翻译环境2.2 编译本身也分为几个阶段2.3 运行环境 3. 预处理详解3.1 预定义符号3.2 #define3.2.1 #define 定义标识符3.2.2 #define 定义宏3.2.3 #define 替换规则3.2.4 #和##3.2.5 带副作用的宏参数3.2.6 宏和函数…

完整教程:Postgresql常规SQL语句操作

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

酷派Cool20/20S/30/40手机安装Play商店-谷歌三件套-GMS方式

酷派Cool20/20S/30/40手机安装Play商店-谷歌三件套-GMS方式pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consol…

拼多多电商网站建设学校网站建设方案设计

使用 services 指令,请先安装 brew tap gapple/services 安装完成后使用 brew services start mysql

关于网络编辑作业做网站栏目新闻的ppt免费网站软件大全

今年有哪些成功的发行版发布呢? 让我重点介绍最好的几个。 这些发行版在 2023 年引起了人们的关注! 每年我们都会推出一些令人兴奋的新发行版,它们尝试以不同的方式工作,或者提供一些有意义的东西,而不仅仅是“又一个发…

【sa-token】 sa-token非 web 上下文无法获取 HttpServletRequest - 实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

Cloudflare洛杉矶数据中心维护通知:技术架构与影响解析

本文详细介绍了Cloudflare将于2025年10月8日在洛杉矶数据中心进行的计划性维护,包括维护时间窗口、流量重路由机制、潜在延迟影响,以及针对PNI/CNI客户的重要技术建议和通知订阅方式。维护概览 计划维护时间:2025年…

正规的手机网站建设小程序官方平台

等到花都谢了,你怎么还不开机?这电脑开机真是离奇的慢,有心将它换了,奈何兜里空空。凑合着用又无法忍受这种煎熬。其实你只需要用鼠标点几下就可以不用等待这漫长的开机过程了。高铁,飞机,网络,…

友点企业网站管理系统模板保定市清苑区网站建设

看看如果设定了Rollover中某个状态的效果,则 CA.在动画面板上制作的动画适用于所有的Rollover状态B.动画不能应用在Rollover状态上C.在动画面板上制作的动画仅适用于当前的Rollover状态D.同一动画不能赋予多个Rollover…

沧州建设银行招聘网站电子商务网站建设中

参考 一个叫做Version,一个叫做Build,(version是版本号,build是打正式包每次Archive时的都增加的值)这两个值都可以在Xcode中选中target,点击“Summary”后看到。 Version在plist文件中的key是“CFBundleSh…

住房和城乡建设部官方网站已前程无忧招聘网

需求:项目中需要使用netty,本地测试的时候使用的是ws,然后要部署到服务器上,使用https连接,https下就不能用ws了,必须升级到wss 1.阿里云申请免费证书 2.保存证书到本地目录 3.修改代码 SslUtil 工具类…

Windows+VSCode搭建小智(xiaozhi)开发环境 - 教程

Windows+VSCode搭建小智(xiaozhi)开发环境 - 教程2025-10-06 22:21 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; disp…

StarTree支持Apache Iceberg扩展湖仓用例

StarTree宣布其云服务全面支持Apache Iceberg,实现直接查询Iceberg表而无需移动或转换底层数据,解决了高并发实时查询的挑战,同时避免了数据重复存储和复杂管道构建。StarTree支持Apache Iceberg以扩展湖仓用例 基于…

偏微分方程的解

偏微分方程的解求未知函数。

如何在 HTML 中添加按钮 - 实践

如何在 HTML 中添加按钮 - 实践pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco&quo…

网站备案的链接如何创建电商平台

前言 这篇文章用于记录阿里天池 NLP 入门赛,详细讲解了整个数据处理流程,以及如何从零构建一个模型,适合新手入门。 赛题以新闻数据为赛题数据,数据集报名后可见并可下载。赛题数据为新闻文本,并按照字符级别进行匿名…

jsp网站开发视频教程关键词网站排名软件

来源:中国科学报去年,当一颗美式足球场大小的雪茄形天体Oumuamua进入太阳系时,它并非仅仅让人们第一次看到了一块星际岩石。根据一项新的研究,这也支持了太空岩石通过在遥远的恒星系统之间运送微生物,从而在星际间传播…

Road Trip of the National Day holiday

During the National Day holiday, I went on a road trip with my wife to western Sichuan. We started from Chengdu and passed through Yaan and Luding. On the first day, we visted the "Red Army Flying…