超市如何建立网站免费行情网站

news/2025/10/2 9:56:49/文章来源:
超市如何建立网站,免费行情网站,网上开店需要多少钱?,室内设计师灵感网站文章目录 摘要Abstract文献阅读题目引言创新点方法利用长短期记忆网络学习时空演化特征构建用于气象辅助信息编码的堆叠自编码器使用多任务学习发现全市通用模式 模型实验数据集评估准则实验结果 深度学习Self-attentionself-Attention由来self-attention原理self attention代码… 文章目录 摘要Abstract文献阅读题目引言创新点方法利用长短期记忆网络学习时空演化特征构建用于气象辅助信息编码的堆叠自编码器使用多任务学习发现全市通用模式 模型实验数据集评估准则实验结果 深度学习Self-attentionself-Attention由来self-attention原理self attention代码 总结 摘要 基于LSTM-Autoencoder模型的多任务空气质量预测 本文提出了一种长短期记忆LSTM自编码器多任务学习模型用于预测城市多个地点的PM2.5时间序列。该模型能够隐式地、自动地挖掘不同站点污染物之间的内在关联性。该模型充分利用了监测站的气象信息有利于提高模型的性能。 Abstract 文献阅读 题目 Multitask Air-Quality Prediction Based on LSTM-Autoencoder Model 引言 本文提出了一种长短期记忆LSTM自编码器多任务学习模型用于预测城市多个地点的PM2.5时间序列。具体而言多层LSTM网络可以模拟城市空气污染颗粒物的时空特征利用堆叠式自动编码器对城市气象系统的关键演变模式进行编码可为PM2. 5时间序列预测提供重要的辅助信息。此外多任务学习能够自动发现多个关键污染时间序列之间的动态关系解决了传统数据驱动方法建模过程中多站点信息利用不足的问题。 创新点 现有的数据驱动方法往往忽略了城市多个站点之间的动态关系导致预测精度不理想。 文章贡献如下 1考虑到空气污染物的复杂时空动态通过多层LSTM网络的时空学习探索城市多个位置颗粒物的时空特征。 2气象因素对PM2.5的演变影响很大。提出了对气象时间序列关键演变模式的编码方法为PM2. 5时间序列预测提供了重要的辅助信息。 3PM2.5时间序列的模式在多个地点之间具有很强的相关性本文利用多任务学习自动探索重点污染监测站之间的模式并通过深度学习模型隐式地描述各个站点之间的关系。 4对北京市多站PM2. 5时间序列和气象观测信息的建模仿真表明由于考虑了多站间的关系该方法取得了令人满意的性能。 方法 利用长短期记忆网络学习时空演化特征 LSTM网络图 构建用于气象辅助信息编码的堆叠自编码器 1定义了一个特征学习函数h fθ (X)其中fθ(·)称为编码器函数。然后解码函数X gθ (h)学习重构原始信号。特征向量h是原始输入的压缩表示。 2目标是构建气象信息的向量表示并将其用于PM2.5时间序列的建模。气象自编码器的目标函数可表示为: 其中XMeteo,i为第i个监测点位置的气象信息R(θ)是自编码器权值的约束项。 使用多任务学习发现全市通用模式 1在硬参数共享中学习神经网络基础层的公共特征子空间。在基础层中参数是完全相同的可以防止过拟合问题有更好的泛化效果。 2在软参数共享中任务的模型参数可以是不同的、受规则约束的特征子空间。 3多任务学习的架构图 4多任务学习的目标函数 其中X为多任务输入Yi为各自的多任务学习目标θi是第i个任务对应的学习参数N是任务数。 模型 作者提出的模型的架构如下图所示 多层LSTM网络对PM2.5时空序列特征进行学习层叠式自编码器可以逐层压缩有用信息提高性能。 在更高层次的特征学习上使用两层密集网络学习PM2.5综合演化信息和气象辅助。基于深度特征利用多个亚密集层对全市范围内多个地点的PM2.5时间序列进行建模并输出预测值。整个模型的目标函数为 其中yi,j为PM2.5时间序列实值N为空气质量监测站的个数n是时间序列的个数。XPM2.5为所有空气质量监测站的记录值XMeteo是辅助气象信息的输入θ为所提模型的所有参数。 实验 数据集 北京的空气质量数据包括几种主要空气污染物的浓度PM2.5(μg/m3)、PM10(μg/m3)、NO2(μg/m3)、CO(mg/m3)、O3(mg/m3)和SO2(μg/m3)。北京有18个监测站。名称、纬度和经度如下表所示。监测站包括市区、郊区和交通污染监测区。 时间序列从2017年1月30日下午4点到2018年1月31日下午3点每小时采样一次共8784个样本。 利用气象信息作为辅助信息包括温度、压力、湿度、风向、风速和天气情况。共有13个气象站位置如下所示 评估准则 优化方法是最常用的ADAM优化器使用三个评价指标来比较所提出模型的性能均方根误差(RMSE)、平均绝对误差(MAE)和对称平均绝对百分比误差(SMAPE)。 实验结果 在北京市多个气象监测站的预报结果如下选取了几个有代表性的气象监测站的预报结果。这些地点包括农村地区、城市中心、工业区和路边。 从图中可以看出多个地点的PM2.5时间序列趋势是一致的但地点之间在细节上的差异很明显。 该方法对PM2.5时间序列的一步前预测结果和三步前预测结果如下表 从表中可以看出提出的方法在各个指标(RMSE、MAE、SMAPE)上都有更好的表现每个指标的预测误差都比对比方法好10%左右。 LSTM-Autoencoder模型和传统LSTM模型的预测结果对比如下 LSTM-Autoencoder模型在12月21日的预测结果优于传统的LSTM模型。预测曲线增长快能有效地预测空气质量。相比之下传统LSTM无法跟踪PM2.5时间序列的趋势。两者之间预测结果相差很大. 深度学习 Self-attention self-Attention由来 Google在2017年发表了著名的论文《Attention Is All You Need》提出了目前在NLP以及CV领域使用非常广泛的transformer模型而self-attention是transformer的主要组成部分。 在transformer之前NLP领域常见的处理序列数据的方法主要是RNN/LSTM等 A由于RNN/LSTM在计算时需考虑前序信息所以不能并行导致训练时间较长 B当序列长度过长时由于模型深度增加序列开始部分对末端部分影响几乎会消失虽然记忆网络/attention机制的加入可以降低一部分影响但长距依赖问题仍然存在。 Self-attention可以很好的处理上面两个问题首先self-attention通过位置编码保证序列关系计算上不依赖序列关系所以可以实现完全的并行其次在计算相关性时候任何一个点都会与整个序列中的所有输入做相关性计算避免了长距依赖的问题。 self-attention原理 从输入和输出的不同形式来看经典的NLP任务可以分为下面三种情况 A输出和输出长度一致典型任务词性识别 B输入和输出长度不一致输出长度不变并且输出为单一元素典型任务文本分类情绪识别 C输入和输出长度不一致并且输出输出长度不定为多个长度不固定的元素典型任务翻译文本摘要等 从上面的任务形式可以看出无论是那种任务我们既想让模型知道不同输入向量之间的关系以及单个输入向量与和整体输入之间的关系同时也想让模型了解不同的输入对输出的贡献是怎么样的Self-attention可以完成上面两个部分的任务下面我们看是如何做到的 A不同输入之间相关性计算 度量两个向量的相关性的方法有很多点乘是常用的方法之一。在self-attention中就是用这种方法来做不同输入向量之间的相关性计算每个单词通过与Wq做乘法后作为当前单词的表征为查询向量Query每个单词通过与Wk做乘法后当作被查询向量Key最后每个输入向量的Query与其他输入向量的Key做点乘来表征两个不同向量的相关性。 B信息提取 将每个输入与Wv相乘生成V将当前输入的alpha与每个输入的V相乘在相加就得到了完成了输入的有用信息抽取这里输出的b1的数值是和最大的alpha*v的值是接近的也就是突出了贡献比较大的输入。依此类推可以同时计算b1…到bn这样整体上一个self attention的大部分计算就完成了b1b2….到bn都是可以并行计算的。 CMulti-head attention 在实际使用过程中一个attention很难关注到所有信息所以基本上都是使用Multi-head attention也就是说每个输入向量有多个Q多个K多个V每一个组内的q只和自己组内的kv做计算如下图中画红色框的元素所示 D输入-位置编码 Self attention本身是不涉及到位置信息的但是在输入层已经将位置信息加入进来了这块有比较重要所以单独放在这里了。对于大部分任务位置信息是很重要的信息比如词性标注中动词和名词的关系所以我们会在输入中加入特殊形式的位置编码我理解位置编码只要保证唯一性和相对关系就是可以的至于不同位置编码的效果还是以实验效果为准。 self attention代码 论文中关于attention的公示描述 可以将公式和下面的图联系在一起 上图是Attention公式的实现步骤从图中可以看出 一个attention模块需要学习的参数只有WqWkWv这三个投影矩阵。 首先我们看init函数self.num_attention_heads是multi-head中head的个数self.attention_head_size每个attention的头维度self.all_head_size和config.hidden_size是一样的值QKV的计算主要是矩阵相乘。 class BertSelfAttention(nn.Module):def __init__(self, config):super(BertSelfAttention, self).__init__() # 768 12if config.hidden_size % config.num_attention_heads ! 0:raise ValueError(The hidden size (%d) is not a multiple of the number of attention heads (%d) % (config.hidden_size, config.num_attention_heads))self.num_attention_heads config.num_attention_headsself.attention_head_size int(config.hidden_size / caonfig.num_attention_heads)self.all_head_size self.num_attention_heads * self.attention_head_size#计算QKV self.query nn.Linear(config.hidden_size, self.all_head_size)self.key nn.Linear(config.hidden_size, self.all_head_size)self.value nn.Linear(config.hidden_size, self.all_head_size)self.dropout nn.Dropout(config.attention_probs_dropout_prob)transpose_for_scores的计算主要是将矩阵的维度做转换[bs seqlen all_head_size ]转换成[bs num_ head seqlengthattention_head_size ]为了后续multi-head 做attention计算。 def transpose_for_scores(self, x):new_x_shape x.size()[:-1] (self.num_attention_heads, self.attention_head_size)x x.view(*new_x_shape)return x.permute(0, 2, 1, 3)forward是代码的主要流程部分 # input matrix是[bs, seqlength, hidden_size]def forward(self, hidden_states, attention_mask):mixed_query_layer self.query(hidden_states)mixed_key_layer self.key(hidden_states)mixed_value_layer self.value(hidden_states)# 计算QKV之后大小不变query_layer self.transpose_for_scores(mixed_query_layer)key_layer self.transpose_for_scores(mixed_key_layer)value_layer self.transpose_for_scores(mixed_value_layer)#query_layerkey_layervalue_layer大小变为 [bs, num_ head , seqlength, attention_head_size]# Take the dot product between query and key to get the raw attention scores.# alpha矩阵 的计算以及单位化 Q*transpose(K)attention_scores torch.matmul(query_layer, key_layer.transpose(-1, -2))attention_scores attention_scores / math.sqrt(self.attention_head_size)# Apply the attention mask is (precomputed for all layers in BertModel forward() function)# 每一条输入padding部分不做计算所以要进行mask# attention_mask在transformer中有不同的作用详细信息见参考文件attention_scores attention_scores attention_mask# Normalize the attention scores to probabilities.# alpha矩阵归一化attention_probs nn.Softmax(dim-1)(attention_scores)# This is actually dropping out entire tokens to attend to, which might# seem a bit unusual, but is taken from the original Transformer paper.attention_probs self.dropout(attention_probs)# 计算softmaxalpha * V# 将矩阵维度变换到之前属于与输出维度保持不变context_layer torch.matmul(attention_probs, value_layer)context_layer context_layer.permute(0, 2, 1, 3).contiguous()new_context_layer_shape context_layer.size()[:-2] (self.all_head_size,)context_layer context_layer.view(*new_context_layer_shape)return context_layer从整体上看self-attention的输入输出维度一致输入之前不仅加入了位置编码还需要将不同作用的部分需要的mask例如padding等防止模型作弊加入进来。 总结

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/924770.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

寻找东莞微信网站建设三只松鼠软文范例500字

文章目录 0 前言1\. 目标检测概况1.1 什么是目标检测?1.2 发展阶段 2\. 行人检测2.1 行人检测简介2.2 行人检测技术难点2.3 行人检测实现效果2.4 关键代码-训练过程 最后 0 前言 🔥 优质竞赛项目系列,今天要分享的是 🚩 毕业设计…

完整教程:Linux-01_2(vi / vim 编辑器)

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

金华义乌网站建设企业建网站一般要多少钱

背景 在flink中,如果你想要访问记录的处理时间或者事件时间,注册定时器,或者是将记录输出到多个输出流中,你都需要处理函数的帮助,本文就来通过一个例子来讲解下副输出 副输出 本文还是基于streaming-with-flink这本…

全面解析Umi-OCR手写体识别能力:开源OCR的新标杆 - 指南

全面解析Umi-OCR手写体识别能力:开源OCR的新标杆 - 指南2025-10-02 09:46 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important;…

Playwright MCP浏览器自动化详解指南 - 教程

Playwright MCP浏览器自动化详解指南 - 教程pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", &quo…

Python获取视频文件的各种属性信息

Python获取视频文件的各种属性信息很多时候我们需要获取视频文件的属性信息,这里记录一下几种使用Python获取视频文件的属性信息的方法。 方法一:使用opencv库 需要安装opencv库pip install opencv-python具体代码如…

iis5.1建网站php培训机构企业做网站

炮兵问题的优化,设立逻辑数组 蛮力法设计思想 有策略地穷举 验证 制定穷举策略避免重复 简单来说,就是列举问题所有可能的解,然后去看看是否满足题目要求,是一种逆向解题方式。(我也不知道答案是什么,…

网站建设wix帝国cms能做手机网站吗

1、拷贝构造函数 1.1 什么是拷贝构造函数 拷贝构造函数是一种构造函数,它的功能是创建新对象。也就是说对象还没生成,这时利用另一个对象的拷贝来生成新的对象。 class MyDemo { public:// 默认构造函数MyDemo(){}// 拷贝构造函数MyDemo(const MyDemo…

做网站必须认证吗武夷山网站推广服务

为缓解民生山西认证压力,提高认证效率与认证率,山西省社保局推出“老来网”认证手机app,请未认证人员以及民生山西无法认证人员,采用此认证方式。附:民生山西APP认证流程老来网APP具体操作流程如下:一、 老…

负载均衡式的在线OJ项目编写(七) - 实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

Arduino-Yun-物联网指南-全-

Arduino Yun 物联网指南(全)原文:zh.annas-archive.org/md5/5adfde3977d9c1890a46c10dfc85e6f2 译者:飞龙 协议:CC BY-NC-SA 4.0前言 物联网(IoT)是科技界的一个增长话题,越来越多的使用众筹活动资助的硬件项目…

深入解析:【笔记】在WPF中Binding里的详细功能介绍

深入解析:【笔记】在WPF中Binding里的详细功能介绍2025-10-02 09:32 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; disp…

2025雕塑厂家TOP企业品牌推荐排行榜,婚庆泡沫雕塑,玻璃钢,城市地标不锈钢,校园筑铜,道具,文旅,婚礼堂泡沫,直播间实景泡沫,水泥景观,商业美陈发光雕塑公司推荐!

当前雕塑行业在发展过程中,面临着多重亟待解决的问题。从成本层面来看,部分企业因存在中间商环节,导致产品价格虚高,客户难以获得高性价比的雕塑产品;在定制能力上,一些厂家受限于设备水平和专业团队配置,无法满…

Code--Blocks-和-C---应用开发-全-

Code::Blocks 和 C++ 应用开发(全)原文:zh.annas-archive.org/md5/D136533EB1CB1D754CE9EE199A478703 译者:飞龙 协议:CC BY-NC-SA 4.0前言 《使用 Code::Blocks 进行 C++开发》是一本简洁实用的应用程序开发指南…

做网站网上接单如何引流客源最快的方法

要设计出用户喜欢的界面,你可以考虑以下几个方面: 用户研究:首先要了解用户的需求和偏好。你可以通过用户调研、用户访谈和数据分析来获取这些信息。了解用户的行为模式、喜好和痛点,有助于设计出更吸引人的界面。 直观的布局&am…

VMware Service某些服务关闭导致虚拟机开机无法获取IP地址

现象: windows下运行着vmware,有一天发现所有虚拟机启动后全部没了IP地址,设置的虚拟机网络为NAT模式。 原因: 应该不是虚拟机的问题,此刻想到前些时候由于windows电脑卡顿, 一股脑关闭了了很多自启动的服务,问…

2025中国无缝钢管厂家 TOP 品牌权威推荐,SA106 无缝钢管,A106B 无缝钢管,SA53B 无缝钢管精选无缝钢管工厂

在无缝钢管行业,随着市场需求的不断增长,各类供货厂家层出不穷,但也带来了诸多问题。部分厂家为追求利润,降低生产标准,导致产品质量参差不齐,存在尺寸偏差、材质不达标等情况,给下游企业的生产安全和项目质量埋…

正能量网站地址链接免费燕郊医疗网站建设

【优选生产报工系统:数据分析、产品管理与基础数据登录的关键选择要素】 在快速变化的制造业环境中,生产报工系统的重要性不言而喻。它不仅仅是一种记录工时和监控生产进度的工具,更是一种能够实现数据驱动决策、优化产品管理和确保基础数据…