网站网站做代理怎么发展下线太原seo优化公司
news/
2025/10/2 11:37:03/
文章来源:
网站网站做代理怎么发展下线,太原seo优化公司,最新远程网站建设服务器,网店推广网站论文链接#xff1a;http://aihuang.org/p/papers/AAAI2018Denoising.pdf来源#xff1a;AAAI 2018MotivationDistant Supervision 是一种常用的生成关系分类训练样本的方法#xff0c;它通过将知识库与非结构化文本对齐来自动构建大量训练样本#xff0c;减少模型对人工标… 论文链接http://aihuang.org/p/papers/AAAI2018Denoising.pdf来源AAAI 2018 MotivationDistant Supervision 是一种常用的生成关系分类训练样本的方法它通过将知识库与非结构化文本对齐来自动构建大量训练样本减少模型对人工标注数据的依赖。但是这样标注出的数据会有很多噪音例如如果Obama和United States在知识库中的关系是 BornIn那么“Barack Obama is the 44th President of the United States.”这样的句子也会被标注为BornIn关系。为了减少训练样本中的噪音本文希望训练一个模型来对样本进行筛选以便构造一个噪音较小的数据集。模型在对样本进行筛选时无法直接判断每条样本的好坏只能在筛选完以后判断整个数据集的质量这种 delayed reward 的情形很适合用强化学习来解决。 Model模型框架如图所示左边是基于强化学习的 Instance Selector右边是经典的基于 CNN 的 Relation Classifier。Instance Selector 根据 Policy function 对样本逐个筛选每个样本都可以执行“选”或“不选”两种 Action筛选完以后会生成一个新的数据集我们用 Relation Classifier 来评估数据集的好坏计算出一个 reward再使用 policy gradient 来更新 Policy function 的参数这里的 reward 采用的是数据集中所有样本的平均 likelihood。 为了得到更多的反馈提高训练效率作者将样本按照实体对分成一个个 bag每次 Instance Selector 对一个 bag 筛选完以后都会用 Relation Classifier 对这部分数据集进行评估并更新 Policy function 的参数。在所有 bag 训练完以后再用筛选出的所有样本更新 Relation Classifier 的参数。 具体训练过程如下Experiment论文在 NYT 数据集上与目前主流的方法进行了比较注意这里是 sentence-level 的分类结果可以看到该方法取得了不错的效果。论文分别在原始数据集和筛选以后的数据集上训练了两种模型并用 held-out evaluation 进行评估可以看出筛选以后的数据集训练出了更好的关系分类模型。 作者又比较了使用强化学习和 greedy selection 两种筛选样本的方法强化学习的效果更好一些。 论文笔记整理周亚林浙江大学硕士研究方向为知识图谱、关系抽取。 OpenKG.CN中文开放知识图谱简称OpenKG.CN旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。转载须知转载需注明来源“OpenKG.CN”、作者及原文链接。如需修改标题请注明原标题。点击阅读原文进入 OpenKG 博客。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/924852.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!