网站内容建设包括wordpress安装显示英文
网站内容建设包括,wordpress安装显示英文,网站建设要准备什么软件,寻找定制型网站建设就按照最后一章的顺序来说吧。很多名字都不知道中文该怎么说#xff0c;就直接用英文名称了。 Naive Bayesian Classifier 朴素贝叶斯分类器nb算法是通过学习样本中已经分类的条目#xff0c;计算生成条目中的特性相对于类别的概率矩阵#xff0c;然后根据待分类条目中特性在…就按照最后一章的顺序来说吧。很多名字都不知道中文该怎么说就直接用英文名称了。 Naive Bayesian Classifier 朴素贝叶斯分类器nb算法是通过学习样本中已经分类的条目计算生成条目中的特性相对于类别的概率矩阵然后根据待分类条目中特性在这个矩阵中的值来反向计算条目的类别概率。 P(Category|Item)P(Item|Category)*P(Category)/P(Item) 在静态样本中P(Item)是固定的所以可以去掉简化计算。但是如果样本集是动态的就需要考虑进来。 P(Item|Category)P(Feature1|Category)*P(Feature2|Category)*... 优点速度快增量训练时可以不使用旧样本容易理解分类效果往往比想象的好缺点对于内容庞杂的大分类来说效果不太好特别是出现比较中性的特性组合时更是如此。 Decision Tree Classifier 决策树dt算法进行分类计算是很简单直观的它的技巧在于决策树的构造过程。样本是已知的条件结果数据矩阵需要决定的是用来分类的条件顺序。为了得到这个顺序就要针对每个条件计算单纯应用这个条件分类后结果的混合度也就是看用哪个条件来分可以分得更清楚一些。确定了最好的分类条件就把数据分开成若干子集对每个子集再计算最佳分类条件以此类推直到子集只包含一个结果或者达到某些终止条件。 dt算法有两个有意思的地方。一是如何计算应用某个条件得到的分类结果的混合度。书里面给了一个简单的计数算法和一个熵算法好亲切啊。 p(i)frequency(outcome)count(outcome)/count(total rows)Entropysum of p(i)*log(p(i) for all outcomes 进一步计算information gain:weight1 size of subset1 / size of original setweight2 size of subset2 / size of original setgain entropy(original) – weight1*entropy(set1) – weight2*entropy(set2) 另外一个有意思的地方是对不同类型的条件数据如何选择分类点。对于是否问题这个比较容易解决但是对于数值或者字符串或者更复杂的类型就要特殊情况特殊处理了。 优点结果简洁直观可以处理不同的条件数据类型缺点不能通过增量训练来改进生成决策树必须使用整个已知样本集。大数据集可能存在的众多条件会产生巨大繁杂的决策树分类计算会变得缓慢。 转载于:https://www.cnblogs.com/ysjxw/archive/2008/04/11/1148887.html
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/89818.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!