点餐系统网站建设怎么看网站是用什么系统做的
news/
2025/9/22 22:50:07/
文章来源:
点餐系统网站建设,怎么看网站是用什么系统做的,网站建设结构设计方案,wordpress密码可见概率分布之间的距离#xff0c;顾名思义#xff0c;度量两组样本分布之间的距离 。 1、卡方检验 统计学上的χ2统计量#xff0c;由于它最初是由英国统计学家Karl Pearson在1900年首次提出的#xff0c;因此也称之为Pearson χ2#xff0c;其计算公式为 (i1#xff0c;2顾名思义度量两组样本分布之间的距离 。 1、卡方检验 统计学上的χ2统计量由于它最初是由英国统计学家Karl Pearson在1900年首次提出的因此也称之为Pearson χ2其计算公式为 (i123…k) 其中Ai为i水平的观察频数Ei为i水平的期望频数n为总频数pi为i水平的期望频率。i水平的期望频数Ei等于总频数n×i水平的期望概率pi。当n比较大时χ2统计量近似服从k-1(计算Ei时用到的参数个数)个自由度的卡方分布。 卡方检验经常用来检验某一种观测分布是不是符合某一类典型的理论分布如二项分布正态分布等)。观察频数与期望频数越接近两者之间的差异越小χ2值越小如果两个分布完全一致χ2值为0反之观察频数与期望频数差别越大两者之间的差异越大χ2值越大。换言之大的χ2值表明观察频数远离期望频数即表明远离假设。小的χ2值表明观察频数接近期望频数接近假设。因此χ2是观察频数与期望频数之间距离的一种度量指标也是假设成立与否的度量指标。如果χ2值“小”研究者就倾向于不拒绝H0如果χ2值大就倾向于拒绝H0。至于χ2在每个具体研究中究竟要大到什么程度才能拒绝H0则要借助于卡方分布求出所对应的P值来确定通常取p0.05)。 在python中的实现 # -*- coding: utf-8 -*-卡方公式(o-e)^2 / e
期望值和收集到数据不能低于5o(observed)观察到的数据eexpected表示期望的数据
(o-e)平方最后除以期望的数据e
import numpy as np
from scipy.stats import chisquare
list_observenp.array([30,14,34,45,57,20])
list_expectnp.array([20,20,30,40,60,30])#方法一:根据公式求解最后根据c1的值去查表判断
c1np.sum(np.square(list_observe-list_expect)/list_expect)#方法二使用scipy库来求解
c2,pchisquare(f_obslist_observe, f_explist_expect)返回NAN无穷小if p0.05 or pnan:print(H0 win,there is no difference)
else:print(H1 win,there is difference) 2、交叉熵 通常一个信源发送出什么符号是不确定的衡量它的不确定性可以根据其出现的概率来度量。概率大出现机会多不确定性小反之就大。 不确定性函数f必须满足两个条件 1是概率P的单调递降函数 2两个独立符号所产生的不确定性应等于各自不确定性之和即fP1P2fP1fP2这称为可加性。 同时满足这两个条件的函数f是对数函数即 在信源中考虑的不是某一单个符号发生的不确定性而是要考虑这个信源所有可能发生情况的平均不确定性。若信源符号有n种取值U1…Ui…Un对应概率为P1…Pi…Pn且各种符号的出现彼此独立。这时信源的平均不确定性应当为单个符号不确定性-logPi的统计平均值E可称为信息熵即 假设现在有一个样本集中两个概率分布p,q其中p为真实分布q为非真实分布。假如按照真实分布p来衡量识别一个样本所需要的编码长度的期望为 H(p) 但是如果采用错误的分布q来表示来自真实分布p的平均编码长度则应该是 H(p,q) 我们称H(p)为信息熵称H(p,q)为交叉熵。 交叉熵在CNN分类中经常用到用来作为预测值和真实标签值的距离度量。经过卷积操作后最后一层出来的特征经过softmax函数后会变成一个概率向量我们可以看作为是概率分布q, 而真实标签我们可以看作是概率分布p, 因此真实分布p和预测分布q的交叉熵就是我们要求的loss损失值即 在python中的实现 import numpy as np
import tensorflow as tffeanp.asarray([6.5,4.2,7.4,3.5],np.float32)
labelnp.array([1,0,0,0])#方法一根据公式求解
def softmax(x):return np.exp(x)/np.sum(np.exp(x),axis0)
loss1-np.sum(label*np.log(softmax(fea)))#方法二调用tensorflow深度学习框架求解
sesstf.Session()
logitstf.Variable(fea)
labelstf.Variable(label)
sess.run(tf.global_variables_initializer())
loss2sess.run(tf.losses.softmax_cross_entropy(labels,logits))
sess.close() 3、相对熵(relative entropy) 又称为KL散度Kullback–Leibler divergence简称KLD信息散度information divergence信息增益information gain。 相对熵是交叉熵与信息熵的差值。即 相对熵交叉熵-信息熵 KL(p||q)H(p,q)-H(p) 表示用分布q模拟真实分布p相比用p模拟p所需的额外信息。 相对熵KL散度有两个主要的性质。如下 1尽管 KL 散度从直观上是个度量或距离函数但它并不是一个真正的度量或者距离因为它不具有对称性即 (2)相对熵具有非负性 总结一下 信息熵公式 交叉熵公式 相对熵公式 三者的关系 在python中的实现 import numpy as np
import scipy.statspnp.asarray([0.65,0.25,0.07,0.03])
qnp.array([0.6,0.25,0.1,0.05])#方法一根据公式求解
kl1np.sum(p*np.log(p/q))#方法二调用scipy包求解
kl2scipy.stats.entropy(p, q) 4、js散度Jensen-Shannon 因为kl散度不具对称性因此js散度在kl散度的基础上进行了改进 现有两个分布p1和p2其JS散度公式为 在python中的实现 import numpy as np
import scipy.statspnp.asarray([0.65,0.25,0.07,0.03])
qnp.array([0.6,0.25,0.1,0.05])M(pq)/2#方法一根据公式求解
js10.5*np.sum(p*np.log(p/M))0.5*np.sum(q*np.log(q/M))#方法二调用scipy包求解
js20.5*scipy.stats.entropy(p, M)0.5*scipy.stats.entropy(q, M) 转载于:https://www.cnblogs.com/denny402/p/7050779.html
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/910649.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!