你好!1/8,1/4,1/2,1/8+1/8,1/8+1/4,1/8+1/2,1/4+1/2,1/8+1/8+1/4,1/8+1/8+1/2,九种情况分别乘以各自概率就得到总的期望值了打字不易,采纳哦。
- 文化问答
- 答案列表
条件信息熵:模糊信息熵与信息熵的区别[朗读]
我理解的这里信息量的度量指的是信息熵.只需算出是否下雨在甲先生带伞条件下的概率分布即可若p=p(下雨|甲先生带伞)那么所求为h=plogp+(1-p)log(1-p).下面算p记事件a={下雨}b={甲先生带伞}那么p(a)=p(nota)=1/2p(b|nota)=1/3p(b|a)=1那么p=p(a|b)=p(a且b)/p(b)=p(a)p(b|a)/(p(b|nota)p(nota)+p(b|a)p(a))=1/(1/3+1)=3/4。
信息熵用来描述一个变量的不确定度,不确定度越高,所包含的信息就越多.其实广义的熵用来描述系统的混乱的程度(也可以认为是不确定度),一个系统在不受其他影响的条件下会自发的向熵值增大的方向变化.说下模式识别上的应用,我知道的,可以用来处理特征,做特征选择。
熵理论有两个版本:热力学熵与玻耳兹曼熵;无论微观的玻耳兹曼熵还是宏观的克劳至今依然遵循信息论中的一条定理,这条定理借用了热力学中的名词“熵”(entropy。
nash于1957年提出了流域瞬时单位线[1],它的提出推动了流域汇流计算从纯经验的(t)为信息熵;p(t)为概率密度函数.设定约束条件如下:(1)均值条件(3)(2)对。