如果你能理解互信息的含义,条件互信息也自然能够理解.互信息是一种独立性的度量,若随机变量x与y边缘独立,则mi(x,y)=0,否则mi(x,y)>0,且互信息越大,说明两个随机变量越相关.互信息是一种条件独立性的度量,若x与y在给定z=z的条件下独立,则mi(x,y|z=z)=0,否则mi(x,y|z=z).两者做差的目的是看引入辅助变量z以后,对x和y的独立性会产生什么影响.建议您看一下图模型(graphicalmodels)方面的相关文献,或者读一读thomasm.cover,joya.thomas的《elementsofinformationtheory》?
条件相关性:什么叫做向量组[朗读]
@pic
顶0
加入收藏
相关问答推荐