这个公式主要用于对词与词间关系的考察,可以把集合C内所有文档看成C1,C2,C3......如(C1(X)!=0) && (C1(Y)!=0)成立则结果C1(X,Y)=1,如结果不成立则反之C1(X,Y)=0,就最后C1(X,Y)+C2(X,Y)+C3(X,Y)+.....=C(X,Y)
以下是简化公式了目前简化公式:
1.假设一个文章集合 {C},总文章数目为N,其中含有单词X的文章总数为Nx,含有单词Y的文章总数是Ny,含有{X+Y}的文章总数是 Nxy,那么相关性这么计算
Corr(X,Y)= Math.log10(N/Nx)*Math.log10(N/Ny)*Nxy/(Nx+Ny-Nxy)
来自大鱼的BLOG:http://www.cnblogs.com/polugen/archive/2006/11/29/576213.html
2.MI=log(f(x,y)/N)-log((f(x)/N)*(f(y)/N))
其中:f(x,y)--在当前查找范围内共现的次数
f(x)----关键词在整个语料库中的出现次数
f(y)----上下文中的该词在整个语料库中的出现次数
N-------语料库大小
- 大小: 58.2 KB
分享到:
相关推荐
信息论在机器学习领域应用非常广泛,熵、互信息等概念随处可见,本文档将信息论中常用到的公式进行了汇总,希望能对大家有所帮助。
在概率论和信息论中,两个随机变量的互信息(Mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p...
信息论信息论信息论信息论信息论信息论信息论信息论
资源名称:《信息论与编码》课程视频(26集)资源目录:【】信息论与编码01-new【】信息论与编码教程02-new【】信息论与编码教程03-new【】信息论与编码教程04-new【】信息论与编码教程05-new【】信息论与编码教程06...
信息论习题信息论习题信息论习题信息论习题信息论习题
在信息论中,熵是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。 在信息世界中,熵越高,则能传输越多的信息,熵越低,则意味着传输的信息越少。 自信息: 1、自信息表示事件发生前,...
信息论在机器学习领域可以说是必备的知识,熵、互信息等概念随处可见,为了方便使用,特将信息论中常用到的公式进行了汇总,在这里分享给大家,希望能对大家有所帮助。
信息论在生活中的应用的论文,主要是说信息论的一些概念在实际生活中的体现
信息论习题答案,信息论详解,信息率失真函数-习题答案,第五章 信源编码-习题答案,第三章 信道容量-习题答案,第二章 信源熵-习题答案,《信息论》部分作业详解
香农信息论中译版
用信息论中的熵作为衡量两个变量之间相关性的指标,计算两个变量之间相关性需要用到互信息的计算,互信息工具箱中提供了相关的mi函数
信息论是一门很难的课程,这是信息论的论文。
信息论与编码 信息论与编码 信息论与编码 信息论与编码
论减法公式.rar
ThomasMCover信息论中英文课本和英文答案
信息论与编码PPT课件,搭配书第二版信息论与编码傅祖芸电子工业出版社,附有课后答案
相当经典的信息论的课件哦~~ 相当经典的信息论的课件哦~~ 相当经典的信息论的课件哦~~
信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。信息系统就是广义的通信系统,泛指某种信息从一处传送到另一处所需的全部设备所构成的系统。信息...
C++ 信息论实验程序信息论实验 C++程序信息论实验 C++程序信息论实验 C++程序信息论实验 C++程序