特征选择之TF-IDF

TF-IDF,最开始用于信息检索,在信息检索中其计算过程如下

TF-IDF模型的主要思想是:如果词w在一篇文档d中出现的频率高,并且在其他文档中很少出现,则认为词w具有很好的区分能力,适合用来把文章d和其他文章区分开来。该模型主要包含了两个因素:TF,IDF

词频TF(Term Frequency)

词w在文档d中出现次数count(w, d)和文档d中总词数size(d)的比值:

TF

逆向文档频率IDF(Inverse Document Frequency)

文档总数n与词w所出现文件数docs(w, D)比值的对数:


IDF

加1是为了防止分母为0的情况

TF-IDF

TF-IDF

TF-IDF= TF * IDF  =(词频*词权)

TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语言中的出现次数成反比。所以,自动提取关键词的算法就很清楚了,就是计算出文档的每个词的TF-IDF值,然后按降序排列,取排在最前面的几个词。

一句话或者一个文档的TF-IDF:各个词组的TF-IDF的和

其他计算TF 、IDF的方式



TF-IDF的权值

TF-IDF算法的优点是简单快速,结果比较符合实际情况。缺点是,单纯以"词频"衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。而且,这种算法无法体现词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为重要性相同,这是不正确的。(一种解决方法是,对全文的第一段和每一段的第一句话,给予较大的权重。)

但是但是,我们这里利用TFIDF作为特征选择,上面的好像只是计算了一个词和文档的相识度的过程,如何将上面的过程转换成特征选择?

只需要将上面的文档换成某一类,就能理解一大半了。

TF(Ci,t)= ci类中t出现的概率

IDF = log 文档总数/出现t的文档总数

对最后的作为选取特征的TFIDF= max (TF(Ci,t)*IDF) or avg(TF(Ci,t)*IDF) or 其他,如下方法

某综述中看到下面的方法用于特征选择



参考1:http://www.ruanyifeng.com/blog/2013/03/tf-idf.html

参考2:https://en.wikipedia.org/wiki/Tf%E2%80%93idf

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 这个系列的第六个主题,主要谈一些搜索引擎相关的常见技术。 1995年是搜索引擎商业公司发展的重要起点,《浅谈推荐系...
    我偏笑_NSNirvana阅读 11,681评论 3 24
  • 想要提取一篇文章的 关键词 ,最直接的思维方式就是出现的越频繁的词就意味着越重要,但停用词需要除外。一篇文章中出现...
    南极有条沙丁鱼阅读 8,599评论 0 5
  • TF-IDF(term frequency–inverse document frequency),即词频-逆向文...
    snoweek阅读 5,461评论 0 0
  • 用TF-IDF算法提取关键词 假设现在有一篇很长的文章,要从中提取出它的关键字,完全不人工干预,那么怎么做到呢?又...
    Shira0905阅读 9,047评论 0 5
  • 1 缘起 其实开展文本主题特征抽取这个方面的工作,已经近一个多月了。在此之前,部门内部对于数据挖掘、机器学习这块的...
    数据虫巢阅读 13,113评论 11 59