侯体宗的博客
  • 首页
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

python实现TF-IDF算法解析

Python  /  管理员 发布于 7年前   233

TF-IDF(term frequencyCinverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。

同样,理论我这里不再赘述,因为和阮一峰大神早在2013年就将TF-IDF用一种非常通俗的方式讲解出来

TF-IDF与余弦相似性的应用(一):自动提取关键词

材料

1.语料库(已分好词)
2.停用词表(哈工大停用词表)
3.python3.5

语料库的准备

这里使用的语料库是《人民日报》2015年1月16日至1月18日的发表的新闻。并且在进行TFIDF处理之前已经进行了人工分词(当然也可以使用jieba分词,但效果不好)

三天的新闻篇章数量如下:

 

语料库中共103篇新闻。每篇新闻存入在txt文件中,编码为UTF-8无BOM

这里放一篇文章示例下:

我在自己的项目路径下新建一个corpus的文件夹,用于存放已经分好词待计算的语料。corpus文件夹的架构如下:

2015年1月16日至1月18日共三天,每天可获取的新闻分了四版,因此针对每一天下的每一版我又分别建了编号为1、2、3、4的文件夹,用于存放每一版的新闻。

其实也没必要这么麻烦,可以直接把所有的新闻都放到一个文件夹下,只是我个人的文件管理习惯。当然放到数据库里面更好。

关于停用词表

较好用的停用词表有哈工大停用词表、百度停用词表、川大停用词表,网上一查一大堆。我这里选择的是哈工大停用词表。

代码实现

# -*- coding: utf-8 -*-# @Date   : 2017-04-11 09:31:55# @Author  : Alan Lau ([email protected])# @Language : Python3.5import osimport codecsimport mathimport operatordef fun(filepath): # 遍历文件夹中的所有文件,返回文件list  arr = []  for root, dirs, files in os.walk(filepath):    for fn in files:      arr.append(root+"\\"+fn)  return arrdef wry(txt, path): # 写入txt文件  f = codecs.open(path, 'a', 'utf8')  f.write(txt)  f.close()  return pathdef read(path): # 读取txt文件,并返回list  f = open(path, encoding="utf8")  data = []  for line in f.readlines():    data.append(line)  return datadef toword(txtlis): # 将一片文章按照‘/'切割成词表,返回list  wordlist = []  alltxt = ''  for i in txtlis:    alltxt = alltxt+str(i)  ridenter = alltxt.replace('\n', '')  wordlist = ridenter.split('/')  return wordlistdef getstopword(path): # 获取停用词表  swlis = []  for i in read(path):    outsw = str(i).replace('\n', '')    swlis.append(outsw)  return swlisdef getridofsw(lis, swlist): # 去除文章中的停用词  afterswlis = []  for i in lis:    if str(i) in swlist:      continue    else:      afterswlis.append(str(i))  return afterswlisdef freqword(wordlis): # 统计词频,并返回字典  freword = {}  for i in wordlis:    if str(i) in freword:      count = freword[str(i)]      freword[str(i)] = count+1    else:      freword[str(i)] = 1  return freworddef corpus(filelist, swlist): # 建立语料库  alllist = []  for i in filelist:    afterswlis = getridofsw(toword(read(str(i))), swlist)    alllist.append(afterswlis)  return alllistdef wordinfilecount(word, corpuslist): # 查出包含该词的文档数  count = 0 # 计数器  for i in corpuslist:    for j in i:      if word in set(j): # 只要文档出现该词,这计数器加1,所以这里用集合        count = count+1      else:        continue  return countdef tf_idf(wordlis, filelist, corpuslist): # 计算TF-IDF,并返回字典  outdic = {}  tf = 0  idf = 0  dic = freqword(wordlis)  outlis = []  for i in set(wordlis):    tf = dic[str(i)]/len(wordlis) # 计算TF:某个词在文章中出现的次数/文章总词数    # 计算IDF:log(语料库的文档总数/(包含该词的文档数+1))    idf = math.log(len(filelist)/(wordinfilecount(str(i), corpuslist)+1))    tfidf = tf*idf # 计算TF-IDF    outdic[str(i)] = tfidf  orderdic = sorted(outdic.items(), key=operator.itemgetter(    1), reverse=True) # 给字典排序  return orderdicdef befwry(lis): # 写入预处理,将list转为string  outall = ''  for i in lis:    ech = str(i).replace("('", '').replace("',", '\t').replace(')', '')    outall = outall+'\t'+ech+'\n'  return outalldef main():  swpath = r'D:\Alan\myBlog\20170411《人民日报》TFIDF\code\哈工大停用词表.txt'#停用词表路径  swlist = getstopword(swpath) # 获取停用词表列表  filepath = r'D:\Alan\myBlog\20170411《人民日报》TFIDF\corpus'  filelist = fun(filepath) # 获取文件列表  wrypath = r'D:\Alan\myBlog\20170411《人民日报》TFIDF\result\TFIDF.txt'  corpuslist = corpus(filelist, swlist) # 建立语料库  outall = ''  for i in filelist:    afterswlis = getridofsw(toword(read(str(i))), swlist) # 获取每一篇已经去除停用的词表    tfidfdic = tf_idf(afterswlis, filelist, corpuslist) # 计算TF-IDF    titleary = str(i).split('\\')    title = str(titleary[-1]).replace('utf8.txt', '')    echout = title+'\n'+befwry(tfidfdic)    print(title+' is ok!')    outall = outall+echout  print(wry(outall, wrypath)+' is ok!')if __name__ == '__main__':  main()

运行效果:

最终结果

这里放两篇新闻的TFIDF

可以看到,第一篇新闻的关键词可以认为为:核工业、发展、安全

第二篇新闻:习近平总书记、廉政、党风

关于\u3000\u3000这个问题实在不知道怎么替换掉,各种方法使用过了,不知哪位大神看到恳请指点下。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。


  • 上一条:
    利用Hyperic调用Python实现进程守护
    下一条:
    python实现xlsx文件分析详解
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(95个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客