如何用python和jieba分词,统计词频? 100

如何用python和jieba分词,统计词频?如何python分词词频统计?给定要求求解?#-*-coding:utf-8-*-novel=[]#列表,用于存储小说文本t... 如何用python和jieba分词,统计词频?如何python 分词 词频统计 ?给定要求求解?
# -*- coding: utf-8-*-

novel = [] # 列表,用于存储小说文本
textname = '' # 可自行选择文本,要求总大小不得小于1k
textfile = open(textname,'r') # 打开文本文件
# 功能要求:
# - 把文件中的小说文本读入到novel列表中
# - 建议按行读取
# 提示:注意python语言的文件读写操作
textfile.close() # 关闭文本文件

noveldict = {} # 字典,用于存储词汇及其出现次数
for line in novel:
# 功能要求:
# 1.调用分词工具,对每一行文本进行分词,获得分词结果
# 2.对于出现在词典里的词,更新词语出现次数
# 3.对于没出现在词典里的词,加入到词典中
# 提示:注意python语言的列表操作;注意使用分词工具的方法

outputname = 'output.txt' # 输出词汇出现次数的文件
outputfile = open(outputname,'w')
# 功能要求:
# - 将noveldict中的内容输出到文本文件中
# - 包含出现过的词和词语的出现次数,以及自选增加的其他信息(可加分)
# 提示:注意python语言的文件读写操作
outputfile.close()
展开
 我来答
腾讯电脑管家
2018-09-24 · 百度知道官方认证企业
腾讯电脑管家
腾讯电脑管家是腾讯公司推出的免费安全管理软件,能有效预防和解决计算机上常见的安全风险,并帮助用户解决各种电脑“疑难杂症”、优化系统和网络环境,是中国综合能力最强、最稳定的安全软件。
向TA提问
展开全部
 #! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
 
def get_words(txt):
    seg_list = jieba.cut(txt)
    c = Counter()
    for x in seg_list:
        if len(x)>1 and x != '\r\n':
            c[x] += 1
    print('常用词频度统计结果')
    for (k,v) in c.most_common(100):
        print('%s%s %s  %d' % ('  '*(5-len(k)), k, '*'*int(v/3), v))
 
if __name__ == '__main__':
    with codecs.open('19d.txt', 'r', 'utf8') as f:
        txt = f.read()
    get_words(txt)
waketzheng
2018-07-01 · TA获得超过644个赞
知道小有建树答主
回答量:566
采纳率:63%
帮助的人:149万
追问
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式