python3.7生成的词云,显示成功,却没有图片?
#以下是写在idle中的代码importjiebaimportwordcloudtxt="从来就没有什么救世主,也不靠神仙皇帝\我们要创造人类的幸福,全靠我们自己\旧世界...
#以下是写在idle中的代码
import jieba
import wordcloud
txt="从来就没有什么救世主,也不靠神仙皇帝\
我们要创造人类的幸福,全靠我们自己\
旧世界打个落花流水,奴隶们起来起来。"
w=wordcloud.WordCloud(width=1000,\
font_path="msyh.ttc",height=700)
w.generate(" ".join(jieba.lcut(txt)))
w.to_file("aaaaa.png")
下面是输出结果
Building prefix dict from the default dictionary ...
Loading model from cache C:\Users\张子成\AppData\Local\Temp\jieba.cache
Loading model cost 0.907 seconds.
Prefix dict has been built succesfully. 展开
import jieba
import wordcloud
txt="从来就没有什么救世主,也不靠神仙皇帝\
我们要创造人类的幸福,全靠我们自己\
旧世界打个落花流水,奴隶们起来起来。"
w=wordcloud.WordCloud(width=1000,\
font_path="msyh.ttc",height=700)
w.generate(" ".join(jieba.lcut(txt)))
w.to_file("aaaaa.png")
下面是输出结果
Building prefix dict from the default dictionary ...
Loading model from cache C:\Users\张子成\AppData\Local\Temp\jieba.cache
Loading model cost 0.907 seconds.
Prefix dict has been built succesfully. 展开
展开全部
1.对文本数据进行分词,也是众多NLP文本处理的第一步,对于wordcloud中的process_text()方法,主要是停词的处理.
2.计算每个词在文本中出现的频率,生成一个哈希表。词频计算相当于各种分布式计算平台的第一案例wordcount, 和各种语言的hello world 程序具有相同的地位了,呵呵。
3.根据词频的数值按比例生成一个图片的布局,类IntegralOccupancyMap是该词云的算法所在,是词云的数据可视化方式的核心。
4.将词按对应的词频在词云布局图上生成图片,核心方法是generate_from_frequencies,不论是generate()还是generate_from_text()都最终到generate_from_frequencies
5.完成词云上各词的着色,默认是随机着色
2.计算每个词在文本中出现的频率,生成一个哈希表。词频计算相当于各种分布式计算平台的第一案例wordcount, 和各种语言的hello world 程序具有相同的地位了,呵呵。
3.根据词频的数值按比例生成一个图片的布局,类IntegralOccupancyMap是该词云的算法所在,是词云的数据可视化方式的核心。
4.将词按对应的词频在词云布局图上生成图片,核心方法是generate_from_frequencies,不论是generate()还是generate_from_text()都最终到generate_from_frequencies
5.完成词云上各词的着色,默认是随机着色
本回答被网友采纳
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询