2018-10-23
阅读量:
1068
如何利用分词比重来制作词云图?
在利用自然语言处理之后,把一段文字,用jieba分词分好了之后,词语也有出现的频数。对这些频数进行排序,再用画图的形式来展现重要的词云图。以西游记的内容文本为例:
导入WordCloud,ImageColorGenerator,STOPWORDS。
#wordcloud库生成词云图
import matplotlib.pyplot as plt
from wordcloud import WordCloud,ImageColorGenerator,STOPWORDS
import jieba
import os
os.chdir('C:\\python_code\\')
text=open('西游记.txt',encoding='gb18030').read()
text_jieba=jieba.cut(text,cut_all=True)
seg=' '.join(text_jieba)
my_wordcloud=WordCloud(
background_color='white',
max_words=200,
stopwords=STOPWORDS,
font_path='C:/Windows/Fonts/simfang.ttf'
).generate(seg)
plt.imshow(my_wordcloud)
plt.axis('off')
plt.show()
最后的结果:







评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论