新建一个新的目录
随便找个地方新建一个目录,比如我在F盘下面新建一个word_cloud文件夹(名字都是随便取),并且打开这个文件夹.
把刚刚下载的msyh.ttc复制到这里.
新建一个my_word_cloud.py在这里.
然后可以在my_word_cloud.py写代码了,首先导入相关的包
##对于NLP(自然语言处理)来说,分词是一步重要的工作,这里使用jieba分词
##对你输入的文章进行分词然后统计等等操作
import jieba
##导入用于用于制作词云图的wordcloud
from wordcloud import WordCloud,ImageColorGenerator
from matplotlib import pyplot as plt
from PIL import Image
import numpy as np
收集文本信息
比如,我现在随便找一篇文章,里面包含大量文字
为什么《钢之炼金术师FA》被称为神作?
想要两者兼得非常难,要说明它的难度,得举个没做到又有分量的作品为例子:老贼的《猎人》《钢炼》是一部涵盖面很广的作品,其中想要探讨的,有人性、战争、宗教、哲学、科学,但受限于【少年漫】这一题材,探索的面虽然广却基本不深入。真正让《钢炼》显得极为成熟的,是“态度“…………..
然后,把这些文字复制并且保存为info.txt,就保存在word_cloud文件夹里面
继续编辑代码
##打开刚刚的info.txt,并且把得到的句柄内容复制给content
with open('info.txt','r',encoding="UTF-8") as file1:
content = "".join(file1.readlines())
##然后使用jieba模块进行对文本分词整理
content_after = "".join(jieba.cut(content,cut_all=True))
##font_path
##使用worldCloud模块对刚刚整理好的分词信息进行处理.
##max_font_size参数是可以调整部分当个词语最大尺寸
##max_words是最大可以允许多少个词去组成这个词云图
##height高度,width宽度,
##background_color背景颜色
wc = WordCloud(font_path="msyh.ttc",background_color="black",max_words=1000,max_font_size=100,
width=1500,height=1500).generate(content)
##使用matplotlib的pyplot来进行最后的渲染出图.
plt.imshow(wc)
##目标文件另存为这个名录下
wc.to_file('wolfcodeTarget.png')