嘉兴品牌网站,企业网站开发视频,湖北微网站建设费用,潍坊外贸网站建设新建一个新的目录随便找个地方新建一个目录,比如我在F盘下面新建一个word_cloud文件夹(名字都是随便取),并且打开这个文件夹.把刚刚下载的msyh.ttc复制到这里.新建一个my_word_cloud.py在这里.然后可以在my_word_cloud.py写代码了,首先导入相关的包##对于NLP(自然语言处理)来说…新建一个新的目录随便找个地方新建一个目录,比如我在F盘下面新建一个word_cloud文件夹(名字都是随便取),并且打开这个文件夹.把刚刚下载的msyh.ttc复制到这里.新建一个my_word_cloud.py在这里.然后可以在my_word_cloud.py写代码了,首先导入相关的包##对于NLP(自然语言处理)来说分词是一步重要的工作,这里使用jieba分词##对你输入的文章进行分词然后统计等等操作import jieba##导入用于用于制作词云图的wordcloudfrom wordcloud import WordCloud,ImageColorGeneratorfrom matplotlib import pyplot as pltfrom PIL import Imageimport numpy as np收集文本信息比如,我现在随便找一篇文章,里面包含大量文字为什么《钢之炼金术师FA》被称为神作想要两者兼得非常难要说明它的难度得举个没做到又有分量的作品为例子老贼的《猎人》《钢炼》是一部涵盖面很广的作品其中想要探讨的有人性、战争、宗教、哲学、科学但受限于【少年漫】这一题材探索的面虽然广却基本不深入。真正让《钢炼》显得极为成熟的是“态度“…………..然后,把这些文字复制并且保存为info.txt,就保存在word_cloud文件夹里面继续编辑代码##打开刚刚的info.txt,并且把得到的句柄内容复制给contentwith open(info.txt,r,encodingUTF-8) as file1:content .join(file1.readlines())##然后使用jieba模块进行对文本分词整理content_after .join(jieba.cut(content,cut_allTrue))##font_path##使用worldCloud模块对刚刚整理好的分词信息进行处理.##max_font_size参数是可以调整部分当个词语最大尺寸##max_words是最大可以允许多少个词去组成这个词云图##height高度,width宽度,##background_color背景颜色wc WordCloud(font_pathmsyh.ttc,background_colorblack,max_words1000,max_font_size100,width1500,height1500).generate(content)##使用matplotlib的pyplot来进行最后的渲染出图.plt.imshow(wc)##目标文件另存为这个名录下wc.to_file(wolfcodeTarget.png)