需要安装的库
jieba 分词
re
docx
pdfplumber 获取pdf文本
numpy
wordcloud 词云
可以批量获取pdf文本的词频 需要把所有pdf文件放到pdf文件夹中
其中stopwords.txt 是停用词文件
如果需要分出特定的词可以在userdict文件中写入
配置好后运行pdfreader.py文件就可以了
偶然弄的小工具,希望能帮助到你,喜欢的可以点个star
| Name | Name | Last commit message | Last commit date | |
|---|---|---|---|---|
Latest commit | ||||