Irene181 Irene181
3年前
手把手教会你使用Python进行jieba分词
前言大家好,我是黄伟。上周我们分享了词云,,这次我们来看看分词。我们从之前学习过的wordcloud可以得知它只能进行英文分词,中文暂不支持,这也正是它美中不足的地方,但是有个模块正好弥补了这一点,它就是jieba,中文名结巴,没错,你没听错也没看错,就是结巴。一、jieba的使用1.安装jieba的安装不管在哪个地方安装都是一个老大难的问题,这也真是让小
Aidan075 Aidan075
3年前
一款高颜值的词云包让我拍案叫绝
相信大家也都通过各种渠道了解了老干妈与鹅厂的爱恨纠缠,当然其中还混入了迷惑行为的“骗子”、吃瓜吃得飞起的“阿里系”以及连称此事与我无关的“某搜索引擎”。不过这是一篇技术文,所以无心管他到底是谁的老千妈,一心只想给大家介绍这个惊艳的好东西。我事先分别用python爬取了腾讯和老干妈的回应微博下的评论(老干妈没有微博,换成了老干妈警方公告下的评论),jieba分
Wesley13 Wesley13
2年前
NLP(十二)依存句法分析的可视化及图分析
  依存句法分析的效果虽然没有像分词、NER的效果来的好,但也有其使用价值,在日常的工作中,我们免不了要和其打交道。笔者这几天一直在想如何分析依存句法分析的结果,一个重要的方面便是其可视化和它的图分析。  我们使用的NLP工具为jieba和LTP,其中jieba用于分词,LTP用于词性标注和句法分析,需要事件下载pos.model和parser.mo
Stella981 Stella981
2年前
Jieba分词Python简单实现
上一章分享了IKAnalyzer中文分词及词频统计基于Hadoop的MapReducer框架Java实现。这次将与大家分享Jieba中文分词Python简单实现,由于Jieba分词是基于词频最大切分组合,所以不用做词频统计,可以直接得到其关键字。1、安装jieba安装方式可以查看博主的中文分词工具(http://my.oschina.net/ea
Python进阶者 Python进阶者
11个月前
麻烦看下这个表格宏命令如何修复?
大家好,我是皮皮。一、前言前几天在Python最强王者交流群【🏖Vivi許】问了一个Python操作Excel表格的问题,一起来看看吧。二、实现过程这里【哎呦喂是豆子~】、【巭孬🕷】给了一个思路,jieba分词强大的Python中文分词。原来是分类。。