• 企业400电话
  • 网络优化推广
  • AI电话机器人
  • 呼叫中心
  • 全 部 栏 目

    网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    Python中jieba库的使用方法
    POST TIME:2021-10-18 13:30

    jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。

    精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析

    全模式:将语句中所有可能是词的词语都切分出来,速度很快,但是存在冗余数据

    搜索引擎模式:在精确模式的基础上,对长词再次进行切分

    一、jieba库的安装

    因为 jieba 是一个第三方库,所有需要我们在本地进行安装。

    Windows 下使用命令安装:在联网状态下,在命令行下输入 pip install jieba 进行安装,安装完成后会提示安装成功

     

    在 pyCharm 中安装:打开 settings,搜索 Project Interpreter,在右边的窗口选择 + 号,点击后在搜索框搜索 jieba,点击安装即可

    二、jieba三种模式的使用

    # -*- coding: utf-8 -*-
    import jieba
    
    seg_str = "好好学习,天天向上。"
    
    print("/".join(jieba.lcut(seg_str)))    # 精简模式,返回一个列表类型的结果
    print("/".join(jieba.lcut(seg_str, cut_all=True)))      # 全模式,使用 'cut_all=True' 指定 
    print("/".join(jieba.lcut_for_search(seg_str)))     # 搜索引擎模式
    

    分词效果:

    三、jieba 分词简单应用

    需求:使用 jieba 分词对一个文本进行分词,统计次数出现最多的词语,这里以三国演义为例

    # -*- coding: utf-8 -*-
    import jieba
    
    txt = open("三国演义.txt", "r", encoding='utf-8').read()
    words = jieba.lcut(txt)     # 使用精确模式对文本进行分词
    counts = {}     # 通过键值对的形式存储词语及其出现的次数
    
    for word in words:
        if len(word) == 1:    # 单个词语不计算在内
            continue
        else:
            counts[word] = counts.get(word, 0) + 1    # 遍历所有词语,每出现一次其对应的值加 1
    
    items = list(counts.items())
    items.sort(key=lambda x: x[1], reverse=True)    # 根据词语出现的次数进行从大到小排序
    
    for i in range(3):
        word, count = items[i]
        print("{0:5}{1:>5}".format(word, count))

    统计结果:

     

    你可以随便找一个文本文档,也可以到 https://github.com/coderjas/python-quick 下载上面例子中的文档。

    四、扩展:英文单词统计

    上面的例子统计实现了中文文档中出现最多的词语,接着我们就来统计一下一个英文文档中出现次数最多的单词。原理同上

    # -*- coding: utf-8 -*-
    
    def get_text():
        txt = open("1.txt", "r", encoding='UTF-8').read()
        txt = txt.lower()
        for ch in '!"#$%()*+,-./:;=>?@[\\]^_‘{|}~':
            txt = txt.replace(ch, " ")      # 将文本中特殊字符替换为空格
        return txt
    
    file_txt = get_text()
    words = file_txt.split()    # 对字符串进行分割,获得单词列表
    counts = {}
    
    for word in words:
        if len(word) == 1:
            continue
        else:
            counts[word] = counts.get(word, 0) + 1 
    
    items = list(counts.items())    
    items.sort(key=lambda x: x[1], reverse=True)      
    
    for i in range(5):
        word, count = items[i]
        print("{0:5}->{1:>5}".format(word, count))

    统计结果:

    到此这篇关于Python中jieba库的使用方法的文章就介绍到这了,更多相关Python jieba库内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • 超级好用的4个Python命令行可视化库
    • Python中glob库实现文件名的匹配
    • 学会Python数据可视化必须尝试这7个库
    • 浅谈Python响应式类库RxPy
    • Python下opencv库的安装过程及问题汇总
    • 教你用Python matplotlib库制作简单的动画
    • 总结几个非常实用的Python库
    上一篇:pygame实现滑块接小球游戏
    下一篇:python数据可视化plt库实例详解
  • 相关文章
  • 

    关于我们 | 付款方式 | 荣誉资质 | 业务提交 | 代理合作


    © 2016-2020 巨人网络通讯

    时间:9:00-21:00 (节假日不休)

    地址:江苏信息产业基地11号楼四层

    《增值电信业务经营许可证》 苏B2-20120278

    X

    截屏,微信识别二维码

    微信号:veteran88

    (点击微信号复制,添加好友)

     打开微信