• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    Python爬虫自动化爬取b站实时弹幕实例方法

    最近央视新闻记者王冰冰以清除可爱和专业的新闻业务水平深受众多网友喜爱,b站也有很多up主剪辑了关于王冰冰的视频。我们都是知道b站是一个弹幕网站,那你知道如何爬取b站实时弹幕吗?本文以王冰冰视频弹幕为例,向大家介绍Python爬虫实现自动化爬取b站实时弹幕的过程。

    1、导入需要的库

    import jieba # 分词
    from wordcloud import WordCloud # 词云
    from PIL import Image # 图片处理
    import numpy as np # 图片处理
    import matplotlib.pyplot as plt # 画图

    2、 jieba分词

    所谓的分词就是将一句话分成一个或几个词语的形式,

    分词代码

    # 读取停用词库,注意编码应为‘utf8'
    f = open('小夜斗的停用词表.txt', encoding='utf8')
    stopwords = f.read().split('\n')
    print(stopwords) # 打印停用词
    f.close() # 关闭停用词文件

    3、打印出的为一个停用词列表

    with open("冰冰vlog2.txt", "r", encoding='utf8') as fp:
    text = fp.read()

    4、读取冰冰弹幕数据文件的操作,将其保存到text变量中

    segs = jieba.cut(text) # 进行jieba分词
    mytext_list = [] # 构建一个容纳过滤掉停用词的冰冰弹幕数据文件
    # 文本清洗
    for seg in segs: # 循环遍历每一个分词文本
      # 如果该词不属于停用词表 并且非空 长度不为1
      if seg not in stopwords and seg != "" and len(seg) != 1:
        # 将该词语添加到mytext_list列表中
        mytext_list.append(seg.replace(" ", ""))
    print(mytext_list) # 打印过滤后的冰冰弹幕数据

    5、获取过滤停用词后的冰冰弹幕数据

    cloud_text = ",".join(mytext_list) # 连接列表里面的词语
    print(cloud_text)

    到此这篇关于Python爬虫自动化爬取b站实时弹幕实例方法的文章就介绍到这了,更多相关Python爬虫如何实现自动化爬取b站实时弹幕内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • python实现百度文库自动化爬取
    • Python自动化爬取天眼查数据的实现
    上一篇:python 实现的车牌识别项目
    下一篇:5分钟快速掌握Python定时任务框架的实现
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    Python爬虫自动化爬取b站实时弹幕实例方法 Python,爬虫,自动化,爬取,