• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    python 爬取哔哩哔哩up主信息和投稿视频

    项目地址:

    https://github.com/cgDeepLearn/BilibiliCrawler

     项目特点

    1. 采取了一定的反反爬策略。
    2. Bilibili更改了用户页面的api, 用户抓取解析程序需要重构。

    快速开始

    1. 拉取项目, git clone https://github.com/cgDeepLearn/BilibiliCrawler.git
    2. 进入项目主目录,安装虚拟环境crawlenv(请参考使用说明里的虚拟环境安装)。
    3. 激活环境并在主目录运行crawl,爬取结果将保存在data目录csv文件中。
    ource activate crawlenv
    python initial.py file  # 初始化file模式
    python crawl_user.py file 1 100  # file模式,1 100是开始、结束bilibili的uid
    

    进入data目录查看抓取的数据,是不是很简单!

    如果需要使用数据库保存和一些其他的设置,请看下面的使用说明

    使用说明

    1.拉取项目

    git clone https://github.com/cgDeepLearn/BilibiliCrawler.git

    2.进入项目主目录, 安装虚拟环境

    conda create -n crawlenv python=3.6
    source activate crawlenv  # 激活虚拟环境
    pip install -r requirements.txt
    virtualenv crawlenv
    source crawlenv/bin/activate  # 激活虚拟环境,windows下不用source
    pip install -r requirements.txt  # 安装项目依赖

    3. 修改配置文件

    进入config目录,修改config.ini配置文件(默认使用的是postgresql数据库,如果你是使用的是postgresql,只需要将其中的参数替换成你的,下面其他的步骤可以忽略) 数据库配置选择其中一个你本地安装的即可,将参数更换成你的 如果你需要更自动化的数据库配置,请移步我的DB_ORM项目

    [db_mysql]
    user = test
    password = test
    host = localhost
    port = 3306
    dbname = testdb
    
    [db_postgresql]
    user = test
    password = test
    host = localhost
    port = 5432
    dbname = testdb

    然后修改conf.py中获取配置文件的函数

    def get_db_args():
        """
        获取数据库配置信息
        """
        return dict(CONFIG.items('db_postgresql'))  # 如果安装的是mysql,请将参数替换为db_mysql

    进入db目录,修改basic.py的连接数据库的DSN

    # connect_str = "postgresql+psycopg2://{}:{}@{}:{}/{}".format(kwargs['user'], kwargs['password'], kwargs['host'], kwargs['port'], kwargs['dbname'])
    # 若使用的是mysql,请将上面的connect_str替换成下面的
    connect_str = "mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8".format(kwargs['user'], kwargs['password'], kwargs['host'], kwargs['port'], kwargs['dbname'])
    # sqlite3,mongo等请移步我的DB_ORM项目,其他一些数据库也将添加支持

    4. 运行爬虫

    python initial.py db # db模式,file模式请将db换成file
    # file模式会将抓取结果保存在data目录
    # db模式会将数据保存在设置好的数据库中
    # 若再次以db模式运行将会drop所有表后再create,初次运行后请慎重再次使用!!!
    # 如果修改添加了表,并不想清空数据,请运行 python create_all.py
    python crawl_user.py db 1 10000 # crawl_user 抓取用户数据,db 保存在数据库中, 1 10000为抓取起止id
    python crawl_video_ajax.py db 1 100 # crawl_video_ajax 抓取视频ajax信息保存到数据库中,
    python crawl_user_video.py db 1 10000 #同时抓取user 和videoinfo
    # 示例为uid从1到100的user如果有投稿视频则抓取其投稿视频的信息,
    # 若想通过视频id逐个抓取请运行python crawl_video_by_aid.py db 1 1000

    程序内已进行了一些抓取速率的设置,但各机器cpu、mem不同抓取速率也不同,请酌情修改
    太快太慢请修改各crawl中的sleepsec参数,ip会被限制访问频率,overspeed会导致爬取数据不全,
    之后会添加运行参数speed(high, low),不用再手动配置速率

    爬取日志在logs目录
    user, video分别为用户和视频的爬取日志
    storage为数据库日志 如需更换log格式,请修改logger模块

    linux下运行python ......前面加上nohup,例如:

    nohup python crawl_user db 1 10000

    程序输出保存文件,默认会包存在主目录额nohup.out文件中,添加 > fielname就会保存在设置的文件中:

    nohup python crawl_video_ajax.py db 1 1000 > video_ajaxup_1_1000.out  # 输出将保存在video_ajaxup_1_1000.out中

    程序多线程使用的生产者消费者模式中产生了程序运行的状况的打印信息,类似如下

    produce 1_1
    consumed 1_1
    ...

    如想运行更快,请在程序各项设置好后注释掉其中的打印程序

    # utils/pcModels.py
    print('[+] produce %s_%s' % (index, pitem))  # 请注释掉
    
    print('[-] consumed %s_%s\n' % (index, data))  # 请注释掉

    更多

    项目是单机多线程,若想使用分布式爬取,请参考Crawler-Celery

    以上就是python 爬取哔哩哔哩up主信息和投稿视频的详细内容,更多关于python 爬取哔哩哔哩的资料请关注脚本之家其它相关文章!

    您可能感兴趣的文章:
    • python b站视频下载的五种版本
    • 基于python对B站收藏夹按照视频发布时间进行排序的问题
    • 教你如何使用Python下载B站视频的详细教程
    • 利用python+ffmpeg合并B站视频及格式转换的实例代码
    • ffmpeg+Python实现B站MP4格式音频与视频的合并示例代码
    • python 爬取B站原视频的实例代码
    • Python如何爬取b站热门视频并导入Excel
    • Python如何实现爬取B站视频
    • python3写爬取B站视频弹幕功能
    上一篇:OpenCV-Python直方图均衡化实现图像去雾
    下一篇:Python中json.load()和json.loads()有哪些区别
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    python 爬取哔哩哔哩up主信息和投稿视频 python,爬取,哔哩,主,信息,