• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    python爬虫之爬取笔趣阁小说

    前言

    为了上班摸鱼方便,今天自己写了个爬取笔趣阁小说的程序。好吧,其实就是找个目的学习python,分享一下。

    一、首先导入相关的模块

    import os
    import requests
    from bs4 import BeautifulSoup

    二、向网站发送请求并获取网站数据

    网站链接最后的一位数字为一本书的id值,一个数字对应一本小说,我们以id为1的小说为示例。

    进入到网站之后,我们发现有一个章节列表,那么我们首先完成对小说列表名称的抓取

    # 声明请求头
    headers = {
    	'User-Agent': 'Mozilla/5.0 (Windows NT 10.0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36'
    }
    
    # 创建保存小说文本的文件夹
    if not os.path.exists('./小说'):
        os.mkdir('./小说/')
        
    # 访问网站并获取页面数据
    response = requests.get('http://www.biquw.com/book/1/').text
    print(response)
    

    写到这个地方同学们可能会发现了一个问题,当我去正常访问网站的时候为什么返回回来的数据是乱码呢?

    这是因为页面html的编码格式与我们python访问并拿到数据的解码格式不一致导致的,python默认的解码方式为utf-8,但是页面编码可能是GBK或者是GB2312等,所以我们需要让python代码很具页面的解码方式自动变化

    #### 重新编写访问代码
    ```python
    response = requests.get('http://www.biquw.com/book/1/')
    response.encoding = response.apparent_encoding
    print(response.text)
    
    '''
    这种方式返回的中文数据才是正确的
    '''
    

    三、拿到页面数据之后对数据进行提取

    当大家通过正确的解码方式拿到页面数据之后,接下来需要完成静态页面分析了。我们需要从整个网页数据中拿到我们想要的数据(章节列表数据)

    1.首先打开浏览器

    2.按F12调出开发者工具

    3.选中元素选择器

    4.在页面中选中我们想要的数据并定位元素

    5.观察数据所存在的元素标签

    '''
    根据上图所示,数据是保存在a标签当中的。a的父标签为li,li的父标签为ul标签,ul标签之上为div标签。所以如果想要获取整个页面的小说章节数据,那么需要先获取div标签。并且div标签中包含了class属性,我们可以通过class属性获取指定的div标签,详情看代码~
    '''
    # lxml: html解析库 将html代码转成python对象,python可以对html代码进行控制
    soup = BeautifulSoup(response.text, 'lxml')
    book_list = soup.find('div', class_='book_list').find_all('a')
    # soup对象获取批量数据后返回的是一个列表,我们可以对列表进行迭代提取
    for book in book_list:
        book_name = book.text
        # 获取到列表数据之后,需要获取文章详情页的链接,链接在a标签的href属性中
        book_url = book['href']
    

    四、获取到小说详情页链接之后进行详情页二次访问并获取文章数据

    book_info_html = requests.get('http://www.biquw.com/book/1/' + book_url, headers=headers)
    book_info_html.encoding = book_info_html.apparent_encoding
    soup = BeautifulSoup(book_info_html.text, 'lxml')
    

    五、对小说详情页进行静态页面分析

    info = soup.find('div', id='htmlContent')
    print(info.text)

    六、数据下载

    with open('./小说/' + book_name + '.txt', 'a', encoding='utf-8') as f:
        f.write(info.text)

    最后让我们看一下代码效果吧~

    抓取的数据


    到此这篇关于python爬虫之爬取笔趣阁小说的文章就介绍到这了,更多相关python爬取小说内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • python 爬取国内小说网站
    • Python爬虫入门教程02之笔趣阁小说爬取
    • python 爬取小说并下载的示例
    • python爬取”顶点小说网“《纯阳剑尊》的示例代码
    • Python爬取365好书中小说代码实例
    • Python实现的爬取小说爬虫功能示例
    • Python scrapy爬取起点中文网小说榜单
    上一篇:python获取淘宝服务器时间的代码示例
    下一篇:python文件名批量重命名脚本实例代码
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    python爬虫之爬取笔趣阁小说 python,爬虫,之爬,取笔,趣阁,