• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    python 爬取壁纸网站的示例

    本次爬虫用到的网址是:

    http://www.netbian.com/index.htm: 彼岸桌面.里面有很多的好看壁纸,而且都是可以下载高清无损的,还比较不错,所以我就拿这个网站练练手。

    作为一个初学者,刚开始的时候,无论的代码的质量如何,总之代码只要能够被正确完整的运行那就很能够让自己开心的,如同我们的游戏一样,能在短时间内得到正向的反馈,我们就会更有兴趣去玩。

    学习也是如此,只要我们能够在短期内得到学习带来的反馈,那么我们的对于学习的欲望也是强烈的。

    作为一个菜鸡,能够完整的完整此次爬虫程序的编写,那便是一个最大的收货,但其实我在此次过程中的收获远不止此。

    好的代码其实应该具有以下特性

    1. 能够满足最关键的需求
    2. 容易理解
    3. 有充分的注释
    4. 使用规范的命名
    5. 没有明显的安全问题
    6. 经过充分的测试

    就以充分的测试为例,经常写代码的就应该知道,尽管多数时候你的代码没有BUG,但那仅仅说明只是大多数情况下是稳定的,但是在某些条件下就会出错(达到出错条件,存在逻辑问题的时候等)。这是肯定的。至于什么原因,不同的代码有不同的原因。如果代码程序都是一次就能完善的,那么我们使用的软件的软件就不会经常更新了。其他其中的道理就不一 一道说了,
    久而自知

    好的代码一般具有的5大特性

    1.便于维护
    2.可复用
    3.可扩展
    4.强灵活性
    5.健壮性

    经过我的代码运行我发现时间复杂度比较大,因此这是我将要改进的地方,但也不止于此。也有很多利用得不合理的地方,至于存在的不足的地方就待我慢慢提升改进吧!

    路过的大佬欢迎留下您宝贵的代码修改意见,

    完整代码如下

    import os
    import bs4
    import re
    import time
    import requests
    from bs4 import BeautifulSoup
    
    def getHTMLText(url, headers):
      """向目标服务器发起请求并返回响应"""
      try:
        r = requests.get(url=url, headers=headers)
        r.encoding = r.apparent_encoding
        soup = BeautifulSoup(r.text, "html.parser")
        return soup
      except:
        return ""
    
    def CreateFolder():
      """创建存储数据文件夹"""
      flag = True
      while flag == 1:
        file = input("请输入保存数据文件夹的名称:")
        if not os.path.exists(file):
          os.mkdir(file)
          flag = False
        else:
          print('该文件已存在,请重新输入')
          flag = True
    
      # os.path.abspath(file) 获取文件夹的绝对路径
      path = os.path.abspath(file) + "\\"
      return path
    
    def fillUnivList(ulist, soup):
      """获取每一张图片的原图页面"""
      # [0]使得获得的ul是 class 'bs4.BeautifulSoup'> 类型
      div = soup.find_all('div', 'list')[0]
      for a in div('a'):
        if isinstance(a, bs4.element.Tag):
          hr = a.attrs['href']
          href = re.findall(r'/desk/[1-9]\d{4}.htm', hr)
          if bool(href) == True:
            ulist.append(href[0])
    
      return ulist
    
    def DownloadPicture(left_url,list,path):
      for right in list:
        url = left_url + right
        r = requests.get(url=url, timeout=10)
        r.encoding = r.apparent_encoding
        soup = BeautifulSoup(r.text,"html.parser")
        tag = soup.find_all("p")
        # 获取img标签的alt属性,给保存图片命名
        name = tag[0].a.img.attrs['alt']
        img_name = name + ".jpg"
        # 获取图片的信息
        img_src = tag[0].a.img.attrs['src']
        try:
          img_data = requests.get(url=img_src)
        except:
          continue
    
        img_path = path + img_name
        with open(img_path,'wb') as fp:
          fp.write(img_data.content)
        print(img_name, "  ******下载完成!")
    
    def PageNumurl(urls):
      num = int(input("请输入爬取所到的页码数:"))
      for i in range(2,num+1):
        u = "http://www.netbian.com/index_" + str(i) + ".htm"
        urls.append(u)
    
      return urls
    
    
    if __name__ == "__main__":
      uinfo = []
      left_url = "http://www.netbian.com"
      urls = ["http://www.netbian.com/index.htm"]
      headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
      }
      start = time.time()
      # 1.创建保存数据的文件夹
      path = CreateFolder()
      # 2. 确定要爬取的页面数并返回每一页的链接
      PageNumurl(urls)
      n = int(input("访问的起始页面:"))
      for i in urls[n-1:]:
        # 3.获取每一个页面的首页数据文本
        soup = getHTMLText(i, headers)
        # 4.访问原图所在页链接并返回图片的链接
        page_list = fillUnivList(uinfo, soup)
        # 5.下载原图
        DownloadPicture(left_url, page_list, path)
    
      print("全部下载完成!", "共" + str(len(os.listdir(path))) + "张图片")
      end = time.time()
      print("共耗时" + str(end-start) + "秒")
    
    

    运行

    部分展示结果如下:

    以上就是python 爬取壁纸网站的示例的详细内容,更多关于python 爬取壁纸网站的资料请关注脚本之家其它相关文章!

    您可能感兴趣的文章:
    • python爬取新闻门户网站的示例
    • Python爬取网站图片并保存的实现示例
    • Python爬虫设置Cookie解决网站拦截并爬取蚂蚁短租的问题
    • python 多线程爬取壁纸网站的示例
    • python爬虫爬取某网站视频的示例代码
    • python爬虫实现爬取同一个网站的多页数据的实例讲解
    • Python实现JS解密并爬取某音漫客网站
    • python 爬取免费简历模板网站的示例
    • Python3 实现爬取网站下所有URL方式
    • 使用python爬取taptap网站游戏截图的步骤
    上一篇:如何用python插入独创性声明
    下一篇:python3两数相加的实现示例
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    python 爬取壁纸网站的示例 python,爬取,壁纸,网,站的,