• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    python实现Scrapy爬取网易新闻

    1. 新建项目

    在命令行窗口下输入scrapy startproject scrapytest, 如下


    然后就自动创建了相应的文件,如下

    2. 修改itmes.py文件

    打开scrapy框架自动创建的items.py文件,如下

    # Define here the models for your scraped items
    #
    # See documentation in:
    # https://docs.scrapy.org/en/latest/topics/items.html
    
    import scrapy
    
    
    class ScrapytestItem(scrapy.Item):
     # define the fields for your item here like:
     # name = scrapy.Field()
     pass
    

    编写里面的代码,确定我要获取的信息,比如新闻标题,url,时间,来源,来源的url,新闻的内容等

    class ScrapytestItem(scrapy.Item):
     # define the fields for your item here like:
     # name = scrapy.Field()
    
     title = scrapy.Field()
     timestamp = scrapy.Field()
     category = scrapy.Field()
     content = scrapy.Field()
     url = scrapy.Field()
     
     pass
    

    3. 定义spider,创建一个爬虫模板

    3.1 创建crawl爬虫模板

    在命令行窗口下面 创建一个crawl爬虫模板(注意在文件的根目录下面,指令检查别输入错误,-t 表示使用后面的crawl模板),会在spider文件夹生成一个news163.py文件

    scrapy genspider -t crawl codingce news.163.com

    然后看一下这个‘crawl'模板和一般的模板有什么区别,多了链接提取器还有一些爬虫规则,这样就有利于我们做一些深度信息的爬取

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    
    
    class CodingceSpider(CrawlSpider):
     name = 'codingce'
     allowed_domains = ['163.com']
     start_urls = ['http://news.163.com/']
    
     rules = (
      Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
     )
    
     def parse_item(self, response):
      item = {}
      #item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()
      #item['name'] = response.xpath('//div[@id="name"]').get()
      #item['description'] = response.xpath('//div[@id="description"]').get()
      return item
    

    3.2 补充知识:selectors选择器

    支持xpath和css,xpath语法如下

    /html/head/title
    
    /html/head/title/text()
    
    //td (深度提取的话就是两个/)
    
    //div[@class=‘mine']

    3.3. 分析网页内容

    在谷歌chrome浏览器下,打在网页新闻的网站,选择查看源代码,确认我们可以获取到itmes.py文件的内容(其实那里面的要获取的就是查看了网页源代码之后确定可以获取的)

    确认标题、时间、url、来源url和内容可以通过检查和标签对应上,比如正文部分

    主体

    标题

    时间

    分类

    4. 修改spider下创建的爬虫文件

    4.1 导入包

    打开创建的爬虫模板,进行代码的编写,除了导入系统自动创建的三个库,我们还需要导入news.items(这里就涉及到了包的概念了,最开始说的–init–.py文件存在说明这个文件夹就是一个包可以直接导入,不需要安装)

    注意:使用的类ExampleSpider一定要继承自CrawlSpider,因为最开始我们创建的就是一个‘crawl'的爬虫模板,对应上

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from scrapytest.items import ScrapytestItem
    
    
    class CodingceSpider(CrawlSpider):
     name = 'codingce'
     allowed_domains = ['163.com']
    
     start_urls = ['http://news.163.com/']
    
     rules = (
      Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
     )
    
     def parse(self, response):
      item = {}
      content = 'br>'.join(response.css('.post_content p::text').getall())
      if len(content)  100:
       return
    
      return item
    

    Rule(LinkExtractor(allow=r'..163.com/\d{2}/\d{4}/\d{2}/..html'), callback=‘parse', follow=True), 其中第一个allow里面是书写正则表达式的(也是我们核心要输入的内容),第二个是回调函数,第三个表示是否允许深入

    最终代码

    from datetime import datetime
    import re
    
    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from scrapytest.items import ScrapytestItem
    
    
    class CodingceSpider(CrawlSpider):
     name = 'codingce'
     allowed_domains = ['163.com']
    
     start_urls = ['http://news.163.com/']
    
     rules = (
      Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
     )
    
     def parse(self, response):
      item = {}
      content = 'br>'.join(response.css('.post_content p::text').getall())
      if len(content)  100:
       return
    
      title = response.css('h1::text').get()
    
      category = response.css('.post_crumb a::text').getall()[-1]
      print(category, "=======category")
      time_text = response.css('.post_info::text').get()
      timestamp_text = re.search(r'\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}', time_text).group()
      timestamp = datetime.fromisoformat(timestamp_text)
      print(title, "=========title")
      print(content, "===============content")
      print(timestamp, "==============timestamp")
      print(response.url)
      return item
    

    到此这篇关于python实现Scrapy爬取网易新闻的文章就介绍到这了,更多相关python Scrapy爬取网易新闻内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • Python爬虫之教你利用Scrapy爬取图片
    • python基于scrapy爬取京东笔记本电脑数据并进行简单处理和分析
    • Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单
    • 如何在scrapy中集成selenium爬取网页的方法
    • 使用scrapy ImagesPipeline爬取图片资源的示例代码
    • scrapy与selenium结合爬取数据(爬取动态网站)的示例代码
    • Python利用Scrapy框架爬取豆瓣电影示例
    • Python scrapy增量爬取实例及实现过程解析
    • Python爬虫实战之使用Scrapy爬取豆瓣图片
    上一篇:Opencv图像处理之详解掩膜mask
    下一篇:NumPy 矩阵乘法的实现示例
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    python实现Scrapy爬取网易新闻 python,实现,Scrapy,爬取,网易,