• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    Requests什么的通通爬不了的Python超强反爬虫方案!

    一、前言

    一个非常强的反爬虫方案 —— 禁用所有 HTTP 1.x 的请求!

    现在很多爬虫库其实对 HTTP/2.0 支持得不好,比如大名鼎鼎的 Python 库 —— requests,到现在为止还只支持 HTTP/1.1,啥时候支持 HTTP/2.0 还不知道。

    Scrapy 框架最新版本 2.5.0(2021.04.06 发布)加入了对 HTTP/2.0 的支持,但是官网明确提示,现在是实验性的功能,不推荐用到生产环境,原文如下:

    HTTP/2 support in Scrapy is experimental, and not yet recommended for production environments. Future Scrapy versions may introduce related changes without a deprecation period or warning.

    插一句,Scrapy 中怎么支持 HTTP/2.0 呢?在 settings.py 里面换一下 Download Handlers 即可:

    DOWNLOAD_HANDLERS = {
        'https': 'scrapy.core.downloader.handlers.http2.H2DownloadHandler',
    }

    当前 Scrapy 的 HTTP/2.0 实现的已知限制包括:

    关于其他的一些库,也不必多说了,对 HTTP/2.0 的支持也不好,目前对 HTTP/2.0 支持得还可以的有 hyper 和 httpx,后者更加简单易用一些。

    二、反爬虫

    所以,你想到反爬虫方案了吗?

    如果我们禁用所有的 HTTP/1.x 的请求,是不是能通杀掉一大半爬虫?requests 没法用了,Scrapy 除非升级到最新版本才能勉强用个实验性版本,其他的语言也不用多说,也会杀一大部分。

    而浏览器对 HTTP/2.0 的支持现在已经很好了,所以不会影响用户浏览网页的体验。

    三、措施

    那就让我们来吧!

    这个怎么做呢?其实很简单,在 Nginx 里面配置一下就好了,主要就是加这么个判断就行了:

    if ($server_protocol !~* "HTTP/2.0") {
      return 444;
    }

    就是这么简单,这里 $server_protocol 就是传输协议,其结果目前有三个:HTTP/1.0HTTP/1.1 和 HTTP/2.0,另外判断条件我们使用了 !~* ,意思就是不等于,这里的判断条件就是,如果不是 HTTP/2.0,那就直接返回 444 状态码,444 一般代表 CONNECTION CLOSED WITHOUT RESPONSE,就是不返回任何结果关闭连接。

    我的服务是在 Kubernetes 里面运行的,所以要加这个配置还得改下 Nginx Ingress 的配置,不过还好 https://kubernetes.github.io/ingress-nginx/user-guide/nginx-configuration/annotations/ 预留了一个配置叫做 nginx.ingress.kubernetes.io/server-snippet,利用它我们可以自定义 Nginx 的判定逻辑。

    官方用法如下:

    apiVersion: networking.k8s.io/v1beta1
    kind: Ingress
    metadata:
      annotations:
        nginx.ingress.kubernetes.io/server-snippet: |
            set $agentflag 0;
            if ($http_user_agent ~* "(Mobile)" ){
              set $agentflag 1;
            }
            if ( $agentflag = 1 ) {
              return 301 https://m.example.com;
            }
    

    所以这里,我们只需要改成刚才的配置就好了:

    apiVersion: networking.k8s.io/v1beta1
    kind: Ingress
    metadata:
      annotations:
        nginx.ingress.kubernetes.io/server-snippet: |
          if ($server_protocol !~* "HTTP/2.0") {
            return 444;
          }
    

    大功告成!

    配置完成了,示例网站是:https://spa16.scrape.center/

    我们在浏览器中看下效果:

    可以看到所有请求都是走的 HTTP/2.0,页面完全正常加载。

    然而,我们使用 requests 来请求一下:

    import requests
    response = requests.get('https://spa16.scrape.center/')
    print(response.text)

    非常欢乐的报错:

    Traceback (most recent call last):
      ...
        raise RemoteDisconnected("Remote end closed connection without"
    http.client.RemoteDisconnected: Remote end closed connection without response
     
    During handling of the above exception, another exception occurred:
     
    Traceback (most recent call last):
      ...
        raise MaxRetryError(_pool, url, error or ResponseError(cause))
    requests.packages.urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='spa16.scrape.center', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', RemoteDisconnected('Remote end closed connection without response')))
     
    During handling of the above exception, another exception occurred:
     
    Traceback (most recent call last):
     ...
    requests.exceptions.ProxyError: HTTPSConnectionPool(host='spa16.scrape.center', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', RemoteDisconnected('Remote end closed connection without response')))
    

    如果你用 requests,无论如何都不行的,因为它就不支持 HTTP/2.0。

    那我们换一个支持 HTTP/2.0 的库呢?比如 httpx,安装方法如下:

    pip3 install 'httpx[http2]'

    注意,Python 版本需要在 3.6 及以上才能用 httpx。

    安装好了之后测试下:

    import httpx
    client = httpx.Client(http2=True)
     
    response = client.get('https://spa16.scrape.center/')
    print(response.text)

    结果如下:

    !DOCTYPE html>html lang=en>head>meta charset=utf-8>meta http-equiv=X-UA-Compatible content="IE=edge">meta name=viewport content="width=device-width,initial-scale=1">meta name=referrer content=no-referrer>link rel=icon href=/favicon.ico>title>Scrape | Book/title>link href=/css/chunk-50522e84.e4e1dae6.css rel=prefetch>link href=/css/chunk-f52d396c.4f574d24.css rel=prefetch>link href=/js/chunk-50522e84.6b3e24aa.js rel=prefetch>link href=/js/chunk-f52d396c.f8f41620.js rel=prefetch>link href=/css/app.ea9d802a.css rel=preload as=style>link href=/js/app.b93891e2.js rel=preload as=script>link href=/js/chunk-vendors.a02ff921.js rel=preload as=script>link href=/css/app.ea9d802a.css rel=stylesheet>/head>body>noscript>strong>We're sorry but portal doesn't work properly without JavaScript enabled. Please enable it to continue./strong>/noscript>div id=app>/div>script src=/js/chunk-vendors.a02ff921.js>/script>script src=/js/app.b93891e2.js>/script>/body>/html>
    

    可以看到,HTML 就成功被我们获取到了!这就是 HTTP/2.0 的魔法!

    我们如果把 http2 参数设置为 False 呢?

    import httpx
    client = httpx.Client(http2=False)
     
    response = client.get('https://spa16.scrape.center/')
    print(response.text)

    一样很不幸:

    Traceback (most recent call last):
     ...
        raise RemoteProtocolError(msg)
    httpcore.RemoteProtocolError: Server disconnected without sending a response.
     
    The above exception was the direct cause of the following exception:
      ...
        raise mapped_exc(message) from exc
    httpx.RemoteProtocolError: Server disconnected without sending a response.
    

    所以,这就印证了,只要 HTTP/1.x 通通没法治!可以给 requests 烧香了!

    又一个无敌反爬虫诞生了!各大站长们,安排起来吧~

    到此这篇关于Requests什么的通通爬不了的Python超强反爬虫方案!的文章就介绍到这了,更多相关Python反爬虫内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • 用sleep间隔进行python反爬虫的实例讲解
    • python反爬虫方法的优缺点分析
    • python 常见的反爬虫策略
    • Python常见反爬虫机制解决方案
    • 用python3 urllib破解有道翻译反爬虫机制详解
    • Python反爬虫技术之防止IP地址被封杀的讲解
    • Python3爬虫学习之应对网站反爬虫机制的方法分析
    • Python中常见的反爬机制及其破解方法总结
    上一篇:python使用glob检索文件的操作
    下一篇:python 如何在list中找Topk的数值和索引
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    Requests什么的通通爬不了的Python超强反爬虫方案! Requests,什么,的,通通,爬不,