• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    python爬虫设置每个代理ip的简单方法

    python爬虫设置每个代理ip的方法:

    1.添加一段代码,设置代理,每隔一段时间换一个代理。

    urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。假如一个网站它会检测某一段时间某个 IP 的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,网站君都不知道是谁在捣鬼了,这酸爽! 下面一段代码说明了代理的设置用法。

    import urllib2
    enable_proxy = True
    proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
    null_proxy_handler = urllib2.ProxyHandler({})
    if enable_proxy:
        opener = urllib2.build_opener(proxy_handler)
    else:
        opener = urllib2.build_opener(null_proxy_handler)
    urllib2.install_opener(opener)

    2.Timeout 设置,可以解决一些网站出现响应过慢而造成的影响问题。

    之前已经说过urlopen 方法了,第三个参数就是 timeout 的设置,可以设置等待多久超时,为了解决一些网站实在响应过慢而造成的影响。 例如下面的代码,如果第二个参数 data 为空那么要特别指定是 timeout 是多少,写明形参,如果 data 已经传入,则不必声明。

    import urllib2
    response = urllib2.urlopen('http://www.baidu.com', timeout=10)
    import urllib2
    response = urllib2.urlopen('http://www.baidu.com',data, 10)

    以上就是Python爬虫中设置代理的方法。结尾的时候我们补充了timeout的用法,本意是希望可以让大家需要网络过慢问题能有好的解决出路。

    不过,地址代理方面用的较为多,所以要着重学习。如果需要用的ip可以试试太阳http,爬虫采集、营销推广、工作室等行业首选的IP产品,全国城市线路数量200+,API调用频率不限制,不限并发,24小时不断更新IP池。

    知识点扩展:

    代码扩展:

    from bs4 import BeautifulSoup
    import requests
    import random
    
    def get_ip_list(url, headers):
     web_data = requests.get(url, headers=headers)
     soup = BeautifulSoup(web_data.text, 'lxml')
     ips = soup.find_all('tr')
     ip_list = []
     for i in range(1, len(ips)):
      ip_info = ips[i]
      tds = ip_info.find_all('td')
      ip_list.append(tds[1].text + ':' + tds[2].text)
     return ip_list
    
    def get_random_ip(ip_list):
     proxy_list = []
     for ip in ip_list:
      proxy_list.append('http://' + ip)
     proxy_ip = random.choice(proxy_list)
     proxies = {'http': proxy_ip}
     return proxies
    
    if __name__ == '__main__':
     url = 'http://www.xicidaili.com/nn/'
     headers = {
     'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.17 (KHTML, like Gecko) Chrome/24.0.1312.60 Safari/537.17'
     }
     ip_list = get_ip_list(url, headers=headers)
     proxies = get_random_ip(ip_list)
     print(proxies)

    到此这篇关于python爬虫设置每个代理ip的简单方法的文章就介绍到这了,更多相关python爬虫如何设置每个代理ip内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • Python爬虫技术
    • Python爬虫爬取商品失败处理方法
    • Python获取江苏疫情实时数据及爬虫分析
    • Python爬虫之Scrapy环境搭建案例教程
    • Python爬虫中urllib3与urllib的区别是什么
    • 教你如何利用python3爬虫爬取漫画岛-非人哉漫画
    • Python趣味爬虫之爬取爱奇艺热门电影
    • python 简单的股票基金爬虫
    • 零基础学习Python爬虫
    上一篇:python之多种方式传递函数方法案例讲解
    下一篇:numpy创建神经网络框架
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    python爬虫设置每个代理ip的简单方法 python,爬虫,设置,每个,代理,