• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    如何用python爬取微博热搜数据并保存

    主要用到requests和bf4两个库
    将获得的信息保存在d://hotsearch.txt下

    import requests;
    import bs4
    mylist=[]
    r = requests.get(url='https://s.weibo.com/top/summary?Refer=top_hottopnav=1wvr=6',timeout=10)
    print(r.status_code) # 获取返回状态
    r.encoding=r.apparent_encoding
    demo = r.text
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(demo,"html.parser")
    for link in soup.find('tbody') :
     hotnumber=''
     if isinstance(link,bs4.element.Tag):
    #  print(link('td'))
      lis=link('td')
      hotrank=lis[1]('a')[0].string#热搜排名
      hotname=lis[1].find('span')#热搜名称
      if isinstance(hotname,bs4.element.Tag):
       hotnumber=hotname.string#热搜指数
       pass
      mylist.append([lis[0].string,hotrank,hotnumber,lis[2].string])
    f=open("d://hotsearch.txt","w+")
    for line in mylist:
     f.write('%s %s %s %s\n'%(line[0],line[1],line[2],line[3]))

    知识点扩展:利用python爬取微博热搜并进行数据分析

    爬取微博热搜

    import schedule
    import pandas as pd
    from datetime import datetime
    import requests
    from bs4 import BeautifulSoup
    
    url = "https://s.weibo.com/top/summary?cate=realtimehotsudaref=s.weibo.comdisplay=0retcode=6102"
    get_info_dict = {}
    count = 0
    
    def main():
      global url, get_info_dict, count
      get_info_list = []
      print("正在爬取数据~~~")
      html = requests.get(url).text
      soup = BeautifulSoup(html, 'lxml')
      for tr in soup.find_all(name='tr', class_=''):
        get_info = get_info_dict.copy()
        get_info['title'] = tr.find(class_='td-02').find(name='a').text
        try:
          get_info['num'] = eval(tr.find(class_='td-02').find(name='span').text)
        except AttributeError:
          get_info['num'] = None
        get_info['time'] = datetime.now().strftime("%Y/%m/%d %H:%M")
        get_info_list.append(get_info)
      get_info_list = get_info_list[1:16]
      df = pd.DataFrame(get_info_list)
      if count == 0:
        df.to_csv('datas.csv', mode='a+', index=False, encoding='gbk')
        count += 1
      else:
        df.to_csv('datas.csv', mode='a+', index=False, header=False, encoding='gbk')
    
    # 定时爬虫
    schedule.every(1).minutes.do(main)
    
    while True:
      schedule.run_pending()

    pyecharts数据分析

    import pandas as pd
    from pyecharts import options as opts
    from pyecharts.charts import Bar, Timeline, Grid
    from pyecharts.globals import ThemeType, CurrentConfig
    
    df = pd.read_csv('datas.csv', encoding='gbk')
    print(df)
    t = Timeline(init_opts=opts.InitOpts(theme=ThemeType.MACARONS)) # 定制主题
    for i in range(int(df.shape[0]/15)):
      bar = (
        Bar()
          .add_xaxis(list(df['title'][i*15: i*15+15][::-1])) # x轴数据
          .add_yaxis('num', list(df['num'][i*15: i*15+15][::-1])) # y轴数据
          .reversal_axis() # 翻转
          .set_global_opts( # 全局配置项
          title_opts=opts.TitleOpts( # 标题配置项
            title=f"{list(df['time'])[i * 15]}",
            pos_right="5%", pos_bottom="15%",
            title_textstyle_opts=opts.TextStyleOpts(
              font_family='KaiTi', font_size=24, color='#FF1493'
            )
          ),
          xaxis_opts=opts.AxisOpts( # x轴配置项
            splitline_opts=opts.SplitLineOpts(is_show=True),
          ),
          yaxis_opts=opts.AxisOpts( # y轴配置项
            splitline_opts=opts.SplitLineOpts(is_show=True),
            axislabel_opts=opts.LabelOpts(color='#DC143C')
          )
        )
          .set_series_opts( # 系列配置项
          label_opts=opts.LabelOpts( # 标签配置
            position="right", color='#9400D3')
        )
      )
      grid = (
        Grid()
          .add(bar, grid_opts=opts.GridOpts(pos_left="24%"))
      )
      t.add(grid, "")
      t.add_schema(
        play_interval=1000, # 轮播速度
        is_timeline_show=False, # 是否显示 timeline 组件
        is_auto_play=True, # 是否自动播放
      )
    
    t.render('时间轮播图.html')

    到此这篇关于如何用python爬取微博热搜数据并保存的文章就介绍到这了,更多相关python爬取微博热搜数据内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • python爬取天气数据的实例详解
    • 用python爬取历史天气数据的方法示例
    • python爬取哈尔滨天气信息
    • python3爬取各类天气信息
    • Python爬取国外天气预报网站的方法
    • Python爬虫爬取微博热搜保存为 Markdown 文件的源码
    • python+selenium爬取微博热搜存入Mysql的实现方法
    • Python网络爬虫之爬取微博热搜
    • python趣味挑战之爬取天气与微博热搜并自动发给微信好友
    上一篇:python 统计list中各个元素出现的次数的几种方法
    下一篇:python 制作网站小说下载器
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    如何用python爬取微博热搜数据并保存 如,何用,python,爬取,微博,