• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    如何使用分区处理MySQL的亿级数据优化

    mysql在查询上千万级数据的时候,通过索引可以解决大部分查询优化问题。但是在处理上亿数据的时候,索引就不那么友好了。

    数据表(日志)是这样的:

    由于数据不需要全量处理,经过与需求方讨论后,我们按时间段抽样一部分数据,比如抽样一个月的数据,约3.5亿行。
    数据处理的思路:

    1)建表引擎选择Innodb。由于数据是按月分区的,我们将该月分区的数据单独copy出来,源表为myisam引擎,因我们可能需要过滤部分数据,涉及到筛选的字段又没有索引,使用myisam引擎加索引的速度会比较慢;
    2)按日分区。将copy出来的表加好索引后(约2-4个小时),过滤掉无用的数据,同时再次新生成一张表,抽取json中需要的字段,并对该表按日分区。

    CREATE TABLE `tb_name` (
      `id_`,
      ...,
      KEY `idx_1` (`create_user_`) 
    ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COMMENT='应用日志'
    PARTITION BY RANGE(to_days(log_time_)) (
        PARTITION p1231 VALUES LESS THAN (737425),
        PARTITION p0101 VALUES LESS THAN (737426),
        PARTITION p0102 VALUES LESS THAN (737427),
        PARTITION p0103 VALUES LESS THAN (737428),
        PARTITION p0104 VALUES LESS THAN (737429),
    ......
    );
    

    3)对上面生成的表按每日进行聚合或者其他操作,并将结果存储到临时表中,尽量使用存储过程加工数据,由于加工相对复杂而且耗时较多(跑一次存储过程需要大概1-2小时),因此循环调用存储过程时应记录操作时间和执行过程中的参数等;

    delimiter $$
    create procedure proc_name(param varchar(50))
    begin
     declare start_date date;
        declare end_date date;
        set start_date = '2018-12-31';
        set end_date = '2019-02-01';
        
        start transaction;
     truncate tmp_talbe;
     commit;
        
        while start_date  end_date do
      set @partition_name = date_format(start_date, '%m%d');
            set @start_time = now(); -- 记录当前分区操作起始时间
            
      start transaction;
      set @sqlstr = concat(
       "insert into tmp_talbe",
       "select field_names ",
                "from tb_name partition(p", @partition_name,") t ",
                "where conditions;"
       );
      -- select @sqlstr;
      prepare stmt from @sqlstr;  
      execute stmt;
      deallocate prepare stmt;
      commit;
            
            -- 插入日志
            set @finish_time = now(); -- 操作结束时间
            insert into oprerate_log values(param, @partition_name, @start_time, @finish_time, timestampdiff(second, @start_time, @finish_time));
            
      set start_date = date_add(start_date, interval 1 day);
        end while;
    end
    $$
    delimiter ;
    

    4)对上述生成的结果进行整理加工。

    总的来说,处理过程相对繁琐,而且产生了很多中间表,对关键步骤还需要记录操作流程的元数据,这对SQL处理的要求会比较高,因此不建议使用MySQL处理这种任务(除非迫不得已),如果能将能处理过程放在大数据平台上处理,速度会更快,而且元数据管理会相对专业。

    到此这篇关于如何使用分区处理MySQL的亿级数据优化的文章就介绍到这了,更多相关MySQL 亿级数据优化内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • mysql 数据插入优化方法之concurrent_insert
    • mysql优化之query_cache_limit参数说明
    • MySQL 百万级数据的4种查询优化方式
    • MySQL优化之如何写出高质量sql语句
    • 带你快速搞定Mysql优化
    上一篇:关于Mysql-connector-java驱动版本问题总结
    下一篇:MySQL 亿级数据导入导出及迁移笔记
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    如何使用分区处理MySQL的亿级数据优化 如何,使用,分区,处理,MySQL,