• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    MySQL 快速删除大量数据(千万级别)的几种实践方案详解

    笔者最近工作中遇见一个性能瓶颈问题,MySQL表,每天大概新增776万条记录,存储周期为7天,超过7天的数据需要在新增记录前老化。连续运行9天以后,删除一天的数据大概需要3个半小时(环境:128G, 32核,4T硬盘),而这是不能接受的。当然如果要整个表删除,毋庸置疑用

    TRUNCATE TABLE就好。

    最初的方案(因为未预料到删除会如此慢),代码如下(最简单和朴素的方法):

    delete from table_name where cnt_date = target_date
    

    后经过研究,最终实现了飞一般(1秒左右)的速度删除770多万条数据,单张表总数据量在4600万上下,优化过程的方案层层递进,详细记录如下:

    运行效果:删除时间大概从3个半小时提高到了3小时

    (1)通过limit(具体size 请酌情设置)限制一次删除的数据量,然后判断数据是否删除完,附源码如下(Python实现):

    def delete_expired_data(mysqlconn, day):
     mysqlcur = mysqlconn.cursor()
     delete_sql = "DELETE from table_name where cnt_date='%s' limit 50000" % day
     query_sql = "select srcip from table_name where cnt_date = '%s' limit 1" % day
     try: 
      df = pd.read_sql(query_sql, mysqlconn)
      while True:
       if df is None or df.empty:
        break
       mysqlcur.execute(delete_sql)
       mysqlconn.commit()
    
       df = pd.read_sql(query_sql, mysqlconn)
     except:
      mysqlconn.rollback()

    (2)增加key_buffer_size

    mysqlcur.execute("SET GLOBAL key_buffer_size = 536870912")

    key_buffer_size是global变量,详情参见Mysql官方文档:https://dev.mysql.com/doc/refman/5.7/en/server-configuration.html

    适用场景:MyISAM Tables

    Why: MyISAM删除的数据维护在一个链表中,这些空间和行的位置接下来会被Insert的数据复用。 直接的delete后,mysql会合并索引块,涉及大量内存的拷贝移动;而OPTIMIZE TABLE直接重建索引,即直接把数据块情况,再重新搞一份(联想JVM垃圾回收算法)。

    运行效果:删除时间大3个半小时提高到了1小时40分

    具体代码如下:

    def delete_expired_data(mysqlconn, day):
     mysqlcur = mysqlconn.cursor()
     delete_sql = "DELETE QUICK from table_name where cnt_date='%s' limit 50000" % day
     query_sql = "select srcip from table_name where cnt_date = '%s' limit 1" % day
     optimize_sql = "OPTIMIZE TABLE g_visit_relation_asset"
     try: 
      df = pd.read_sql(query_sql, mysqlconn)
      while True:
       if df is None or df.empty:
        break
       mysqlcur.execute(delete_sql)
       mysqlconn.commit()
    
       df = pd.read_sql(query_sql, mysqlconn)
      mysqlcur.execute(optimize_sql)
      mysqlconn.commit()
     except:
      mysqlconn.rollback()

    MySQL表分区有几种方式,包括RANGE、KEY、LIST、HASH,具体参见官方文档。因为这里的应用场景日期在变化,所以不适合用RANGE设置固定的分区名称,HASH分区更符合此处场景

    (1)分区表定义,SQL语句如下:

    ALTER TABLE table_name PARTITION BY HASH(TO_DAYS(cnt_date)) PARTITIONS 7;
    

    TO_DAYS将日期(必须为日期类型,否则会报错:Constant, random or timezone-dependent expressions in (sub)partitioning function are not allowed)转换为天数(年月日总共的天数),然后HASH;建立7个分区。实际上,就是 days MOD 7。

    (2)查询出需要老化的日期所在的分区,SQL语句如下:

    "explain partitions select * from g_visit_relation_asset where cnt_date = '%s'" % expired_day
    

    执行结果如下(partitions列即为所在分区):

    +----+-------------+------------------+------------+------+----------------+------+---------+------+---------+----------+-------------+
    | id | select_type | table            | partitions | type | possible_keys  | key  | key_len | ref  | rows    | filtered | Extra       |
    +----+-------------+------------------+------------+------+----------------+------+---------+------+---------+----------+-------------+
    |  1 | SIMPLE      | table_name       | p1         | ALL  | cnt_date_index | NULL | NULL    | NULL | 1325238 |   100.00 | Using where |
    +----+-------------+------------------+------------+------+----------------+------+---------+------+---------+----------+-------------+
    1 row in set, 2 warnings (0.00 sec)

    (3)OPTIMIZE or REBUILD partition,SQL语句如下:

    "ALTER TABLE g_visit_relation_asset OPTIMIZE PARTITION '%s'" % partition
    

    完整代码如下【Python实现】,循环删除小于指定日期的数据:

    def clear_partition_data(mysqlconn, day):
     mysqlcur = mysqlconn.cursor()
     expired_day = day
     query_partition_sql = "explain partitions select * from table_name where cnt_date = '%s'" % expired_day
     # OPTIMIZE or REBUILD after truncate partition
     try: 
      while True:
       df = pd.read_sql(query_partition_sql, mysqlconn)
       if df is None or df.empty:
        break
       partition = df.loc[0, 'partitions']
       if partition is not None:
        clear_partition_sql = "alter table table_name TRUNCATE PARTITION %s" % partition
        mysqlcur.execute(clear_partition_sql)
        mysqlconn.commit()
    
        optimize_partition_sql = "ALTER TABLE table_name OPTIMIZE PARTITION %s" % partition
        mysqlcur.execute(optimize_partition_sql)
        mysqlconn.commit()
       
       expired_day = (expired_day - timedelta(days = 1)).strftime("%Y-%m-%d")
       df = pd.read_sql(query_partition_sql, mysqlconn)
     except:
      mysqlconn.rollback()

    如果删除的数据超过表数据的百分之50,建议拷贝所需数据到临时表,然后删除原表,再重命名临时表为原表,附MySQL如下:

     INSERT INTO New
      SELECT * FROM Main
       WHERE ...; -- just the rows you want to keep
     RENAME TABLE main TO Old, New TO Main;
     DROP TABLE Old; -- Space freed up here

    可通过: ALTER TABLE table_name REMOVE PARTITIONING 删除分区,而不会删除相应的数据

    参考:

    1)https://dev.mysql.com/doc/refman/5.7/en/alter-table-partition-operations.html具体分区说明

    2)http://mysql.rjweb.org/doc.php/deletebig#solutions 删除大数据的解决方案

    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

    ************************************************************************

    精力有限,想法太多,专注做好一件事就行

    我只是一个程序猿。5年内把代码写好,技术博客字字推敲,坚持零拷贝和原创写博客的意义在于打磨文笔,训练逻辑条理性,加深对知识的系统性理解;如果恰好又对别人有点帮助,那真是一件令人开心的事

    到此这篇关于MySQL 快速删除大量数据(千万级别)的几种实践方案详解的文章就介绍到这了,更多相关MySQL 快速删除大量数据内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • mysql千万级数据量根据索引优化查询速度的实现
    • MySQL循环插入千万级数据
    • MySQL 千万级数据量如何快速分页
    • MySQL千万级大数据SQL查询优化知识点总结
    • MySql 快速插入千万级大数据的方法示例
    • MySQL如何快速的创建千万级测试数据
    • 30个mysql千万级大数据SQL查询优化技巧详解
    • mysql千万级数据分页查询性能优化
    • 如何优化Mysql千万级快速分页
    • 详解MySQL数据库千万级数据查询和存储
    上一篇:MySql中流程控制函数/统计函数/分组查询用法解析
    下一篇:MySQL中建表时可空(NULL)和非空(NOT NULL)的用法详解
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    MySQL 快速删除大量数据(千万级别)的几种实践方案详解 MySQL,快速,删除,大量,数据,