• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    pyspark操作hive分区表及.gz.parquet和part-00000文件压缩问题

    pyspark 操作hive表

    pyspark 操作hive表,hive分区表动态写入;最近发现spark动态写入hive分区,和saveAsTable存表方式相比,文件压缩比大约 4:1。针对该问题整理了 spark 操作hive表的几种方式。

    1> saveAsTable写入

    saveAsTable(self, name, format=None, mode=None, partitionBy=None, **options)

    示例:

    df.write.saveAsTable("表名",mode='overwrite')

    注意:

    1、表不存在则创建表,表存在全覆盖写入;
    2、表存在,数据字段有变化,先删除后重新创建表;
    3、当正在存表时报错或者终止程序会导致表丢失;
    4、数据默认采用parquet压缩,文件名称 part-00000-5efbfc08-66fe-4fd1-bebb-944b34689e70.gz.parquet

    数据文件在hdfs上显示:

    2> insertInto写入

    insertInto(self, tableName, overwrite=False):
    示例:

    # append 写入
    df.repartition(1).write.partitionBy('dt').insertInto("表名")
    # overwrite 写入
    df.repartition(1).write.partitionBy('dt').insertInto("表名",overwrite=True)
    # 动态分区使用该方法

    注意:

    1、df.write.mode("overwrite").partitionBy("dt").insertInto("表名") 不会覆盖数据
    2、需要表必须存在且当前DF的schema与目标表的schema必须一致
    3、插入的文件不会压缩;文件以part-00....结尾。文件较大

    数据文件在hdfs上显示:

    2.1> 问题说明

    两种方式存储数据量一样的数据,磁盘文件占比却相差很大,.gz.parquet 文件 相比 part-00000文件要小很多。想用spark操作分区表,又想让文件压缩,百度了一些方式,都没有解决。
    从stackoverflow中有一个类似的问题 Spark compression when writing to external Hive table 。用里面的方法并没有解决。
    最终从hive表数据文件压缩角度思考,问题得到解决。

    hive 建表指定压缩格式
    下面是hive parquet的几种压缩方式

    -- 使用snappy
    CREATE TABLE if not exists ods.table_test(
        id string,
        open_time string
    	)
    COMMENT '测试'
    PARTITIONED BY (`dt` string COMMENT '按天分区')
    row format delimited fields terminated by '\001' 
    STORED AS PARQUET 
    TBLPROPERTIES ('parquet.compression'='SNAPPY');
    
    -- 使用gzip
    CREATE TABLE if not exists ods.table_test(
        id string,
        open_time string
    	)
    COMMENT '测试'
    PARTITIONED BY (`dt` string COMMENT '按天分区')
    row format delimited fields terminated by '\001' 
    STORED AS PARQUET 
    TBLPROPERTIES ('parquet.compression'='GZIP');
     
    -- 使用uncompressed
    CREATE TABLE if not exists ods.table_test(
        id string,
        open_time string
    	)
    COMMENT '测试'
    PARTITIONED BY (`dt` string COMMENT '按天分区')
    row format delimited fields terminated by '\001' 
    STORED AS PARQUET 
    TBLPROPERTIES ('parquet.compression'='UNCOMPRESSED');
    
     
    -- 使用默认
    CREATE TABLE if not exists ods.table_test(
        id string,
        open_time string
    	)
    COMMENT '测试'
    PARTITIONED BY (`dt` string COMMENT '按天分区')
    row format delimited fields terminated by '\001' 
    STORED AS PARQUET;
     
    -- 设置参数 set parquet.compression=SNAPPY;

    2.2> 解决办法

    建表时指定TBLPROPERTIES,采用gzip 压缩
    示例:

    drop table if exists ods.table_test
    CREATE TABLE if not exists ods.table_test(
    id string,
    open_time string
    )
    COMMENT '测试'
    PARTITIONED BY (`dt` string COMMENT '按天分区')
    row format delimited fields terminated by '\001' 
    STORED AS PARQUET 
    TBLPROPERTIES ('parquet.compression'='GZIP');

    执行效果

    数据文件在hdfs上显示:

    可以看到文件大小占比已经和 *.gz.parquet 文件格式一样了

    3>saveAsTextFile写入直接操作文件

    saveAsTextFile(self, path, compressionCodecClass=None)
    该方式通过rdd 以文件形式直接将数据存储在hdfs上。
    示例:

    rdd.saveAsTextFile('hdfs://表全路径')

    文件操作更多方式见官方文档

    到此这篇关于pyspark操作hive分区表及.gz.parquet和part-00000文件压缩问题的文章就介绍到这了,更多相关pyspark hive分区表parquet内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

    您可能感兴趣的文章:
    • 在python中使用pyspark读写Hive数据操作
    • Pyspark读取parquet数据过程解析
    • pyspark对Mysql数据库进行读写的实现
    • pyspark给dataframe增加新的一列的实现示例
    • Linux下远程连接Jupyter+pyspark部署教程
    • PyCharm+PySpark远程调试的环境配置的方法
    上一篇:关于使用OpenCsv导入大数据量报错的问题
    下一篇:让你分分钟学会python条件语句
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    pyspark操作hive分区表及.gz.parquet和part-00000文件压缩问题 pyspark,操作,hive,分区表,