• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    hive从mysql导入数据量变多的解决方案

    原始导数命令:

    bin/sqoop import -connect jdbc:mysql://192.168.169.128:3306/yubei -username root -password 123456 -table yl_city_mgr_evt_info --split-by rec_id -m 4 --fields-terminated-by "\t" --lines-terminated-by "\n" --hive-import --hive-overwrite -create-hive-table -delete-target-dir -hive-database default -hive-table yl_city_mgr_evt_info

    原因分析:可能是mysql中字段里面有'\n'等分隔符,导入hive时默认以'n'作换行符,导致hive中的记录数变多。

    解决方法:

    导入数据时加上--hive-drop-import-delims选项,会删除字段中的\n,\r,\01。

    最终导数命令:

    bin/sqoop import -connect jdbc:mysql://192.168.169.128:3306/yubei -username root -password 123456 -table yl_city_mgr_evt_info --split-by rec_id -m 4 --hive-drop-import-delims --fields-terminated-by "\t" --lines-terminated-by "\n" --hive-import --hive-overwrite -create-hive-table -delete-target-dir -hive-database default -hive-table yl_city_mgr_evt_info

    参考官方文档:https://sqoop.apache.org/docs/1.4.7/SqoopUserGuide.html

    补充:Sqoop导入MySQL数据到Hive遇到的坑

    1.sqoop导入到HDFS

    1.1执行sqoop job,会自动更新last value

    # sqoop 增量导入脚本
    bin/sqoop job --create sqoop_hdfs_test02 -- import \
    
    --connect jdbc:mysql://localhost:3306/pactera_test \
    
    --username root \
    
    --password 123456 \
    
    --table student \
    
    --target-dir /user/sqoop/test002/ \
    
    --fields-terminated-by "\t" \
    
    --check-column last_modified \
    
    --incremental lastmodified \
    
    --last-value "2018-12-12 00:03:00" \
    
    --append

    说明:--append 参数是必须的,要不然第二次运行job 会报错,如下:

    至此,sqoop job 已建设完毕!

    2.Hive创建表,并读取sqoop导入的数据

    create external table if not exists student_hive (SId int,Sname string ,Sage string,Ssex string , last_modified Timestamp) 
    row format delimited fields terminated by '\t' location 'hdfs://node01:8020/user/sqoop/test002/';

    注意:此处hive中时间的格式为timestamp,设置为date DB数据无法正常加载。

    第一次全量加载,整条路线完全OK,hive表可以查询到数据。

    -----------------------重点分割线-----------------------

    * sqoop lastmodified格式的增量加载,会将last-value 保存为job执行的系统时间,若测试数据库的check-column 小于当前系统时间(即上一个job的last-value),则数据将不被加载。

    如SId=6 就没有被加载,遂改为今日时间(2018-12-26 17:05)进行数据测试,数据成功被加载!哟呵!!

    总结:

    使用lastmodified格式,进行sqoop增量导入时,

    1.注意--append的使用;

    2.last-value为job运行的系统时间,在数据测试时,要保证数据的准确,数据的自增长。

    3.一切皆有定数,查看资料,准确定位自己系统遇到的问题

    以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。如有错误或未考虑完全的地方,望不吝赐教。

    您可能感兴趣的文章:
    • MySQL如何快速导入数据
    • MySQL 4种导入数据的方法
    • mysql如何利用Navicat导出和导入数据库的方法
    • Java利用MYSQL LOAD DATA LOCAL INFILE实现大批量导入数据到MySQL
    • MySQL命令行导出导入数据库实例详解
    • wampserver下mysql导入数据库的步骤
    • MySQL命令行导出与导入数据库
    • 使用mysqldump导入数据和mysqldump增量备份(mysqldump使用方法)
    • MYSQL 导入数据的几种不同
    • 修改php.ini实现Mysql导入数据库文件最大限制的修改方法
    • .Net Core导入千万级数据至Mysql的步骤
    上一篇:navicat 连接数据库隔段时间后自动断开连接的解决方案
    下一篇:使用mysql记录从url返回的http GET请求数据操作
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    hive从mysql导入数据量变多的解决方案 hive,从,mysql,导入,数据,量变,