• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    Spark-shell批量命令执行脚本的方法

    批量执行spark-shell命令,并指定提交参数

    #!/bin/bash
    
    source /etc/profile
    
    exec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 !EOF
    import org.apache.spark.sql.SaveMode
    sql("set hive.exec.dynamic.partition=true")
    sql("set hive.exec.dynamic.partition.mode=nonstrict")
    sql("use hr")
    sql("SELECT * FROM t_abc ").rdd.saveAsTextFile("/tmp/out") 
    sql("SELECT * FROM t_abc").rdd.map(_.toString).intersection(sc.textFile("/user/hdfs/t2_abc").map(_.toString).distinct).count
    !EOF

    以上这篇Spark-shell批量命令执行脚本的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

    您可能感兴趣的文章:
    • 十三个写好shell脚本的技巧分享
    • 使用shell脚本执行hive、sqoop命令的方法
    • shell中循环调用hive sql 脚本的方法
    上一篇:使用shell脚本执行hive、sqoop命令的方法
    下一篇:linux下利用shell在指定的行添加内容的方法
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    Spark-shell批量命令执行脚本的方法 Spark-shell,批量,命令,执行,