spark-shell 及 日志配置

1、当SparkContex线程被调用且没有被stop()时,可以使用http://192.168.1.xxx:4040来监控application的状态,但是当sc关闭时,4040页面就无法打开,所以配置History Server

http://spark.apache.org/docs/latest/running-on-yarn.html     官方文档

$ vi spark-default.conf

spark.eventLog.enabled true

spark.eventLog.dir hdfs://192.168.1.108:9000/sparkhistorylog    #web ui从此处读取历史日志

spark.eventLog.compress true

$ vi spark-env.sh

export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080#访问端口

-   Dspark.history.retainedApplications=3#内存中保存的application数目

-Dspark.history.fs.logDirectory=hdfs://192.168.1.108:9000/sparkhistorylog"

$ hadoop fs -mkdir /sparkhistorylog

$ cd $HADOOP_HOME

$sbin/stop-all.sh

$sbin/start-all.sh

$cd $SPARK_HOME

$sbin/start-history-server.sh

然后输入网址,显示如下

http://192.168.1.xxx:18080/

2、运行spark-shell时,会自动创建SparkContex sc ,

$ cd $SPARK_HOME/sbin

$ ./spark-shell --master yarn

scala> val text = sc.textFile("file:///tmp.hello.txt")

scala> text.count()

打开http://192.168.1.xxx:4040/ 观察job运行状态

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • --------"道路是曲折的,前途是光明的。"最近又涉及到了hadoop以及spark的安装,之前课题设计中有要...
    九七学姐阅读 8,260评论 3 5
  • 原理 Spark on YARN的原理就是依靠yarn来调度Spark,比默认的Spark运行模式性能要好的多,前...
    699b979fc4da阅读 5,221评论 1 3
  • 炒蚕豆,炒豌豆 女儿喜欢念童谣“炒蚕豆,炒豌豆,骨碌骨碌,翻跟头”,每次我们手牵手念时,转圈摆臂翻腾,她都...
    呵妈阅读 2,515评论 0 1
  • 这年冬天并不冷,我也不需要像在新疆时候那样把自己裹成粽子。天气之于我并非无足轻重,燥热的夏天,凉爽的秋天,严寒的冬...
    birdy000阅读 2,490评论 0 0
  • 写文案的人,经常遇到的问题就是,洞察。 判断洞察是否精准,最直观的标准是“一稿过”。 你一稿过吗?还是被搞过? 我...
    莫无衣阅读 4,806评论 1 5