Spark 2.3.0 安装

1、下载二进制安装包

wget http://apache.mesi.com.ar/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz
tar zxvf spark-2.3.0-bin-hadoop2.7.tgz
ln -s spark-2.3.0-bin-hadoop2.7 spark

wget https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz
tar zxvf scala-2.11.12.tgz
sudo mv scala-2.11.12 /opt
sudo ln -s scala-2.12.5 scala

2、添加环境变量
~/.zshrc 或者 ~/.bashrc

export SPARK_HOME=$HOME/spark
export SCALA_HOME=/opt/scala

$SPARK_HOME/conf/spark-env.sh 添加

export SCALA_HOME=/opt/scala
export JAVA_HOME=/usr/java/jdk1.8.0_144
export SPARK_MASTER_IP=172.16.7.87
export SPARK_WORKER_MEMORY=1g
export HADOOP_HOME=$HOME/hadoop 
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HOME/hadoop/etc/hadoop
export SPARK_WORKER_MEMORY=1g
export SPARK_DRIVER_MEMORY=1g
export SPARK_HOME=$HOME/spark
export SPARK_LIBRARY_PATH=$SPARK_HOME/lib
export SPARK_MASTER_WEBUI_PORT=8080
export SPARK_WORKER_DIR=$SPARK_HOME/work
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_PORT=7078
export SPARK_LOG_DIR=$SPARK_HOME/log
export SPARK_PID_DIR='$HOME/spark-without-hive/run'
export SPARK_DIST_CLASSPATH=($HADOOP_HOME/bin/hadoop classpath)

$SPARK_HOME/conf/spark-defaults.conf 添加

spark.master yarn
spark.home                       /home/mark/spark
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://hbase-01:9000/spark/logs
spark.serializer                 org.apache.spark.serializer.KryoSerializer
spark.executor.memory            1g
spark.driver.memory              1g
spark.executor.extraJavaOptions  -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"

3、添加必要的jar包

cp $HADOOP_HOME/share/hadoop/yarn/lib/jersey-core-1.9.jar $SPARK_HOME/jars
cp $HADOOP_HOME/share/hadoop/yarn/lib/jersey-client-1.9.jar $SPARK_HOME/jars
rm $SPARK_HOME/jars/jersey-client-2.22.2.jar
wget -P $SPARK_HOME/jars http://central.maven.org/maven2/mysql/mysql-connector-java/5.1.40/mysql-connector-java-5.1.40.jar   

如果安装了hive,那么ln -s $HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/hive.xml
建立一个文件的软链接
4、启动spark-sql
敲几行测一下

create database u_t (foo int);
insert into table u_t values (2);
select foo from u_t;
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 个人主页:http://www.linbingdong.com 简介 本文主要记录如何安装配置Hive on Sp...
    Jeffbond阅读 23,769评论 22 30
  • --------"道路是曲折的,前途是光明的。"最近又涉及到了hadoop以及spark的安装,之前课题设计中有要...
    九七学姐阅读 3,098评论 3 5
  • 这是一篇spark环境的安装文档,不知道为什么查了下网上的安装步骤总是感觉怪怪的,有把环境变量配置到spark-e...
    祗談風月阅读 6,680评论 0 1
  • 我努力抑制着不去想你 我努力抑制着自己不与你联系 我努力抑制着不再找寻你的文字 可我还是感知到了我们的同步 我抑制...
    玉润阅读 154评论 0 0
  • 共享汽车欺诈案-受骗 近年来共享汽车日益流行,我也在2019年8月3日开了一辆首汽智行科技有限公司的gofun共享...
    revenger_sea阅读 272评论 0 3