15.apache-hadoop之spark安装

1.从spark官网下载spark安装程序

spark-2.2.1-bin-hadoop2.6.tgz

2. 解压

tar zxvf spark-2.2.1-bin-hadoop2.6.tgz     
ln -s spark-2.2.1-bin-hadoop2.6 spark2

3、环境变量

vi /etc/profile

#Spark 2.0.1
export SPARK_HOME=/app/zpy/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

Source /etc/profile

4、配置文件

cp spark-env.sh.template spark-env.sh

vi spark-env.sh

export JAVA_HOME=/app/zpy/java/jdk1.8.0_51
export SPARK_MASTER_HOST=master主机名
SPARK_WORKER_CORES=15
SPARK_WORKER_MEMORY=32G
HADOOP_CONF_DIR=/app/zpy/hadoop/etc/hadoop  #如果执行spark on yarn 必须设置这个
例如:spark-submit --class com.ism.asset.spark.AssetDaily --master yarn --deploy-mode client  --name asset_daily --executor-memory 2g --driver-memory 2g /app/zpy/assessdaily/asset-daily.jar(--master yarn需要用到HADOOP_CONF_DIR)
cp slaves.template  slaves
vi slaves 添加从的IP,删除localhost

5. 将复制到其他节点

scp -r /app/zpy/spark root@x.x.x.x:/app/zpy/

6. 修改权限

chown -R hadoop:hadoop /app/zpy/spark

7. 启动

ps:su hadoop
只需要在master节点操作如下两条命令:


start-master.sh
start-slaves.sh

7、验证

su hadoop 
jps 查看master与worker进程

spark-shell 查看启动spark是否有报错

8、Web界面

http://master:8080

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容