个人备注网页, 不喜勿扰
将配置好的虚拟机关闭.
克隆出其他可用虚拟机
选择完整克隆
每一个克隆完成的虚拟机需要单独启动,配置IP 和hostname,修改虚拟机mac地址
增加master中的配置项.传输到其他worker机器上
scp slaves root@worker1:/root/hadoop/etc/hadoop/slaves
scp slaves root@worker2:/root/hadoop/etc/hadoop/slaves
spark-env.sh 中的
export SPARK_LOCAL_IP=
需要改成对应的IP或host
spark-defaults.conf(spark-defaults.conf.template修改扩展名)中增加
spark.executorEnv.PYTHONHASHSEED 0
上传至其他worker机
克隆版本需要注意worker 中hdfs中配置的文件夹一定要清除掉内容,只保留空文件夹
否则一切后果自负~~~无解