- 文件位置在/soft/hadoop/etc/hadoop/
<!--core-site.xml-->
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost/</value>
</property>
</configuration>
<!--hdfs-site.xml-->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
- 注意!!复制一份mapred-site.xml.template为mapred-site.xml,原来没有这个文件!!
<!--mapred-site.xml-->
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<!--yarn-site.xml-->
<configuration>
<!-- 指定ResourceManager的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
<!-- 指定reducer获取数据的方式-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
- 配置SSH,目的时为了名称节点远程登陆数据节点时不用输密码,配一个无密登陆的ssh
1) 安装ssh ------sudo apt-get install ssh
2) 生成无密的密钥文件 -----ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
3) 导入公钥到节点密钥库 ------cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
4)试试登陆localhost,第一次询问输入yes,后面就可以免密登陆了,exit再退出localhost(伪分布式只能登陆本机lcoalhost测试)
- 配一个宿主机s100和s101的免密登陆SSH(不需要这个操作,补充的)
需要把s100的公钥文件发给s101的authorized_keys文件中,用nc指令即可。
- 格式化hdfs文件系统
hadoop namenode -format
- 启动所有进程
start-all.sh
- jps查看进程,有五个进程,如果进程不对,
stop-all.sh结束所有进程后检查配置文件,然后格式化hdfs文件系统后启动
- 查看hdfs资源目录,第一次应该是没有的
hadoop fs -ls
- 创建hdfs资源目录,
hadoop fs -mkdir -p /user/ubuntu/data
- 查看hdfs资源目录,
hadoop fs -ls -r /
- 关机后需要重新格式化hdfs文件系统,即
hadoop namenode -format,若发现进程少了,可以在/soft/hadoop/logs下查看相应进程的日志文件
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。