第十三次早课
1、hadoop三大组件
MapReduce:分布式计算
HDFS:分布式存储
Yarn:资源调度和作业调度
2、我们选择了哪种模式安装
伪分布式模式
3、hdfs yarn的web界面默认端口分别多少
hdfs:50070
yarn:8088
4、一个300M文件,副本数为3,block128M。请问多少个块。
9块
5、jps是干嘛的
查看进程
6、jps的命令是从哪个目录文件夹的文件输出的
/usr/java/jdk1.8.0_45/bin/jps
7、假如jps出来抛出信息是不可用的,我们正常流程是什么和非正常流程是什么,简述一下
正常流程:
]# jps
找到该进程的使用用户名称:
]# ps -ef | greo pid
]# su - 用户
]$ jps
异常流程:
假如进程被停止:
rundeck]# jps
rundeck]# kill -9 pid
发现进程还有残留:
rundeck]# ps -ef|grep pid
pid信息残留,去/tmp/hsperfdata_hadoop文件夹删除该pid文件
hsperfdata_hadoop]# rm -rf pid文件
切到hadoop用户,查看进程是否存在:
]# su - root
]$ jps
8、NameNode存储的是什么
NN存储:维护文件系统树及整个树内的所有文件和目录,这些信息以两种文件形式永久保存在本地磁盘,也就是命名空间镜像文件fsimage + 编辑日志editlog
9、DataNode存储的是什么
DN存储:数据块 + 数据块校验和
10、SecondaryNameNode多久CheckPoint一次
3600秒
11、副本放置策略,假如我上传的文件的节点为DataNode,那么请问第一个副本在哪个节点上
放置在上传文件的DataNode上
12、文件读流程用到的是FSDataInputStream还是FSDataOutputStream
FSDataInputStream
13、文件写流程,是一个块三个副本写好再依次写其他块;还是先把所有块写一遍,再写第二个副本,然后第三个副本,前者还是后者
是一个块三个副本写好再依次写其他块
14、每个副本写好后,是要发送什么包确认OK
ack packet
15、文件读和写的是http还是rpc通信的
RPC
16、默认hdfs是开启回收站的吗?
不开启
17、删除一个hdfs文件,我不想进回收站,是什么参数
-skipTrash
18、上传下载的命令
上传:
rz
下载:
sz
19、hadoop fs等价于哪个命令?
hdfs dfs
20、hdfs dfs -ls hdfs://192.168.137.201:9000/这个后面路径地址太长了,一般我们用什么代替
hdfs dfs -ls /
21、rwxrw-rw-数字多少
766
22、三组分别什么有权限的
可读可写可执行
可读可写
可读可写
23、软连接有个坑是什么
权限和用户组
24、tar解压后有时有个坑是什么?
用户和用户组的权限问题,需要ll查看一下
25、MySQL修改用户和权限,我们最后一个命令是什么?
flush privileges
26、Linux中我也不知道xxx这个文件在哪?我该怎样找?一般加不加星号呢?
find / -name "*xxx*"
27、join的三种模式,一般我建议大家哪种
left
28、left join的那么哪个表的数据是为主,另外一个表来扫描
左边的表为主,右边的表用来扫描
29、假如匹配不上,用什么表示
null
大家谨记:
假如左表ID为1,一条数据
右表ID为1,三条数据
请问left join后多少条?
最后显示的数据是三条