1、磁盘LVM管理,完成下面要求,并写出详细过程:
1)创建一个至少有两个PV组成的大小为20G的名为testvg的VG,要求PE大小为16M,而后在卷组中创建大小为5G的逻辑卷testlv;挂载至/users目录
1.准备两个10G的分区
[root@75 data]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 200M 0 part /boot
├─sda2 8:2 0 8G 0 part /
├─sda3 8:3 0 2G 0 part [SWAP]
├─sda4 8:4 0 512B 0 part
└─sda5 8:5 0 9.8G 0 part /data
sdb 8:16 0 20G 0 disk
├─sdb1 8:17 0 10G 0 part
└─sdb2 8:18 0 10G 0 part
2.创建pv
[root@75 data]# pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created.
[root@75 data]# pvcreate /dev/sdb2
Physical volume "/dev/sdb2" successfully created.
3.创建vg
[root@75 data]# vgcreate -s 16M testvg /dev/sdb{1,2}
Volume group "testvg" successfully created
4.创建lv和文件系统
[root@75 data]# lvcreate -n testlv -L 5G testvg
Volume group "testvg" not found
Cannot process volume group testvg
[root@75 data]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
testlv testvg -wi-a----- 5.00g
[root@75 data]# mkfs.ext4 /dev/testvg/testlv
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
327680 inodes, 1310720 blocks
65536 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=1342177280
40 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
5.创建/users目录,修改/etc/fstab并挂载
[root@75 ~]mkdir /users
[root@75 ~]blkid
...
/dev/mapper/testvg-testlv: UUID="32bd3d97-003a-4d2a-8e8e-e7ebe4decfe0" TYPE="ext4"
[root@75 ~]vim /etc/fstab
在最后添加一行
UUID=580b8222-78d8-4a48-9b0f-708aa61015e3 /users ext4 defaults 0 0
[root@75 ~]mount -a
[root@75 data]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 200M 0 part /boot
├─sda2 8:2 0 8G 0 part /
├─sda3 8:3 0 2G 0 part [SWAP]
├─sda4 8:4 0 512B 0 part
└─sda5 8:5 0 9.8G 0 part /data
sdb 8:16 0 20G 0 disk
├─sdb1 8:17 0 10G 0 part
│ └─testvg-testlv 253:0 0 5G 0 lvm /users
└─sdb2 8:18 0 10G 0 part
2)扩展testlv至7G,要求archlinux用户的文件不能丢
[root@75 ~]useradd -d /users/archlinux archlinux
1.扩展
[root@75 ~]lvresize -r -L +2G /dev/testvg/testlv
Size of logical volume testvg/testlv changed from 5.00 GiB (320 extents) to 7.00 GiB (448 extents).
Logical volume testlv successfully resized.
[root@75 ~]lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
testlv testvg -wi-ao---- 7.00g
2.检查文件是否丢失
[root@75 ~]su - archlinux
[archlinux@75 ~]pwd
/users/archlinux
[archlinux@75 ~]du -sh /users/archlinux/pam.d /etc/pam.d
236K /users/archlinux/pam.d
236K /etc/pam.d
3)收缩testlv至3G,要求archlinux用户的文件不能丢
1.收缩
[root@75 ~]umount /dev/testvg/testlv
[root@75 ~]e2fsck -f /dev/testvg/testlv
e2fsck 1.41.12 (17-May-2010)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/testvg/testlv: 84/458752 files (0.0% non-contiguous), 64515/1835008 blocks
[root@75 ~]resize2fs /dev/testvg/testlv 3G
resize2fs 1.41.12 (17-May-2010)
Resizing the filesystem on /dev/testvg/testlv to 786432 (4k) blocks.
The filesystem on /dev/testvg/testlv is now 786432 blocks long.
[root@75 ~]lvreduce -L 3G /dev/testvg/testlv
WARNING: Reducing active logical volume to 3.00 GiB.
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce testvg/testlv? [y/n]: y
Size of logical volume testvg/testlv changed from 7.00 GiB (448 extents) to 3.00 GiB (192 extents).
Logical volume testlv successfully resized.
[root@75 ~]mount -a
[root@75 ~]lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
testlv testvg -wi-ao---- 3.00g
2.检查文件是否丢失
[root@75 ~]su - archlinux
[archlinux@75 ~]pwd
/users/archlinux
[archlinux@75 ~]du -sh /users/archlinux/pam.d /etc/pam.d
236K /users/archlinux/pam.d
236K /etc/pam.d
4)对testlv创建快照,并尝试基于快照备份数据,验证快照的功能
1.创建快照并挂载
[root@75 ~]lvcreate -L 2G -s -n testlv-snapshot -p r /dev/testvg/testlv
Logical volume "testlv-snapshot" created.
[root@75 ~]mkdir /mnt/snap
[root@75 ~]mount -o ro /dev/testvg/testlv-snapshot /mnt/snap
[root@75 ~]lsblk
...
sdb 8:16 0 60G 0 disk
├─sdb1 8:17 0 10G 0 part
│ ├─testvg-testlv-real (dm-1) 253:1 0 3G 0 lvm
│ │ ├─testvg-testlv (dm-0) 253:0 0 3G 0 lvm /users
│ │ └─testvg-testlv--snapshot (dm-3) 253:3 0 3G 1 lvm /mnt/snap
│ └─testvg-testlv--snapshot-cow (dm-2) 253:2 0 2G 1 lvm
│ └─testvg-testlv--snapshot (dm-3) 253:3 0 3G 1 lvm /mnt/snap
└─sdb2 8:18 0 10G 0 part
2.测试快照
[root@75 ~]ll /users /mnt/snap
/mnt/snap:
total 20
drwx------. 5 archlinux archlinux 4096 Feb 21 09:28 archlinux
drwx------. 2 root root 16384 Feb 21 09:03 lost+found
/users:
total 20
drwx------. 5 archlinux archlinux 4096 Feb 21 09:28 archlinux
drwx------. 2 root root 16384 Feb 21 09:03 lost+found
[root@75 ~]rm -rf /users/archlinux/
[root@75 ~]ll /users /mnt/snap
/mnt/snap:
total 20
drwx------. 5 archlinux archlinux 4096 Feb 21 09:28 archlinux
drwx------. 2 root root 16384 Feb 21 09:03 lost+found
/users:
total 16
drwx------. 2 root root 16384 Feb 21 09:03 lost+found
[root@75 ~]umount /dev/testvg/testlv-snapshot
[root@75 ~]umount /dev/testvg/testlv
[root@75 ~]lvconvert --merge /dev/testvg/testlv-snapshot
Merging of volume testlv-snapshot started.
testlv: Merged: 100.0%
testlv: Merged: 100.0%
Merge of snapshot into logical volume testlv has finished.
Logical volume "testlv-snapshot" successfully removed
[root@75 ~]mount -a
[root@75 ~]ls /users
archlinux lost+found
2、创建一个可用空间为1G的RAID1设备,文件系统为ext4,有一个空闲盘,开机可自动挂载至/backup目录
[root@75 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 200M 0 part /boot
├─sda2 8:2 0 8G 0 part /
├─sda3 8:3 0 2G 0 part [SWAP]
├─sda4 8:4 0 1K 0 part
└─sda5 8:5 0 9.8G 0 part /data
sdb 8:16 0 10G 0 disk
├─sdb1 8:17 0 1G 0 part
├─sdb2 8:18 0 1G 0 part
└─sdb3 8:19 0 1G 0 part
sdc 8:32 0 10G 0 disk
sdd 8:48 0 10G 0 disk
sde 8:64 0 10G 0 disk
sr0 11:0 1 4.2G 0 rom
[root@75 ~]# mdadm -C /dev/md0 -n 2 -l 1 -a yes -x 1 /dev/sdb{1,2,3}
[root@75 ~]# mkfs.ext4 /dev/md0
[root@75 ~]# mkdir /backup
[root@75 ~]# vim /etc/fstab
#
# /etc/fstab
# Created by anaconda on Mon Aug 26 13:31:18 2019
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
UUID=5aa18013-ba7f-4f8b-9cd7-dda08c7986be / ext4 defaults 1 1
UUID=cb7f588c-573c-4417-b8a2-e89f4aba673f /boot ext4 defaults 1 2
UUID=799dd608-959b-45d6-aa01-ba4db6b56c9f /data xfs defaults 0 0
UUID=839d58f9-49e6-4720-a345-e2f6bfb2421c swap swap defaults 0 0
#加入下面这行代码
UUID=e27fd417-601c-4079-8687-7a5b5b02f155 /backup ext4 defaults 0 0
[root@75 ~]# mount -a
[root@75 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 20G 0 disk
├─sda1 8:1 0 200M 0 part /boot
├─sda2 8:2 0 8G 0 part /
├─sda3 8:3 0 2G 0 part [SWAP]
├─sda4 8:4 0 1K 0 part
└─sda5 8:5 0 9.8G 0 part /data
sdb 8:16 0 10G 0 disk
├─sdb1 8:17 0 1G 0 part
│ └─md0 9:0 0 1022M 0 raid1 /backup
├─sdb2 8:18 0 1G 0 part
│ └─md0 9:0 0 1022M 0 raid1 /backup
└─sdb3 8:19 0 1G 0 part
└─md0 9:0 0 1022M 0 raid1 /backup
sdc 8:32 0 10G 0 disk
sdd 8:48 0 10G 0 disk
sde 8:64 0 10G 0 disk
sr0 11:0 1 4.2G 0 rom
3、简述TCP链接建立和断开过程
面向连接指的是采用TCP协议通讯,在数据传输之前必须先建立连接,通讯完成之后,必须关闭连接。
建立连接的过程为三次握手过程,其作用是:
1、使得通讯双发都做好通讯的准备
2、告诉对端本端通讯所选用的报文标识号
3、防止已失效的连接请求报文段又突然传递到了服务端,从而产生错误
关闭连接的过程为四次挥手,由于TCP的全双工的通讯。所以每个方向都必须单独进行关闭。当一方完成它的数据发送任务后就能发送一个FIN来终止这个方向的连接。收到一个FIN只意味着这一方向上没有数据流动,一个TCP连接在收到一个FIN后仍能继续发送数据。首先进行关闭的一方将执行主动关闭,而另一方执行被动关闭。
TCP三次握手和四次挥手过程:
当客户连接收到服务器发送的结束报文段(报文段6)之后,并没有直接进入CLOSED状态,而是转移到TIME_WAIT状态。在这个状态,客户端连接要等待一段长为2MSL(MSL:报文段最大生存时间)的时间,才能完全关闭。
TIME_WAIT状态存在的原因:
1、可靠的终止连接。 假设图中用于确认服务器报文段6的TCP报文段7丢失,那么服务器将重发结束报文段。因此客户端需要停留在某个状态处理重复收到的结束报文段(即向服务器发送确认报文段)。否则,客户端将以复位报文段来回应服务器,服务器则认为只是一个错误,因为它期望收到的是一个像报文段7那样的确认报文段。
2、保证让迟来的TCP报文段有足够的时间识别并丢弃。 在Linux系统上,一个TCP端口不能被同时打开两次及以上。当一个TCP连接处于TIME_WAIT状态时,我们无法立即使用该连接占用的端口号来建立一个新连接。因此,如果没有TIME_WAIT状态,则应用程序能够立即建立一个和刚关闭的连接相似的连接(相似是指它们具有相同的IP地址和端口号)。这个新的和原来相似的连接被称为原来的连接的化身。新的化身可能接收到属于原来的连接的、携带应用程序的TCP报文段(即迟到的报文段),这显然是不应该发生的,这是存在的第二个原因。
另外,因为TCP报文段的最大生存时间是MSL,所以坚持2MSL时间的TIME_WAIT状态能够确保网络上两个传输方向上尚未被接受到的、迟到的报文段都已经消失(被中转路由器丢弃)。因此,一个连接的新的化身可以再2MSL时间之后安全的建立,而绝对不会接收到属于原来连接的应用程序数据,这就是TIME_WAIT要持续2MSL时间的原因。
那么TCP为什么要进行三次握手和四次挥手呢?
“三次握手”的目的是“为了防止已失效的连接请求报文段突然又传送到了服务端,因而产生错误”。
谢希仁版《计算机网络》中的例子是这样的,“已失效的连接请求报文段”的产生在这样一种情况下:client发出的第一个连接请求报文段并没有丢失,而是在某个网络结点长时间的滞留了,以致延误到连接释放以后的某个时间才到达server“。
本来这是一个早已失效的报文段。但server收到此失效的连接请求报文段后,就误认为是client再次发出的一个新的连接请求。于是就向client发出确认报文段,同意建立连接。假设不采用“三次握手”,那么只要server发出确认,新的连接就建立了。由于现在client并没有发出建立连接的请求,因此不会理睬server的确认,也不会向server发送数据。但server却以为新的运输连接已经建立,并一直等待client发来数据。这样,server的很多资源就白白浪费掉了。采用“三次握手”的办法可以防止上述现象发生。例如刚才那种情况,client不会向server的确认发出确认。server由于收不到确认,就知道client并没有要求建立连接。”。主要目的防止server端一直等待,浪费资源。
四次挥手的原因:在四次挥手过程中,报文段6中也包含了确认信息,为什么还用报文段5单独先发一遍,那么这个报文段5可以背省略么?
实际上,仅用于确认目的的确认报文段5是可以省略的,因为报文段6中也携带了该确认信息。确认报文段5是否出现在连接断开的过程中,取决于TCP的延迟确认特性。
TCP连接是全双工的,所以它允许两个方向的数据传输被独立关闭。即,通信的一方可以发结束报文段给对方,告诉它本端已经完成了数据的发送,但允许继续接收来自对方的数据,直到对方也发送报文段结束。所以当客户端发送结束报文段后,服务器那里可能还有数据要发送,就先发送一个确认报文段表示已经接收到客户端发送过来的结束报文段,直到将数据发送完毕后再结束连接。
延迟确认:即服务器不马上确认上次收到的数据,而是在一段延迟时间后查看本端是否有数据需要发送,如果有,则和确认信息一起发出。因为服务器对客户的请求处理很快,所以他发送确认报文段的时候总是有数据一起发送。延迟确认可以减少发送TCP报文段的数量。而由于用户的输入速度明显慢于客户端程序的处理速度,所以客户端的确认报文段总是不携带任何应用程序。
4、简述TCP和UDP的区别
tcp是面向连接的协议,也就是说,在收发数据前,必须和对方建立可靠的连接。一个TCP连接必须要经过三次“对话”才能建立起来。使用TCP协议传输数据,TCP提供超时重发,丢弃重复数据,检验数据,流量控制等功能,保证数据能从一端传到另一端。当数据从A端传到B端后,B端会发送一个确认包(ACK包)给A端,告知A端数据我已收到!
UDP协议就没有这种确认机制,这就是为什么说TCP协议可靠,UDP协议不可靠,提供这种可靠服务,会加大网络带宽的开销,因为“虚拟信道”是持续存在的,同时网络中还会出现大量的ACK和FIN包。TCP协议提供了可靠的数据传输,但是其拥塞控制、数据校验、重传机制的网络开销很大,不适合实时通信,所以选择开销很小的UDP协议来传输数据。UDP协议是无连接的数据传输协议并且无重传机制,会发生丢包、收到重复包、乱序等情况。
1.基于连接与无连接。
2.UDP不提供可靠性,不能保证数据能够到达目的地。
3.对系统资源的要求(TCP较多,UDP少)。
4.UDP结构较简单。
5.TCP面向字节流模式,TCP会保证服务端按顺序接收到全部的字节流,UDP面向数据报模式,不保证顺序性。
很明显,当数据传输的性能必须让位于数据传输的完整性、可控制性和可靠性时,选择TCP协议。当强调传输性能而不是传输的完整性时,如音频和多媒体应用,UDP是最好的选择。在数据传输时间很短,以至于此前的连接过程成为整个流量主体的情况下,UDP也是一个好的选择,如DNS交换。UDP较低的开销使其有更好的机会去传送管理数据。TCP丰富的功能有时会导致不可预料的性能低下。