RAID 全称为独立磁盘冗余阵列(Rdeundant Array of Independent Disks
),基本思想就是把 多个相对便宜的硬盘组合起来,成为一个硬盘阵列组,使性能达到甚至超过一个价格昂贵、 容量巨大的硬盘。RAID通常被用在服务器电脑上,使用完全相同的硬盘组成一个逻辑扇区, 因此操作系统只会把它当做一个硬盘。
提高IO能力:磁盘的并行读写
提高耐用性:磁盘的冗余来实现
标准的RAID
RAID 分为不同的等级,各个不同的等级均在数据可靠性及读写性能上做了不同的权衡。 在实际应用中,可以依据自己的实际需求选择不同的RAID方案。
- RAID0
RAID0 称为条带化(
Striping
)存储,将数据分段存储于 各个磁盘中,读写均可以并行处理。因此其读写速率为单个磁盘的N倍(N为组成RAID0的磁盘个数),但是却没有数 据冗余,单个磁盘的损坏会导致数据的不可修复。
大多数striping
的实现允许管理者通过调节两个关键的参数来定义数据分段及写入磁盘的 方式,这两个参数对RAID0
的性能有很重要的影响。
优点:极高的磁盘读写效率,不存在校验,不会占用太多CPU资源,设计、使用和配置比较简单
缺点:无冗余,不能用于对数据安全性要求高的环境
适用领域:视频生成和编辑、图像编辑。其他需要大的传输带宽的操作
- RAID1
镜像存储(
mirroring
),没有数据校验。数据被同等地写入两个或多个磁盘中,可想而知,写入速度会比较 慢,但读取速度会比较快。读取速度可以接近所有磁盘吞吐量的总和,写入速度受限于最慢 的磁盘。RAID1
也是磁盘利用率最低的一个。如果用两个不同大小的磁盘建立RAID1
,可以用空间较小 的那一个,较大的磁盘多出来的部分可以作他用,不会浪费。
优点:具有100%数据冗余,提供最高的数据安全保障,理论上可以实现2倍的读取效率,设计和使用比较简单
缺点:开销大,空间利用率只有50%。在写性能方面提升不大
适用领域:财务、金融等高可用、高安全的数据存储环境
- RAID2
采用校验冗余,把数据分散为位或块,加入汉明码,间隔写入到磁盘阵列的每个磁盘中。采用了并行存取方式,花费大,成本昂贵。所 以RAID2适合于连续IO,大块IO(比如视频流服务)的情况。
- RAID3
数据块被分为更小的块并行传输到各个成员磁盘上,同时计算XOR校验数据存放到专用的校验磁盘上
优点:读写性能都比较好。当有磁盘损坏时,对整体吞吐量影响较小,减少了开销
缺点:控制器设计复杂。采用并行存取方式,主轴同步时吞吐量没有提高,校验磁盘的写性能有瓶颈
适用领域:视频生成和图像、视频编辑等.需要高吞吐量的应用环境
- RAID5
采用独立存取的阵列方式,校验信息被均匀的分散到阵列的各个磁盘上
RAID5 把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和 相对应的数据分别存储于不同的磁盘上,其中任意N-1块磁盘上都存储完整的数据,也就是 说有相当于一块磁盘容量的空间用于存储奇偶校验信息。因此当RAID5的一个磁盘发生损坏 后,不会影响数据的完整性,从而保证了数据安全。当损坏的磁盘被替换后,RAID还会自动 利用剩下奇偶校验信息去重建此磁盘上的数据,来保持RAID5的高可靠性。
优点:读性能比较高,中等的写性能,校验信息的分布式存取,避免出现写操作的瓶颈
缺点:控制器设计复杂,磁盘重建的过程比较复杂
适用范围:文件服务器、Email服务器、Web服务器等环境、数据库应用
混合RAID
组合不同级别的RAID,目的是扬长避短,产生具有优势特性的混合RAID级别
- RAID01
顾名思义,是RAID0和RAID1的结合。先做条带(0),再做镜像(1)。即先分两堆做成
raid0
,而后将他们做成raid1
- RAID10
顾名思义,是RAID1和RAID0的结合。先做镜像,在做条带。即先两两一组做成raid1,而后将这一堆做成raid0
优点:读性能很高,写性能比较好,数据安全性好,允许同时有N个磁盘失效
缺点:空间利用率只有50%,开销大
适用领域:多用于要求高可用性和高安全性的数据库应用
- RAID50
RAID50是RAID5和RAID0的结合,先实现RAID5,再条带化.
优点:比RAID5有更好的读性能,比相同容量的RAID5重建时间更短,可以容许N个磁盘同时失效
缺点:设计复杂,比较难实现,同一个RAID5组内的两个磁盘失效会导致整个阵列的失效
适用范围:大型数据库服务器、应用服务器、文件服务器等应用
RAID的实现方式
- 外接式磁盘阵列:通过扩展卡提供适配能力
- 内接式RAID:主板集成RAID控制器
-
Software RAID:需要结合内核中的md(
multi devices
)来实现模拟RAID,生产中不会用
mdadm命令介绍
mdadm
是linux下用于管理软RAID设备的一个模式化的工具
语法格式:mdadm [mode] <raiddevice> [options] <component-devices>
支持的RAID级别:LINEAR, RAID0, RAID1, RAID4, RAID5, RAID6, RAID10;
它具备四种模式:创建、装配、监控、和管理四种模式
- -C: 创建模式
-n #: 使用#个块设备来创建此RAID;
-l #:指明要创建的RAID的级别;
-a {yes|no}:自动创建目标RAID设备的设备文件;
-c CHUNK_SIZE: 指明块大小;
-x #: 指明空闲盘的个数;
- -D:显示raid的详细信息
mdadm -D /dev/md#
- 管理模式
-f: 标记指定磁盘为损坏;
-a: 添加磁盘
-r: 移除磁盘
- 观察md的状态
cat /proc/mdstat
- 停止md设备
mdadm -S /dev/md#
实战:创建一个10G可用空间的RAID5
1.准备分区fdisk /dev/sda
Command (m for help): n
All primary partitions are in use
Adding logical partition 7
First sector (131033088-251658239, default 131033088):
Using default value 131033088
Last sector, +sectors or +size{K,M,G} (131033088-251658239, default 251658239): +5G
Partition 7 of type Linux and of size 5 GiB is set
Command (m for help): N
All primary partitions are in use
Adding logical partition 8
First sector (141520896-251658239, default 141520896):
Using default value 141520896
Last sector, +sectors or +size{K,M,G} (141520896-251658239, default 251658239): +5G
Partition 8 of type Linux and of size 5 GiB is set
Command (m for help): N
All primary partitions are in use
Adding logical partition 9
First sector (152008704-251658239, default 152008704): +5G
Value out of range.
First sector (152008704-251658239, default 152008704):
Using default value 152008704
Last sector, +sectors or +size{K,M,G} (152008704-251658239, default 251658239): +5G
Partition 9 of type Linux and of size 5 GiB is set
Command (m for help): N
All primary partitions are in use
Adding logical partition 10
First sector (162496512-251658239, default 162496512):
Using default value 162496512
Last sector, +sectors or +size{K,M,G} (162496512-251658239, default 251658239): +5G
Partition 10 of type Linux and of size 5 GiB is set
2.调整磁盘id号(fd)
Command (m for help): T
Partition number (1-10, default 10): 7
Hex code (type L to list all codes): fd
Changed type of partition 'Linux' to 'Linux raid autodetect'
Command (m for help): t
Partition number (1-10, default 10): 8
Hex code (type L to list all codes): fd
Changed type of partition 'Linux' to 'Linux raid autodetect'
Command (m for help): t
Partition number (1-10, default 10): 9
Hex code (type L to list all codes): fd
Changed type of partition 'Linux' to 'Linux raid autodetect'
Command (m for help): t
Partition number (1-10, default 10): 10
Hex code (type L to list all codes): fd
Changed type of partition 'Linux' to 'Linux raid autodetect'
Command (m for help): p
Disk /dev/sda: 128.8 GB, 128849018880 bytes, 251658240 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x00054abe
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1001471 499712 83 Linux
/dev/sda2 1001472 84887551 41943040 83 Linux
/dev/sda3 84887552 126830591 20971520 83 Linux
/dev/sda4 126830592 251658239 62413824 5 Extended
/dev/sda5 126834688 131031039 2098176 82 Linux swap / Solaris
/dev/sda6 126832640 126834687 1024 83 Linux
/dev/sda7 131033088 141518847 5242880 fd Linux raid autodetect
/dev/sda8 141520896 152006655 5242880 fd Linux raid autodetect
/dev/sda9 152008704 162494463 5242880 fd Linux raid autodetect
/dev/sda10 162496512 172982271 5242880 fd Linux raid autodetect
3.强制内核重读分区
[root@master-01 ~]# partx -a /dev/sda
partx: /dev/sda: error adding partitions 1-10
[root@master-01 ~]# cat /proc/partitions
major minor #blocks name
8 0 125829120 sda
8 1 499712 sda1
8 2 41943040 sda2
8 3 20971520 sda3
8 4 1 sda4
8 5 2098176 sda5
8 6 1024 sda6
8 7 5242880 sda7
8 8 5242880 sda8
8 9 5242880 sda9
8 10 5242880 sda10
11 0 1048575 sr0
4.创建RAID5
[root@master-01 ~]# mdadm -C /dev/md0 -a yes -n 3 -x 1 -l 5 /dev/sda{7,8,9,10}
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
查看raid的信息
[root@master-01 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda9[4] sda10[3](S) sda8[1] sda7[0]
10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[=======>.............] recovery = 37.1% (1947524/5238784) finish=1.7min speed=31789K/sec
unused devices: <none>】
[root@master-01 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda9[4] sda10[3](S) sda8[1] sda7[0]
10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
格式化我们的raid盘
[root@master-01 ~]# mke2fs -t ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
655360 inodes, 2619392 blocks
130969 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2151677952
80 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
查看RAID详细信息-D
[root@master-01 ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Jan 5 02:14:18 2017
Raid Level : raid5
Array Size : 10477568 (9.99 GiB 10.73 GB)
Used Dev Size : 5238784 (5.00 GiB 5.36 GB) #校验盘
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Jan 5 02:22:19 2017
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : master-01:0 (local to host master-01)
UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
Events : 18
Number Major Minor RaidDevice State
0 8 7 0 active sync /dev/sda7
1 8 8 1 active sync /dev/sda8
4 8 9 2 active sync /dev/sda9
3 8 10 - spare /dev/sda10 #空闲盘
挂载使用
[root@master-01 ~]# mkdir /mydata
[root@master-01 ~]# mount /dev/md0 /mydata/
[root@master-01 ~]# df -lh /dev/md0
Filesystem Size Used Avail Use% Mounted on
/dev/md0 9.8G 37M 9.2G 1% /mydata
[root@master-01 ~]# blkid /dev/md0
/dev/md0: UUID="83b83c5f-ddfd-4e90-8095-0a7495d85cd5" TYPE="ext4"
模拟损坏
将一个盘标记为损坏-f,此时会重新进行校验
[root@master-01 ~]# mdadm /dev/md0 -f /dev/sda7
mdadm: set /dev/sda7 faulty in /dev/md0
[root@master-01 ~]# watch -n1 'cat /proc/mdstat'
[root@master-01 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda9[4] sda10[3] sda8[1] sda7[0](F)
10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
[===================>.] recovery = 96.6% (5061948/5238784) finish=0.1min speed=21402K/sec
unused devices: <none>
再次查看,我们可以发现原来的备用盘顶上去,以保证raid设备还能继续运行
[root@master-01 ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Jan 5 02:14:18 2017
Raid Level : raid5
Array Size : 10477568 (9.99 GiB 10.73 GB)
Used Dev Size : 5238784 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Jan 5 03:19:44 2017
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : master-01:0 (local to host master-01)
UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
Events : 37
Number Major Minor RaidDevice State
3 8 10 0 active sync /dev/sda10
1 8 8 1 active sync /dev/sda8
4 8 9 2 active sync /dev/sda9
0 8 7 - faulty /dev/sda7
再损坏一块盘,并查看raid5的信息
[root@master-01 ~]# mdadm /dev/md0 -f /dev/sda8
mdadm: set /dev/sda8 faulty in /dev/md0
[root@master-01 ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Jan 5 02:14:18 2017
Raid Level : raid5
Array Size : 10477568 (9.99 GiB 10.73 GB)
Used Dev Size : 5238784 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Jan 5 03:24:47 2017
State : clean, degraded #降级工作
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : master-01:0 (local to host master-01)
UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
Events : 39
Number Major Minor RaidDevice State
3 8 10 0 active sync /dev/sda10
2 0 0 2 removed
4 8 9 2 active sync /dev/sda9
0 8 7 - faulty /dev/sda7
1 8 8 - faulty /dev/sda8
通过下面的操作,我们发现raid5仍然可以继续工作
[root@master-01 ~]# cp /etc/fstab /mydata/
[root@master-01 ~]# ls /mydata/
fstab lost+found
将坏了的盘移除-r
[root@master-01 ~]# mdadm /dev/md0 -r /dev/sda7
mdadm: hot removed /dev/sda7 from /dev/md0
[root@master-01 ~]# mdadm /dev/md0 -r /dev/sda8
mdadm: hot removed /dev/sda8 from /dev/md0
[root@master-01 ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda9[4] sda10[3]
10477568 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [U_U]
unused devices: <none>
[root@master-01 ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Jan 5 02:14:18 2017
Raid Level : raid5
Array Size : 10477568 (9.99 GiB 10.73 GB)
Used Dev Size : 5238784 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Thu Jan 5 03:29:57 2017
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric #左对称
Chunk Size : 512K
Name : master-01:0 (local to host master-01)
UUID : 8b64de29:07a5eb6d:4cbfdad8:81bfd5c9
Events : 49
Number Major Minor RaidDevice State
3 8 10 0 active sync /dev/sda10
2 0 0 2 removed
4 8 9 2 active sync /dev/sda9
将磁盘重新加到raid设备中-a,此时raid5又会回到clean状态
[root@master-01 ~]# mdadm /dev/md0 -a /dev/sda7
mdadm: added /dev/sda7