本文共 9980 字,大约阅读时间需要 33 分钟。
•常见raid原理
•raid卡•配置raid•删除raid实验需要添加5块硬盘
sda , b ,c,d,e,fRAID(Redundant Array of Independent Disks,独立磁盘冗余阵列)可以提供较普通磁盘更高的速度、安全性,所以服务器在安装时都会选择创建RAID。RAID的创建有两种方式:软RAID(通过操作系统软件来实现)和硬RAID(使用硬件阵列卡)。raid0:
RAID-0 :striping(条带模式),至少需要两块磁盘,做RAID分区的大小最好是相同的(可以充分发挥并发优势);数据分散存储于不同的磁盘上,在读写的时候可以实现并发,所以相对其读写性能最好;但是没有容错功能,任何一个磁盘的损坏将损坏全部数据;磁盘利用率为100%。
RAID-5 :需要三块或以上硬盘,可以提供热备盘实现故障的恢复;只损坏一块,没有问题。但如果同时损坏两块磁盘,则数据将都会损坏。 空间利用率: (n-1)/n 2/3
1+1 =2
是用相对简单的异或逻辑运算(相同为0,相异为1)A值 B值 Xor结果0 0 01 0 10 1 11 1 0管理软raid工具mdadm
mdadm 参数:命令常用参数如下:-C或--creat 建立一个新阵列 -r 移除设备
-A 激活磁盘阵列 -l 或--level= 设定磁盘阵列的级别-D或--detail 打印阵列设备的详细信息 -n或--raid-devices= 指定阵列成员(分区/磁盘)的数量-s或--scan 扫描配置文件或/proc/mdstat得到阵列缺失信息 -x或--spare-devicds= 指定阵列中备用盘的数量-f 将设备状态定为故障 -c或--chunk= 设定阵列的块chunk大小 ,单位为KB-a或--add 添加设备到阵列 -G或--grow 改变阵列大小或形态-v --verbose 显示详细信息热备份盘(hot spare or hot standby driver):为了加强容错的功能以及使系统在磁盘故障的情况下能迅速的重建数据,以维持系统的性能,一般的磁盘阵列系统都可使用热备份功能。
Chunk (块): raid存储数据时每个数据段的大小。 4K,64K
若chunk过大,可能一块磁盘上的带区空间就可以满足大部分的I/O操作的数据的读写只局限与一块硬盘上,这便不能充分发挥Raid并发的优势;如果chunk设置过小,任何很小的I/O指令都可能引发大量的读写操作,不能良好的发挥并发性能,占用过多的控制器总线带宽,也影响了阵列的整体性能。所以,在创建带区时,我们应该根据实际应用的需要,合理的选择带区的大小RAID0
例1、1)创建RAID02)导出阵列配置文件3)格式化并挂载到指定目录4)修改/etc/fstab永久挂载环境:添加一个sdc硬盘,分两个1G的主分区。sdc1和sdc2[root@localhost ~]# fdisk /dev/sdc[root@localhost ~]# ll /dev/sdc*brw-rw---- 1 root disk 8, 16 Feb 25 09:10 /dev/sdcbrw-rw---- 1 root disk 8, 17 Feb 25 09:10 /dev/sdc1brw-rw---- 1 root disk 8, 18 Feb 25 09:10 /dev/sdc2[root@localhost ~]# yum -y install mdadm ##安装mdadm管理工具
[root@localhost ~]# mdadm -C -v /dev/md0 -l 0 -n 2 /dev/sdc{1,2}mdadm: chunk size defaults to 512Kmdadm: Defaulting to version 1.2 metadatamdadm: array /dev/md0 started.查看阵列信息
[root@localhost ~]# mdadm -DsARRAY /dev/md0 metadata=1.2 name=localhost.cn:0 UUID=c02009dd:fc28f287:fafca47a:49b2bd81生成配置文件
[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:Version : 1.2Creation Time : Thu Feb 25 09:14:14 2016Raid Level : raid0Array Size : 2095104 (2046.34 MiB 2145.39 MB)Raid Devices : 2Total Devices : 2Persistence : Superblock is persistentUpdate Time : Thu Feb 25 09:14:14 2016 State : clean
Active Devices : 2
Working Devices : 2Failed Devices : 0Spare Devices : 0Chunk Size : 512K Name : localhost.cn:0 (local to host localhost.cn) UUID : c02009dd:fc28f287:fafca47a:49b2bd81 Events : 0Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdc1 1 8 18 1 active sync /dev/sdc2
对创建的RAID0创建分区
[root@localhost ~]# fdisk /dev/md0[root@localhost ~]# ll /dev/md0*brw-rw---- 1 root disk 9, 0 Feb 25 09:19 /dev/md0brw-rw---- 1 root disk 259, 1 Feb 25 09:19 /dev/md0p1格式化分区并挂载
[root@localhost ~]# mkfs.xfs /dev/md0p1[root@localhost ~]# mkdir /raid0[root@localhost ~]# mount /dev/md0p1 /raid0/永久挂载
[root@localhost ~]# blkid | grep md0p1/dev/md0p1: UUID="a25acfcc-9e33-474a-98b8-a0c07fee063e" TYPE="xfs"[root@localhost ~]# echo "UUID=a25acfcc-9e33-474a-98b8-a0c07fee063e /raid0 xfs defaults 0 0" >> /etc/fstab建立RAID1
1)创建RAID12)添加1G热备盘3)模拟磁盘故障,自动顶替故障盘4)卸载阵列环境:创建分区:sdd1,sdd2,sdd3 大小为1G
[root@localhost ~]# fdisk /dev/sdd[root@localhost ~]# ll /dev/sdd*brw-rw---- 1 root disk 8, 32 Feb 26 07:35 /dev/sddbrw-rw---- 1 root disk 8, 33 Feb 26 07:35 /dev/sdd1brw-rw---- 1 root disk 8, 34 Feb 26 07:35 /dev/sdd2brw-rw---- 1 root disk 8, 35 Feb 26 07:35 /dev/sdd3创建RAID1
[root@localhost ~]# mdadm -C -v /dev/md1 -l 1 -n 2 -x 1 /dev/sdd{1,2,3}mdadm: Note: this array has metadata at the start andmay not be suitable as a boot device. If you plan tostore '/boot' on this device please ensure thatyour boot-loader understands md/v1.x metadata, or use--metadata=0.90mdadm: size set to 1047552KContinue creating array?Continue creating array? (y/n) ymdadm: Defaulting to version 1.2 metadatamdadm: array /dev/md1 started.查看阵列信息
[root@localhost ~]# cat /proc/mdstatPersonalities : [raid1]md1 : active raid1 sdd3 sdd2[1] sdd1[0]1047552 blocks super 1.2 [2/2] [UU]unused devices: <none>
生成配置文件
[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf[root@localhost ~]# cat !$cat /etc/mdadm.confARRAY /dev/md1 metadata=1.2 spares=1 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0使用RAID1
创建分区、格式化、挂载[root@localhost ~]# fdisk /dev/md1[root@localhost ~]# mkfs.xfs /dev/md1p1[root@localhost ~]# mkdir /raid1[root@localhost ~]# mount /dev/md1p1 /raid1/[root@localhost ~]# df -hFilesystem Size Used Avail Use% Mounted on/dev/mapper/rhel-root 10G 3.2G 6.9G 32% /devtmpfs 2.0G 0 2.0G 0% /devtmpfs 2.0G 84K 2.0G 1% /dev/shmtmpfs 2.0G 9.0M 2.0G 1% /runtmpfs 2.0G 0 2.0G 0% /sys/fs/cgroup/dev/sr0 3.8G 3.8G 0 100% /mnt/dev/sda1 197M 125M 72M 64% /boottmpfs 394M 16K 394M 1% /run/user/42tmpfs 394M 0 394M 0% /run/user/0/dev/md1p1 1019M 33M 987M 4% /raid1[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]md1 : active raid1 sdd3 sdd2[1] sdd1[0]1047552 blocks super 1.2 [2/2] [UU]unused devices: <none>
#md1:表示此阵列的设备名#active:表示此阵列正常读写#sdd3[2][S]:表示是这个阵列第3个设备且是备用盘,sdd2[1]是此阵列第2个设备,sdd1[0]是此阵列第1个设备#【2/2】:表示阵列中有2个磁盘,并且2个都在正常运行
[root@localhost ~]# cat /etc/mdadm.conf
ARRAY /dev/md1 metadata=1.2 spares=1 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0#spares=1表示:有热备盘1个
#下面模拟RAID1中/dev/sdd1出现故障,观察/dev/sdd3备用盘能否自动顶替故障盘
#将/dev/sdd1指定为故障状态,cat /proc/mdstat查看阵列状态#稍待片刻阵列重新重建成功,发现/dev/sdd3后的[S]消失了,成功顶替故障盘#移除故障盘/dev/sdd1[root@localhost ~]# watch -n 1 cat /proc/mdstat
[root@localhost ~]# mdadm -f /dev/md1 /dev/sdd1
mdadm: set /dev/sdd1 faulty in /dev/md1移动损坏的设备:
[root@localhost ~]# mdadm -r /dev/md1 /dev/sdd1
mdadm: hot removed /dev/sdd1 from /dev/md1[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1]md1 : active raid1 sdd3[2] sdd2[1]1047552 blocks super 1.2 [2/2] [UU]重新生成配置文件
[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf[root@localhost ~]# cat !$cat /etc/mdadm.confARRAY /dev/md1 metadata=1.2 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0建立RAID5
1)创建RAID52)停止阵列,重新激活阵列3)再添加新的1G热备盘,扩展阵列容量,从3磁盘个扩展到4个实验环境: sde1,sde2,sde3,sde5,sde6 个主分区 每个1G创建分区
[root@localhost ~]# fdisk /dev/sde[root@localhost ~]# ll /dev/sde*brw-rw---- 1 root disk 8, 64 Feb 26 08:04 /dev/sdebrw-rw---- 1 root disk 8, 65 Feb 26 08:04 /dev/sde1brw-rw---- 1 root disk 8, 66 Feb 26 08:04 /dev/sde2brw-rw---- 1 root disk 8, 67 Feb 26 08:04 /dev/sde3brw-rw---- 1 root disk 8, 69 Feb 26 08:04 /dev/sde5brw-rw---- 1 root disk 8, 70 Feb 26 08:04 /dev/sde6brw-rw---- 1 root disk 8, 71 Feb 26 08:04 /dev/sde7brw-rw---- 1 root disk 8, 72 Feb 26 08:04 /dev/sde8创建RAID5
[root@localhost ~]# mdadm -C -v /dev/md5 -l 5 -n 3 -c 32 -x 1 /dev/sde{1,2,5,6}生成配置文件
[root@localhost ~]# mdadm -Ds > /etc/mdadm.conf[root@localhost ~]# cat !$cat /etc/mdadm.confARRAY /dev/md1 metadata=1.2 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0ARRAY /dev/md5 metadata=1.2 spares=1 name=localhost.cn:5 UUID=1ac1f8c8:d4829dbb:a47fa5e2:414231f1停止md5
停止之前先生成配置文件[root@localhost ~]# mdadm -S /dev/md5mdadm: stopped /dev/md5激活:
[root@localhost ~]# mdadm -As#再新添加一块硬盘分区/dev/sde7,希望扩展RAID5阵列到4块硬盘
[root@localhost ~]# mdadm -a /dev/md5 /dev/sde7
mdadm: added /dev/sde7[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]md5 : active raid5 sde7 sde1[0] sde6 sde5[4] sde2[1]2095104 blocks super 1.2 level 5, 32k chunk, algorithm 2 [3/3] [UUU]md1 : active raid1 sdc3[2] sdc2[1]
1047552 blocks super 1.2 [2/2] [UU]unused devices: <none>
[root@localhost ~]# mdadm -G /dev/md5 -n 4
[root@localhost ~]# cat /proc/mdstatPersonalities : [raid1] [raid6] [raid5] [raid4]md5 : active raid5 sde7[5] sde1[0] sde6 sde5[4] sde2[1]3142656 blocks super 1.2 level 5, 32k chunk, algorithm 2 [4/4] [UUUU]md1 : active raid1 sdc3[2] sdc2[1]
1047552 blocks super 1.2 [2/2] [UU]重新生成配置文件
[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf了解:
建立RAID 1+0双层架构的方法方法,先创建raid1,再使用创建的raid1设备创建raid0[root@localhost ~]# fdisk /dev/sdf[root@localhost ~]# ll /dev/sdf*brw-rw---- 1 root disk 8, 80 Feb 26 08:39 /dev/sdfbrw-rw---- 1 root disk 8, 81 Feb 26 08:39 /dev/sdf1brw-rw---- 1 root disk 8, 82 Feb 26 08:39 /dev/sdf2brw-rw---- 1 root disk 8, 83 Feb 26 08:39 /dev/sdf3brw-rw---- 1 root disk 8, 84 Feb 26 08:39 /dev/sdf4brw-rw---- 1 root disk 8, 85 Feb 26 08:39 /dev/sdf5首先、创建2个底层的raid1
[root@localhost ~]# mdadm -C -v /dev/md11 -l 1 -n 2 /dev/sdf{1,2}[root@localhost ~]# mdadm -C -v /dev/md12 -l 1 -n 2 /dev/sdf{3,5}再创建上层的raid0
[root@localhost ~]# mdadm -C -v /dev/md10 -l 0 -n 2 /dev/md1{1,2}mdadm: chunk size defaults to 512Kmdadm: Defaulting to version 1.2 metadatamdadm: array /dev/md10 started.生成配置文件
[root@localhost ~]# cat !$cat /etc/mdadm.confARRAY /dev/md1 metadata=1.2 name=localhost.cn:1 UUID=9b5e920c:a637e13a:9bfc64ac:74998dc0ARRAY /dev/md5 metadata=1.2 spares=1 name=localhost.cn:5 UUID=1ac1f8c8:d4829dbb:a47fa5e2:414231f1ARRAY /dev/md11 metadata=1.2 name=localhost.cn:11 UUID=c80e5768:eca7d5fb:6a576707:06884d89ARRAY /dev/md12 metadata=1.2 name=localhost.cn:12 UUID=46da12ab:4b6a9a71:16d2715b:18e52724ARRAY /dev/md10 metadata=1.2 name=localhost.cn:10 UUID=632a0efc:66e6847c:615ee844:a04ab1f3关闭所有的RAID
卸载raid的挂载[root@localhost ~]# mdadm -Ss全部激活
[root@localhost ~]# mdadm -Asmdadm删除软raid的方法
首先,创建一个raid1[root@localhost ~]# mdadm -C /dev/md3 -l 1 -n 2 /dev/sdc{1,2}开始删除raid
[root@localhost ~]# umount /dev/md3p1[root@localhost ~]# mdadm -Ss删除配置文件
[root@localhost ~]# rm -rf /etc/mdadm.conf清除物理磁盘中的raid标识
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc1[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdc2参数说明:
mdadm --misc options... devicesreport on or modify various md related devices. #报告或修改各种MD相关的设备--zero-superblock : erase the MD superblock from a device. #擦除设备中的MD超级块。转载于:https://blog.51cto.com/11638205/2048962