为什么我的RAID / dev / md1显示为/ dev / md126? mdadm.conf被忽略了吗?

我创建了一个RAID:

sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1 sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2 

sudo mdadm --detail --scan返回:

 ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

我把它附加到/etc/mdadm/mdadm.conf ,见下文:

 # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST  # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This file was auto-generated on Mon, 29 Oct 2012 16:06:12 -0500 # by mkconf $Id$ ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

cat /proc/mdstat返回:

 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md2 : active raid1 sdb2[0] sdc2[1] 208629632 blocks super 1.2 [2/2] [UU] md1 : active raid1 sdb1[0] sdc1[1] 767868736 blocks super 1.2 [2/2] [UU] unused devices:  

ls -la /dev | grep md ls -la /dev | grep md返回:

 brw-rw---- 1 root disk 9, 1 Oct 30 11:06 md1 brw-rw---- 1 root disk 9, 2 Oct 30 11:06 md2 

所以我认为一切都很好,我重启。


重新启动后,/ dev / md1现在是/ dev / md126,而/ dev / md2现在是/ dev / md127 ?????

sudo mdadm --detail --scan返回:

 ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

cat /proc/mdstat返回:

 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md126 : active raid1 sdc2[1] sdb2[0] 208629632 blocks super 1.2 [2/2] [UU] md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1] 767868736 blocks super 1.2 [2/2] [UU] unused devices:  

ls -la /dev | grep md ls -la /dev | grep md返回:

 drwxr-xr-x 2 root root 80 Oct 30 11:18 md brw-rw---- 1 root disk 9, 126 Oct 30 11:18 md126 brw-rw---- 1 root disk 9, 127 Oct 30 11:18 md127 

一切都没有丢失,我:

 sudo mdadm --stop /dev/md126 sudo mdadm --stop /dev/md127 sudo mdadm --assemble --verbose /dev/md1 /dev/sdb1 /dev/sdc1 sudo mdadm --assemble --verbose /dev/md2 /dev/sdb2 /dev/sdc2 

并validation一切:

sudo mdadm --detail --scan返回:

 ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

cat /proc/mdstat返回:

 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md2 : active raid1 sdb2[0] sdc2[1] 208629632 blocks super 1.2 [2/2] [UU] md1 : active raid1 sdb1[0] sdc1[1] 767868736 blocks super 1.2 [2/2] [UU] unused devices:  

ls -la /dev | grep md ls -la /dev | grep md返回:

 brw-rw---- 1 root disk 9, 1 Oct 30 11:26 md1 brw-rw---- 1 root disk 9, 2 Oct 30 11:26 md2 

所以再一次,我认为一切都很好,我重启。


再次,重启后,/ dev / md1是/ dev / md126 ,/ dev / md2是/ dev / md127 ?????

sudo mdadm --detail --scan返回:

 ARRAY /dev/md/ion:1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md/ion:2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

cat /proc/mdstat返回:

 Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md126 : active raid1 sdc2[1] sdb2[0] 208629632 blocks super 1.2 [2/2] [UU] md127 : active (auto-read-only) raid1 sdb1[0] sdc1[1] 767868736 blocks super 1.2 [2/2] [UU] unused devices:  

ls -la /dev | grep md ls -la /dev | grep md返回:

 drwxr-xr-x 2 root root 80 Oct 30 11:42 md brw-rw---- 1 root disk 9, 126 Oct 30 11:42 md126 brw-rw---- 1 root disk 9, 127 Oct 30 11:42 md127 

我在这里想念的是什么?

我在这里找到了答案, RAID从md127而不是md0开始 。 简而言之,我将/etc/mdadm/mdadm.conf定义从以下内容中删除:

 ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

至:

 ARRAY /dev/md1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 

并跑了:

 sudo update-initramfs -u 

我不是这方面的专家,但我的理解是……

内核在正常时间之前组装arrays以组装arrays。 当内核组装数组时,它不使用mdadm.conf。 由于分区已经由内核组装,因此跳过了使用mdadm.conf的普通数组程序集。

调用sudo update-initramfs -u告诉内核再次查看系统以了解如何启动。

我相信有更好知识的人会纠正我/详细说明这一点。

使用以下行更新系统上存在的每个相应内核的initrd:

 sudo update-initramfs -k all -u 
 sudo update-initramfs -u 

我只需要解决这个问题。 我没有在/etc/mdadm/mdadm.conf中编辑任何内容。

我遇到过同样的问题。

这个解决方案解决了我的问题: http ://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/

我设法以下列方式复制问题:

当“软件更新程序”询问我是否想要更新软件包(包括Ubuntu base和内核)时,我说:好的。新安装的内核使用了当前内核的/系统设置。然后我创建了数组。只有当前运行的内核更新了使用新的RAID设置。一旦我重新启动,新内核对raid一无所知,并给它一个md127名称!

Interesting Posts