Software Raid1: статус "inactive" у одного из массивов сразу после загрузки
Иногда, даже можно сказать изредка, сразу после загрузки системы один из массивов raid1 имеет статус "inactive" в /proc/mdstat. И соответственно все что должно было быть примонтировано с них — не работает.
Т.к как это бывает редко и сразу же обнаруживается после загрузки, решается это перезагрузкой. И это уже изрядно надоело.
Примечания:
1. глючат только те массивы у которых metadata=1.2, массивы с metadata=0.90 ни разу так себя не вели.
2. во время установки software raid1 всем разделам выделенным для массивов ставился тип "fd Автоопределение Linux raid", но после того как ядро стало при каждой загрузке ругаться в логи такой тип был оставлен только для тех разделов на которых были массивы с metadata=0.90
3. LVM не используется
Как решить эту проблему пока ничего не нагуглилось.
Ядро: 3.7.10
Профиль: x86/13.0
fdisk -l /dev/sda
Disk /dev/sda: 320.1 GB, 320072933376 bytes, 625142448 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x9b3b7309 Устр-во Загр Начало Конец Блоки Id Система /dev/sda1 * 2048 133119 65536 fd Автоопределение Linux raid /dev/sda2 133120 4327423 2097152 82 Linux своп / Solaris /dev/sda3 4327424 67241983 31457280 fd Автоопределение Linux raid /dev/sda4 67241984 625140334 278949175+ 5 Расширенный /dev/sda5 67244032 172101631 52428800 83 Linux /dev/sda6 172103680 625140334 226518327+ 83 Linux
fdisk -l /dev/sdb
Disk /dev/sdb: 320.1 GB, 320071851520 bytes, 625140335 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0xbfc6380f Устр-во Загр Начало Конец Блоки Id Система /dev/sdb1 * 2048 133119 65536 fd Автоопределение Linux raid /dev/sdb2 133120 4327423 2097152 82 Linux своп / Solaris /dev/sdb3 4327424 67241983 31457280 fd Автоопределение Linux raid /dev/sdb4 67241984 625140334 278949175+ 5 Расширенный /dev/sdb5 67244032 172101631 52428800 83 Linux /dev/sdb6 172103680 625140334 226518327+ 83 Linux
cat /proc/mdstat
Personalities : [raid1] md2 : active raid1 sda2[2] sdb2[1] 2096116 blocks super 1.2 [2/2] [UU] md5 : active raid1 sdb5[1] sda5[2] 52427704 blocks super 1.2 [2/2] [UU] md6 : active raid1 sda6[2] sdb6[1] 226517167 blocks super 1.2 [2/2] [UU] md1 : active raid1 sdb1[1] sda1[0] 65472 blocks [2/2] [UU] md3 : active raid1 sdb3[1] sda3[0] 31457216 blocks [2/2] [UU] unused devices:
grep -v "^#" /etc/mdadm.conf
ARRAY /dev/md1 metadata=0.90 UUID=ca67f3b4:f5bef4df:7991acb6:251754d2 ARRAY /dev/md3 metadata=0.90 UUID=471181d2:4ee922d8:7991acb6:251754d2 ARRAY /dev/md2 metadata=1.2 name=linux:2 UUID=2f9feeb9:b24c901f:359bfd12:43b528f0 ARRAY /dev/md5 metadata=1.2 name=linux:5 UUID=f3595881:c6be6476:45ed0c12:01263b23 ARRAY /dev/md6 metadata=1.2 name=linux:6 UUID=3b9d1831:d67ee99a:02cad641:b1cfed87
grep -v "^#" /etc/fstab
/dev/md1 /boot ext2 noauto,noatime 1 2 /dev/md3 / ext3 noatime 0 1 /dev/md2 none swap sw 0 0 /dev/md5 /opt ext3 noatime 0 2 /dev/md6 /home ext3 noatime 0 2 /dev/cdrom /mnt/cdrom auto noauto,ro,users 0 0
dmesg | grep "md"
[ 0.000000] Kernel command line: root=/dev/md3 real_root=/dev/md3 vga=0x305 [ 0.379046] md: raid1 personality registered for level 1 [ 0.599014] md: Waiting for all devices to be available before autodetect [ 0.602093] md: If you don't use raid, use raid=noautodetect [ 0.605306] md: Autodetecting RAID arrays. [ 0.629273] md: Scanned 4 and added 4 devices. [ 0.632368] md: autorun ... [ 0.635380] md: considering sdb3 ... [ 0.638380] md: adding sdb3 ... [ 0.641341] md: sdb1 has different UUID to sdb3 [ 0.644304] md: adding sda3 ... [ 0.647237] md: sda1 has different UUID to sdb3 [ 0.650311] md: created md3 [ 0.653232] md: bind[ 0.656146] md: bind [ 0.659013] md: running: [ 0.661977] md/raid1:md3: active with 2 out of 2 mirrors [ 0.664871] md3: detected capacity change from 0 to 32212189184 [ 0.667780] md: considering sdb1 ... [ 0.670634] md: adding sdb1 ... [ 0.673447] md: adding sda1 ... [ 0.676297] md: created md1 [ 0.678998] md: bind [ 0.681678] md: bind [ 0.684333] md: running: [ 0.687079] md/raid1:md1: active with 2 out of 2 mirrors [ 0.689733] md1: detected capacity change from 0 to 67043328 [ 0.692380] md: ... autorun DONE. [ 0.704357] md3: unknown partition table [ 0.724450] EXT3-fs (md3): mounted filesystem with writeback data mode [ 2.189801] systemd-udevd[1050]: starting version 200 [ 3.196525] md1: unknown partition table [ 3.389096] md: bind [ 3.391131] md: bind [ 3.393447] md: bind [ 3.394992] md/raid1:md5: active with 2 out of 2 mirrors [ 3.395017] md5: detected capacity change from 0 to 53685968896 [ 3.441376] md5: unknown partition table [ 3.498524] md: bind [ 3.534413] md: bind [ 3.537691] md/raid1:md2: active with 2 out of 2 mirrors [ 3.537708] md2: detected capacity change from 0 to 2146422784 [ 3.583119] md: bind [ 3.590281] md/raid1:md6: active with 2 out of 2 mirrors [ 3.590296] md6: detected capacity change from 0 to 231953579008 [ 3.597514] md2: unknown partition table [ 3.611713] md6: unknown partition table [ 6.079785] EXT3-fs (md3): using internal journal [ 6.264392] Adding 2096112k swap on /dev/md2. Priority:-1 extents:1 across:2096112k [ 6.347928] EXT3-fs (md5): using internal journal [ 6.347933] EXT3-fs (md5): mounted filesystem with writeback data mode [ 6.410362] EXT3-fs (md6): using internal journal [ 6.410368] EXT3-fs (md6): mounted filesystem with writeback data mode
grep -E "(RAID|MD)" /proc/config.gz
CONFIG_MD=y CONFIG_BLK_DEV_MD=y CONFIG_MD_AUTODETECT=y CONFIG_MD_RAID1=y
- Для комментирования войдите или зарегистрируйтесь
у тебя ядро должно само raid
У тебя ядро должно само raid подхватывать(CONFIG_MD_AUTODETECT=y), без всяких там mdam.conf, он не нужен.
Типы разделов тоже левые - ставь на все "fd".
Даже если mdadm.conf не
Даже если mdadm.conf не нужен. Это не решает проблему. Да и про типы разделов fd я писал что бестолку это.
Помни форумчанин: Незнание исправляется чтением, а высокомерие рихтовкой читательных органов >8)
CREATIVE0809
такое-же поведение на одном из относительно недавно построенных боксов. замечалось, кстати, что случается на рейдах и 0.9, и 1.2. не зависит ни от вида рейда, ни от наличия lvm (в моём случае md1 [mirror, 0.9, boot partition] и md4 [stripe, 1.2, для томов lvm]). интересно, что никогда не случалось для остальных raid в системе (имеются root, home partitions). для исправления не обязательно перегружаться, просто пересобрать raid:
mdadm --stop /dev/md4
mdadm --assemble /dev/md4
грешу на специфику железки и используемый uefi boot
кажется, в текущем стабильном ядре, 3.12.13 - полечилось (не могу утверждать, система перегружается редко)