Для тестирования работы RAID1 потребовалось физически отключить диск, но после подключения обнаружил что массив не работает. После сбоя он не включится сам собой, необходимо определить проблему и перезапустить массив в ручном режиме.
Содержание:
Информирование о неисправности RAID1 массива
В системе Proxmox, которую мы настроили, если массив дал сбой обязательно придёт сообщение на почту.
Обязательно настройте такое оповещение любыми удобными для Вас способами.
Определение проблемного раздела
Для определения проблемного раздела выполните команду:
cat /proc/mdstat =вывод команды= Personalities : [raid1] md2 : active raid1 sda3[2](S) sdb3[1] 307683752 blocks super 1.2 [2/1] [_U] md1 : active raid1 sda2[2] sdb2[1] 3902759 blocks super 1.2 [2/2] [UU] md0 : active raid1 sda1[2] sdb1[1] 979921 blocks super 1.2 [2/2] [UU] unused devices:
Видим что массив md2 развалился и раздел sda3 выпал.
Действия после исправления раздела
Допустим что мы исправили диск и он с физической точки зрения исправен.
Удаление раздела из массива
Удаление выполняется командой:
mdadm /dev/md2 -r /dev/sda3
Добавление раздела в массив
Добавляем выполнив команду:
mdadm /dev/md2 -a /dev/sda3
Проверка массива
Проверим правильность работы массива командой:
cat /proc/mdstat =вывод команды= Personalities : [raid1] md2 : active raid1 sda3[2] sdb3[1] 307683752 blocks super 1.2 [2/1] [_U] [>....................] recovery = 0.4% (1518592/307683752) finish=83.9min speed=60743K/sec md1 : active raid1 sda2[2] sdb2[1] 3902759 blocks super 1.2 [2/2] [UU] md0 : active raid1 sda1[2] sdb1[1] 979921 blocks super 1.2 [2/2] [UU] unused devices:
Видим что пошла синхронизация разделов, а значит все прошло успешно.
Чтобы в реальном времени смотреть процесс сборки массива, достаточно ввести:
watch cat /proc/mdstat
Чтобы вывести более детальную информацию о необходимом массиве можно выполнить команду:
mdadm --detail /dev/md2 /dev/md2: Version : 1.2 Creation Time : Thu Mar 29 19:10:24 2012 Raid Level : raid1 Array Size : 307683752 (293.43 GiB 315.07 GB) Used Dev Size : 307683752 (293.43 GiB 315.07 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Fri Mar 30 17:47:48 2012 State : clean, degraded, recovering Active Devices : 1 Working Devices : 2 Failed Devices : 0 Spare Devices : 1 Rebuild Status : 1% complete Name : debian:2 (local to host debian) UUID : 44da8106:3d3c2f10:446517c7:b9b4d593 Events : 1028 Number Major Minor RaidDevice State 2 8 3 0 spare rebuilding /dev/sda3 1 8 19 1 active sync /dev/sdb3