Il problema
Su CentOS/RHEL 6, un disco presenta un problema e il comando mdadm mostra che /dev/md5 era attivo, stato degradato.
# mdadm -Q --detail /dev/md5 /dev/md5: Version : 0.90 Creation Time : Wed Apr 12 09:50:21 2017 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 1 Preferred Minor : 5 Persistence : Superblock is persistent Update Time : Mon Jun 5 14:47:09 2017 State : active, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 UUID : bdd69b24:0502f47d:04894333:532a878b Events : 0.358889 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 21 1 active sync /dev/sdb5
La soluzione
Lo stato degradato si verifica generalmente se l'unità fisica effettiva si sta arrestando, un'unità non comunica temporaneamente correttamente o la sincronizzazione non ha funzionato dopo la sostituzione del disco.
Se l'unità è ancora online, è ancora disponibile un'opzione "Ricostruisci" o "Sincronizza". In tal caso, eseguirà la scansione dell'unità che il sistema presume sia corretta e si assicurerà che TUTTI i dati vengano copiati sull'altra unità.
Coinvolgi il fornitore dell'hardware e verifica perché la funzione di sincronizzazione o ricostruzione non ha funzionato durante la sostituzione del RAID.
-- After the replacement -- [root@localhost ~]# mdadm -Q --detail /dev/md5 /dev/md5: Version : 0.90 Creation Time : Wed Apr 12 09:50:21 2017 Raid Level : raid1 Array Size : 10485696 (10.00 GiB 10.74 GB) Used Dev Size : 10485696 (10.00 GiB 10.74 GB) Raid Devices : 2 Total Devices : 2 Preferred Minor : 5 Persistence : Superblock is persistent Update Time : Mon Jun 12 17:34:10 2017 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 UUID : bdd69b24:0502f47d:04894333:532a878b Events : 0.818295 Number Major Minor RaidDevice State 0 8 213 0 active sync /dev/sdn5 1 8 21 1 active sync /dev/sdb5