Personalities : [raid1]
md0 : active raid1 sdb1[2](F) sda1[0]
104320 blocks [2/1] [U_]
md1 : active raid1 sdb2[2](F) sda2[0]
160730240 blocks [2/1] [U_]
Co je potřeba udělat, pokud umře jeden disk v softwarovém RAID1.
V /proc/mdstat je vidět, že RAID je degradovaný. Místo [UU] je tam [U_]. Řekněme, že je vadný disk /dev/sdb. Označím a odstraním vadný oddíl:
#mdadm --manage /dev/md0 --fail /dev/sdb1
#mdadm --manage /dev/md0 --remove /dev/sdb1
Stejný postup opakuji pro ostatní oddíly vadného disku.
#mdadm --manage /dev/md1 --fail /dev/sdb2
#mdadm --manage /dev/md1 --remove /dev/sdb2
Po fyzické výměně disku vytvořím na novém disku stejné partišny:
#sfdisk -d /dev/sda | sfdisk /dev/sdb
Když bude disk špatně detekoavn použít:
ls /sys/class/scsi_host/
echo - - - >/sys/class/scsi_host/host1/scan
a připojím je zpět do RAIDu:
#mdadm --manage /dev/md0 --add /dev/sdb1
Stejný postup opakuji pro ostatní oddíly:
#mdadm --manage /dev/md1 --add /dev/sdb2
Zkontrolujeme stav pole:
#watch cat /proc/mdstat
To je vše.
grub
grub>device (hd0) /dev/sda
grub>root (hd0,0)
grub>setup (hd0)
grub>quit
grub
grub>device (hd1) /dev/sdb
grub>root (hd1,0)
grub>setup (hd1)
grub>quit
Odkazy:
http://www.haaja.org/2009/02/11/vymena-disku-v-serveru-za-ziva/
Using vi, I created an /etc/mdadm.conf file with the following lines:
DEVICE /dev/sd[ab]1
DEVICE /dev/sd[ab]2
This tells mdadm the devices to scan from which it can reconstruct the RAID devices. You may need to use „sda1″ and so on if you are using SATA drives.
After mdadm.conf is initialized, I ran
mdadm –examine –scan >> /etc/mdadm.conf
This adds entries in the mdadm.conf file for any RAID devices that it finds on those disks (in my case /dev/md0 and /dev/md1).
I was then able to assemble the disks using:
mdadm –assemble –scan /dev/md0
mdadm –assemble –scan /dev/md1
To check the status of the disks, use:
cat /proc/mdstat
Aktivace LVM
#lvm vgscan
#lvm vgchange -ay
#lvm lvs