|
ru.unix.bsd- RU.UNIX.BSD ------------------------------------------------------------------ From : Vadim Guchenko 2:5020/400 22 Jan 2007 15:09:41 To : All Subject : Разрушение RAID-массива -------------------------------------------------------------------------------- Hа сервере есть 4 винта, объединенные в страйп через gstripe. Полученный том подключен к точке монтирования /spool. Через какое-то время одному из дисков стало плохо. gstripe сделал несколько попыток чтения с этого диска и потом исключил его из страйпа и отмонтировал том из /spool. При загрузке системы все было нормально: Jan 22 13:02:26 host kernel: GEOM_STRIPE: Device spool created (id=22310705). Jan 22 13:02:26 host kernel: GEOM_STRIPE: Disk ad4s1e attached to spool. Jan 22 13:02:26 host kernel: GEOM_STRIPE: Disk ad6s1d attached to spool. Jan 22 13:02:26 host kernel: GEOM_STRIPE: Disk ad8s1e attached to spool. Jan 22 13:02:26 host kernel: GEOM_STRIPE: Disk ad10s1e attached to spool. Jan 22 13:02:26 host kernel: GEOM_STRIPE: Device spool activated. Потом ad10 отвалился: Jan 22 13:08:04 host kernel: ad10: TIMEOUT - READ_DMA retrying (2 retries left) LBA=87887167 Jan 22 13:08:35 host kernel: ad10: WARNING - removed from configuration Jan 22 13:08:35 host kernel: ata5-master: FAILURE - READ_DMA timed out Jan 22 13:08:35 host kernel: GEOM_STRIPE: Disk ad10s1e removed from spool. Jan 22 13:08:35 host kernel: GEOM_STRIPE: Device spool removed. Видно, что ad10 вообще удален из системы: # atacontrol list ATA channel 0: Master: no device present Slave: no device present ATA channel 1: Master: no device present Slave: no device present ATA channel 2: Master: ad4 <HDS728080PLA380/PF2OA60A> Serial ATA v1.0 Slave: no device present ATA channel 3: Master: ad6 <HDS728080PLA380/PF2OA60A> Serial ATA v1.0 Slave: no device present ATA channel 4: Master: ad8 <HDS728080PLA380/PF2OA60A> Serial ATA v1.0 Slave: no device present ATA channel 5: Master: no device present Slave: no device present # gstripe status Name Status Components stripe/spool DOWN ad4s1e ad6s1d ad8s1e Однако информация о файловых системах по-прежнему показывает какие-то цифры, хотя /home и /spool отмонтированы: # df -hi Filesystem Size Used Avail Capacity iused ifree %iused Mounted on /dev/ad4s1a 473M 58M 377M 13% 1208 61510 2% / devfs 1.0K 1.0K 0B 100% 0 0 100% /dev /dev/ad10s1d 1.9G 440M 1.3G 25% 199 258871 0% /home /dev/ad8s1d 1.9G 1.2G 527M 70% 154516 104554 60% /usr /dev/ad4s1d 1.4G 9.5M 1.3G 1% 314 211652 0% /var /dev/stripe/spool 299G 219G 55G 80% 329 1278133 0% /spool Как-нибудь можно программно определить, что разрушился RAID-массив, ничего не зная о типе этого массива и вообще есть ли он? Т.е. не обращаясь явно к gmirror, gstripe, vinum и т.д. Hапример, есть точка монтирования /spool и df говорит, что к ней подключена файловая система /dev/stripe/spool. Соответственно getmntinfo() возвращает запись об этой файловой системе. А на самом деле к /spool ничего не подключено. Как-то это можно узнать программно, например через информацию от statfs()? FreeBSD 5.4. -- Best regards, Vadim. --- ifmail v.2.15dev5.3 * Origin: Demos online service (2:5020/400) Вернуться к списку тем, сортированных по: возрастание даты уменьшение даты тема автор
Архивное /ru.unix.bsd/1537455b52bf6.html, оценка из 5, голосов 10
|