Решение проблемы сделало один шаг вперёд после установки бета-прошивки 2.02 (была 2.00).
После этого появилась возможно выбрать Reconfigure to Raid 1 - и запустить соответствующую переконфигурацию.
НО, к сожалению, к полному успеху это не привело.
Web-интерфейс по-прежнему рапортует, что у него один Volume_1 типа Standard.
А при доступе через ssh/telnet можно увидеть более интересную картину - одно md устройство raid1 вроде как создалось, но не для тех (или не для всех разделов).
т.е.
Код:
/ # cat /etc/mdadm.conf
ARRAY /dev/md0 level=raid1 num-devices=2 spares=1 UUID=e065db43:a39f45b2:c64b9e64:f500bda9
если подробнее
Код:
/ # mdadm --detail /dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Mon Sep 19 03:00:11 2011
Raid Level : raid1
Array Size : 530048 (517.71 MiB 542.77 MB)
Device Size : 530048 (517.71 MiB 542.77 MB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sat Oct 8 04:24:45 2011
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : e065db43:a39f45b2:c64b9e64:f500bda9
Events : 0.12
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
И похоже это устройство используется, обеспечивая таким образом отказоустойчивый swap =)
Код:
/ # cat /proc/swaps
Filename Type Size Used Priority
/dev/md0 partition 530040 1568 -1
fdisk без опций с указанием устройства (для интерактивной правки) вылетает в segmentation fault. Но можно получить и такую картинку, из которой видно, что зеркало было создано между swap на sda1 и всем разделом sdb1?
Видно также, что для двух вроде бы почти одинаковых дисков определена разная геомерия:
для sda - 255 головок, для sdb - 256 головок.
Код:
/ # fdisk -u -l
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sda1 63 1060289 530113+ 82 Linux swap
/dev/sda2 2088450 3904983809 1951447680 83 Linux
/dev/sda4 1060290 2088449 514080 83 Linux
Partition table entries are not in disk order
Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
256 heads, 63 sectors/track, 242251 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 3907029167 1953514583+ ee EFI GPT
в файле /usr/local/config/dm_state.xml нашёл ещё такую информацию, похожую на правду относительно того, что должно быть
Код:
/ # cat /usr/local/config/dm_state.xml
<config>
<input>
<size>1998</size>
<mode>raid1</mode>
<file_type>ext3</file_type>
<remains_to_linear>0</remains_to_linear>
</input>
<hd_info>
<sda>
<channel>scsi0</channel>
<vendor>WDC</vendor>
<model>WD20EARS-00MVWB1</model>
<serial>WD-WCAZA8694386</serial>
<size>2000</size>
<blocks>1953514584</blocks>
</sda>
<sdb>
<channel>scsi1</channel>
<vendor>WDC</vendor>
<model>WD20EARS-00MVWB0</model>
<serial>WD-WCAZA8271144</serial>
<size>2000</size>
<blocks>1953514584</blocks>
</sdb>
</hd_info>
<raid_info>
<md0>
<level>raid1</level>
<dev>/dev/md0</dev>
<disk>/dev/sda1 /dev/sdb1</disk>
<devices>2</devices>
<chunk_size>64</chunk_size>
</md0>
<md1>
<level>raid1</level>
<dev>/dev/md1</dev>
<disk>/dev/sda2 /dev/sdb2</disk>
<devices>2</devices>
<chunk_size>64</chunk_size>
</md1>
</raid_info>
</config>
Подозреваю, что к делу также может относится информация информация из cat /etc/NAS_CFG/config.xml
Код:
<dsk_mgr>
<hdd_config>
<raid_auto_sync>0</raid_auto_sync>
</hdd_config>
<dsk_diagnostic></dsk_diagnostic>
<volume_mapping>
<volume_1>Volume_1</volume_1>
<volume_2>Volume_2</volume_2>
</volume_mapping>
<smart>
<test>
<hd_a></hd_a>
<hd_b></hd_b>
</test>
<hd_a_sn>WD-WCAZA8694386</hd_a_sn>
<hd_b_sn>WD-WCAZA8271144</hd_b_sn>
</smart>
</dsk_mgr>
Но, как и предыдущий кусок - честно-говоря, не понимаю до конца к чему она относится - к конфигурации того, как создаётся raid или к тому, как о нём будет думать web-интерфейс.
Вопросов основных два:
1. Как пофиксить, чтобы получить честное зеркало? Т.е. попробовал бы руками, но с учётом того, что fdisk уходит в segmentation fault - единственный метод, который приходит на ум начнётся с прописывания таблицы разделов на /dev/sdb совсем руками... а этого хотелось бы избежать, если кто что поумнее предложит.
2. Где прописываются для системы точки монтирования? В /etc/fstab я их не нашёл.
Код:
/ # cat /etc/fstab
proc /proc proc defaults 0 0
/dev/ram0 / ext2 defaults 1 1
Ну и может кто-нибудь ещё чего умное посоветует.
П.С.
Забыл на всякий случай добавить, при этом все данные естественно продолжают быть доступны с первого диска. Поэтому их собственно не хочется потерять.