faq обучение настройка
Текущее время: Пт июн 20, 2025 18:04

Часовой пояс: UTC + 3 часа




Начать новую тему Ответить на тему  [ Сообщений: 2 ] 
Автор Сообщение
СообщениеДобавлено: Вс сен 18, 2011 16:24 
Не в сети

Зарегистрирован: Вс сен 18, 2011 16:03
Сообщений: 2
Имеется DNS-320 с одним жёстким диском в L слоте WD20EARS-00MVWB1.
Был создан том Standard.
Позже к нему в пару в слот R был установлен второй WD20EARS-00MVWB0 с желанием проапгрейдить конфигурацию до RAID1.
Пытаюсь следовать инструкции, из подсказок интерфейса управления или же из последнего сообщения
viewtopic.php?f=16&t=143186.

Но чекбокс "Reconfigure to Raid 1 checkbox" появляется неактивным - т.е. его выбрать нельзя.
В чём может быть проблема?


Вернуться наверх
 Профиль  
 
СообщениеДобавлено: Сб окт 08, 2011 16:24 
Не в сети

Зарегистрирован: Вс сен 18, 2011 16:03
Сообщений: 2
Решение проблемы сделало один шаг вперёд после установки бета-прошивки 2.02 (была 2.00).
После этого появилась возможно выбрать Reconfigure to Raid 1 - и запустить соответствующую переконфигурацию.
НО, к сожалению, к полному успеху это не привело.
Web-интерфейс по-прежнему рапортует, что у него один Volume_1 типа Standard.

А при доступе через ssh/telnet можно увидеть более интересную картину - одно md устройство raid1 вроде как создалось, но не для тех (или не для всех разделов).
т.е.
Код:
/ # cat /etc/mdadm.conf
ARRAY /dev/md0 level=raid1 num-devices=2 spares=1 UUID=e065db43:a39f45b2:c64b9e64:f500bda9
если подробнее
Код:
/ # mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Mon Sep 19 03:00:11 2011
     Raid Level : raid1
     Array Size : 530048 (517.71 MiB 542.77 MB)
    Device Size : 530048 (517.71 MiB 542.77 MB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Oct  8 04:24:45 2011
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : e065db43:a39f45b2:c64b9e64:f500bda9
         Events : 0.12

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
И похоже это устройство используется, обеспечивая таким образом отказоустойчивый swap =)
Код:
/ # cat /proc/swaps
Filename                                Type            Size    Used    Priority
/dev/md0                                partition       530040  1568    -1
fdisk без опций с указанием устройства (для интерактивной правки) вылетает в segmentation fault. Но можно получить и такую картинку, из которой видно, что зеркало было создано между swap на sda1 и всем разделом sdb1?
Видно также, что для двух вроде бы почти одинаковых дисков определена разная геомерия:
для sda - 255 головок, для sdb - 256 головок.
Код:
/ # fdisk -u -l

Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1              63     1060289      530113+ 82 Linux swap
/dev/sda2         2088450  3904983809  1951447680  83 Linux
/dev/sda4         1060290     2088449      514080  83 Linux

Partition table entries are not in disk order

Disk /dev/sdb: 2000.3 GB, 2000398934016 bytes
256 heads, 63 sectors/track, 242251 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sdb1               1  3907029167  1953514583+ ee EFI GPT
в файле /usr/local/config/dm_state.xml нашёл ещё такую информацию, похожую на правду относительно того, что должно быть
Код:
/ # cat /usr/local/config/dm_state.xml
<config>
        <input>
                <size>1998</size>
                <mode>raid1</mode>
                <file_type>ext3</file_type>
                <remains_to_linear>0</remains_to_linear>
        </input>
        <hd_info>
                <sda>
                        <channel>scsi0</channel>
                        <vendor>WDC</vendor>
                        <model>WD20EARS-00MVWB1</model>
                        <serial>WD-WCAZA8694386</serial>
                        <size>2000</size>
                        <blocks>1953514584</blocks>
                </sda>
                <sdb>
                        <channel>scsi1</channel>
                        <vendor>WDC</vendor>
                        <model>WD20EARS-00MVWB0</model>
                        <serial>WD-WCAZA8271144</serial>
                        <size>2000</size>
                        <blocks>1953514584</blocks>
                </sdb>
        </hd_info>
        <raid_info>
                <md0>
                        <level>raid1</level>
                        <dev>/dev/md0</dev>
                        <disk>/dev/sda1 /dev/sdb1</disk>
                        <devices>2</devices>
                        <chunk_size>64</chunk_size>
                </md0>
                <md1>
                        <level>raid1</level>
                        <dev>/dev/md1</dev>
                        <disk>/dev/sda2 /dev/sdb2</disk>
                        <devices>2</devices>
                        <chunk_size>64</chunk_size>
                </md1>
        </raid_info>
</config>
Подозреваю, что к делу также может относится информация информация из cat /etc/NAS_CFG/config.xml
Код:
        <dsk_mgr>
                <hdd_config>
                        <raid_auto_sync>0</raid_auto_sync>
                </hdd_config>
                <dsk_diagnostic></dsk_diagnostic>
                <volume_mapping>
                        <volume_1>Volume_1</volume_1>
                        <volume_2>Volume_2</volume_2>
                </volume_mapping>
                <smart>
                        <test>
                                <hd_a></hd_a>
                                <hd_b></hd_b>
                        </test>
                        <hd_a_sn>WD-WCAZA8694386</hd_a_sn>
                        <hd_b_sn>WD-WCAZA8271144</hd_b_sn>
                </smart>
        </dsk_mgr>
Но, как и предыдущий кусок - честно-говоря, не понимаю до конца к чему она относится - к конфигурации того, как создаётся raid или к тому, как о нём будет думать web-интерфейс.

Вопросов основных два:
1. Как пофиксить, чтобы получить честное зеркало? Т.е. попробовал бы руками, но с учётом того, что fdisk уходит в segmentation fault - единственный метод, который приходит на ум начнётся с прописывания таблицы разделов на /dev/sdb совсем руками... а этого хотелось бы избежать, если кто что поумнее предложит.
2. Где прописываются для системы точки монтирования? В /etc/fstab я их не нашёл.
Код:
/ # cat /etc/fstab
proc            /proc           proc    defaults        0       0
/dev/ram0       /               ext2    defaults        1       1

Ну и может кто-нибудь ещё чего умное посоветует.

П.С.
Забыл на всякий случай добавить, при этом все данные естественно продолжают быть доступны с первого диска. Поэтому их собственно не хочется потерять.


Вернуться наверх
 Профиль  
 
Показать сообщения за:  Сортировать по:  
Начать новую тему Ответить на тему  [ Сообщений: 2 ] 

Часовой пояс: UTC + 3 часа


Кто сейчас на форуме

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 2


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB