Здравствуйте.
Задача: Уперся в bandwidth на nfs сервере. Хочу увеличить.
Моё устройство:
DGS-1210-52
Firmware Version 3.10.013
В него двумя проводами воткнут сервер на opensuse.
Конфигурация в linuxAggregation
Код:
> cat /etc/sysconfig/network/ifcfg-eth2
DEVICE=eth2
STARTMODE=none
BOOTPROTO=static
MASTER=bond0
SLAVE=yes
USERCTL=no
abozhenko@mgrid20:~> cat /etc/sysconfig/network/ifcfg-eth3
DEVICE=eth3
STARTMODE=none
BOOTPROTO=static
MASTER=bond0
SLAVE=yes
USERCTL=no
> cat /etc/sysconfig/network/ifcfg-bond0
BOOTPROTO='static'
BROADCAST=''
ETHTOOL_OPTIONS=''
DEVICE=bond0
IPADDR='xx.xx.xx.xx/16'
MTU=''
NAME='Intel Ethernet controller'
NETWORK=''
REMOTE_IPADDR=''
STARTMODE='auto'
USERCONTROL='no'
BONDING_MASTER=yes
BONDING_MODULE_OPTS='mode=balance-rr miimon=100'
BONDING_SLAVE0=eth2
BONDING_SLAVE1=eth3
Состояние бондинга в linux:
Код:
> cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.0 (June 2, 2010)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: *MAC*
Slave queue ID: 0
Slave Interface: eth3
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: *MAC*
Slave queue ID: 0
Код:
> ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 brd 127.255.255.255 scope host lo
inet 127.0.0.2/8 brd 127.255.255.255 scope host secondary lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth2: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP qlen 1000
link/ether *MAC* brd ff:ff:ff:ff:ff:ff
3: eth3: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP qlen 1000
link/ether *MAC* brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP
link/ether *MAC* brd ff:ff:ff:ff:ff:ff
inet *IP*/16 brd 10.30.255.255 scope global bond0
inet6 *MAC*/64 scope link
valid_lft forever preferred_lft forever
Конфигурирую dlink
1. L2 Functions > Link Aggregation > Port Trunking
Link Aggregation -> Disabled
Все работает. Скорость до 2гб/сек
2. L2 Functions > Link Aggregation > Port Trunking
Link Aggregation -> Enabled
Все работает. Скорость до 2гб/сек
3. L2 Functions > Link Aggregation > Port Trunking
Link Aggregation -> Enabled
Добавляю group, выбираю 2 порта которые идут в nfs сервер, тип - static.
Сервер становится не доступен по сети.
Вопрос:
1) Правильно ли ведет себя коммутатор? Почему переключение Link Aggregation ни на что не влияет, а добавление group - ломает?
2) В режиме бондинга balance-rr линукс ставит одинаковый mac на интерфейсах. Как ведет себя коммутатор видя это? Тоже циклически отправляет пакеты на все интерфейсы с одним mac?
3) В данной конфигурации будет out of order, судя по тому, что написано здесь
https://www.kernel.org/doc/Documentatio ... onding.txt Кто имел опыт, подскажите, повлияет ли это плохо на nfs?
Спасибо.
С уважением, Александр.