Jumbo-фреймы в Nexus 5000
-
С помощью jumpo frame они будут использовать MTU 9000 (мы использовали именно его) вместо стандартного 1500. Насколько я знаю, необходимо установить MTU 9000 в настройках сетевой карты сервера и MTU 9000 на порту коммутатора, где заканчиваются эти сетевые соединения. Oracle рекомендует это для повышения производительности, но недостатком является то, что при замене сетевой карты и если администратор забудет изменить MTU по умолчанию, узлы не смогут присоединиться/восстановить кластер.
-
Я видел, как настраивать джамбо-фреймы в Nexus 5k, нет необходимости настраивать mtu в интерфейсах: http://www.cisco.com/en/US/products/ps9670/products_configuration_example09186a0080b44116.shtml !--- Вы можете включить Jumbo MTU
!--- для всего коммутатора, установив MTU
!--- на максимальный размер (9216 байт) в
!--- карте политик для класса системы Ethernet по умолчанию
(class-default). switch(config)#
policy-map type network-qos jumbo switch(config-pmap-nq)#
class type network-qos class-default switch(config-pmap-c-nq)#
mtu 9216 switch(config-pmap-c-nq)#
exit switch(config-pmap-nq)#
exit switch(config)#
system qos switch(config-sys-qos)#
service-policy type network-qos jumbo Но мой ответ: Необходимо ли настраивать policy-maps для получения джамбо-фреймов? Если я настрою джамбо-фреймы в 2 Nexus, смогут ли 2 узла Oracle в разных Nexus использовать джамбо-фреймы, или мне нужно сделать что-то еще? Спасибо!!!! -
Большое спасибо! Мы попробовали, и все работает нормально.
-
Еще один простой способ проверить, настроены ли джамбо-фреймы, — выполнить следующую команду и найти раздел для qos-group 0 (это класс по умолчанию для всего трафика Ethernet): switch#
show queuing interface ethernet 1/1 Информация об очереди Ethernet1/1: Очередь TX qos-group sched-type oper-bandwidth 0 WRR 50 1 WRR 50 Очередь RX qos-group 0 q-size: 243200, HW
MTU: 9280 (9216 настроено) -
Здравствуйте, Станти, Как мы можем отключить/ограничить интерфейс от отправки джамбо-фреймов на подключенные устройства? У нас есть коммутатор Catalyst, подключенный к нашему Nexus 5K. Я вижу, что на портах отправляется много джамбо-фреймов, а в коммутаторе Cat я вижу много гигантских пакетов и отбрасываемых выходных пакетов. Мы хотим, чтобы джамбо-фреймы были на наших коммутаторах Nexus, но они не должны передаваться на некоторых портах. С уважением, Сай.
-
Для Jumbo с FCOE потребуется следующая конфигурация. policy-map type network-qos jumboFCOE class type network-qos class-fcoe pause no-drop mtu 2158 class type network-qos class-default mtu 9216 оптимизация многоадресной рассылки система qos тип политики обслуживания сетевое качество обслуживания jumboFCOE
-
Спасибо... Это мне помогает.
-
Всем привет, Когда я использовал вышеуказанные команды для настройки джамбо-фреймов на моем Nexus 5548UP с версией 6.0.2, я обнаружил, что не могу выполнить ping выше 8972 с Nexus на хосты и с хостов на хосты/контроллеры NetApp. При выполнении Wireshark ICMP наблюдается большая нагрузка (всего 42 байта), но нет реальной информации о том, что это такое, кроме 20 для заголовка кадра и 8, как я полагаю, для самого ICMP. Это стандартное поведение? vmhost> vmkping -d -s 9000 10.62.24.10 тайм-аут... 1# ping 10.62.24.10 размер пакета 9000 df-bit PING 10.62.24.10 (10.62.24.10): 9000 байт данных Запрос 0 превысил время ожидания Запрос 1 превысил время ожидания Запрос 2 превысил время ожидания Запрос 3 превысил время ожидания Запрос 4 превысил время ожидания --- Статистика пинга 10.62.24.10 --- 5 пакетов отправлено, 0 пакетов получено, 100,00% потеря пакетов
-
Привет, Дэвид, ESX/ESXi поддерживает размер MTU 9000 байт, что означает, что значение, которое вы используете с опцией -s, слишком велико. При использовании vmkping значение, указанное с опцией -s, является полезной нагрузкой. Вам следует запустить тест со значением
-s 8972
, чтобы при включении 8-байтового ICMP и 20-байтового IP-заголовка пакет стал 9000 байт. Это должно сработать, если весь путь от начала до конца настроен на 9000 байт. То же самое верно для ping с коммутатора Nexus, поэтому значение, которое следует использовать с опцией
packet-size,
должно быть на 28 байт меньше, чем MTU. Тест проходит успешно, если вы используете 8972 байта? Мне также интересно, что это за 42-байтовая нагрузка, которую вы видите в захвате Wireshark. Можно ли опубликовать ее здесь? С уважением -
Привет, Стив, Спасибо за твой вклад, я думаю, ты прояснил для нас эту ситуацию. Мои специалисты по хранению данных, похоже, думали, что они могут пинговать 9000 с помощью -s, но мы получали только 8972. Вот пример на 8000, который показывает, что в целом это 8042, но я полагаю, что дополнительные 14 идут из заголовка кадра, верно?


-
Привет, Дэвид, Совершенно верно. Как показано в Wireshark, у вас есть 8000 байт полезной нагрузки + 8 байт заголовка ICMP + 20 байт заголовка IP + 14 байт заголовка кадра Ethernet. Всего это составляет 8042 байта. Как вы уже знаете, вы можете успешно отправить ping до 8972 байт, что будет отображаться в Wireshark как 9014 байт. С уважением
-
Привет, ребята, Я знаю, что это старая тема, и прошу прощения за то, что ее вновь поднимаю, но мне интересно, не повлияет ли применение вышеупомянутых команд каким-либо образом на работу сервиса? Спасибо!
-
Нет, конфигурация jumbo не вызывает сбоев в коде 5.0(3)N2(2) и более поздних версиях на Nexus 5000, даже в VPC.
Здравствуйте! Похоже, вам интересна эта беседа, но у вас пока нет учетной записи.
Вы устали просматривать одни и те же посты каждый раз, когда заходите на сайт? После регистрации, вам не придётся искать обсуждения в которых вы принимали участие, настройте уведомления о новых сообщениях так как вам это удобно (по электронной почте или уведомлением). У вас появится возможность сохранять закладки и ставить лайки постам, чтобы выразить свою благодарность другим участникам сообщества.
С вашими комментариями этот пост может стать ещё лучше 💗
Зарегистрироваться Войти