<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Jumbo-фреймы в Nexus 5000]]></title><description><![CDATA[<p dir="auto">Здравствуйте: У нас есть 2 коммутатора Nexus 5000 с файлом образа системы n5000-uk9.5.0.3.N2.2.bin. Два коммутатора Nexus распределены по двум центрам и подключены напрямую. В каждом из коммутаторов есть сервер Oracle. Эти серверы Oracle объединены в кластер и соединены между собой с помощью канала heartbeat. Администратор Oracle попросил нас настроить джамбо-фреймы в каналах heartbeat. Как это сделать? Спасибо!!!</p>
]]></description><link>https://sla247.ru/forum/topic/1751/jumbo-фреймы-в-nexus-5000</link><generator>RSS for Node</generator><lastBuildDate>Thu, 14 May 2026 19:29:02 GMT</lastBuildDate><atom:link href="https://sla247.ru/forum/topic/1751.rss" rel="self" type="application/rss+xml"/><pubDate>Wed, 25 Feb 2026 22:23:02 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:16 GMT]]></title><description><![CDATA[<p dir="auto">Нет, конфигурация jumbo не вызывает сбоев в коде 5.0(3)N2(2) и более поздних версиях на Nexus 5000, даже в VPC.</p>
]]></description><link>https://sla247.ru/forum/post/12850</link><guid isPermaLink="true">https://sla247.ru/forum/post/12850</guid><dc:creator><![CDATA[Amanda Hunt]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:16 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:15 GMT]]></title><description><![CDATA[<p dir="auto">Привет, ребята, Я знаю, что это старая тема, и прошу прощения за то, что ее вновь поднимаю, но мне интересно, не повлияет ли применение вышеупомянутых команд каким-либо образом на работу сервиса? Спасибо!</p>
]]></description><link>https://sla247.ru/forum/post/12849</link><guid isPermaLink="true">https://sla247.ru/forum/post/12849</guid><dc:creator><![CDATA[rawlinsm]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:15 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:14 GMT]]></title><description><![CDATA[<p dir="auto">Привет, Дэвид, Совершенно верно. Как показано в Wireshark, у вас есть 8000 байт полезной нагрузки + 8 байт заголовка ICMP + 20 байт заголовка IP + 14 байт заголовка кадра Ethernet. Всего это составляет 8042 байта. Как вы уже знаете, вы можете успешно отправить ping до 8972 байт, что будет отображаться в Wireshark как 9014 байт. С уважением</p>
]]></description><link>https://sla247.ru/forum/post/12848</link><guid isPermaLink="true">https://sla247.ru/forum/post/12848</guid><dc:creator><![CDATA[Steve Fuller]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:14 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:13 GMT]]></title><description><![CDATA[<p dir="auto">Привет, Стив, Спасибо за твой вклад, я думаю, ты прояснил для нас эту ситуацию. Мои специалисты по хранению данных, похоже, думали, что они могут пинговать 9000 с помощью -s, но мы получали только 8972. Вот пример на 8000, который показывает, что в целом это 8042, но я полагаю, что дополнительные 14 идут из заголовка кадра, верно? <img src="/forum/uploads/files/cisco/d9f8d258743884f857981b487b4a8719054d528b.jpg" alt="" class=" img-fluid img-markdown" /></p>
<p dir="auto"><img src="/forum/uploads/files/cisco/d9f8d258743884f857981b487b4a8719054d528b.jpg" alt="" class=" img-fluid img-markdown" /></p>
]]></description><link>https://sla247.ru/forum/post/12847</link><guid isPermaLink="true">https://sla247.ru/forum/post/12847</guid><dc:creator><![CDATA[CSCO11377298]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:13 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:12 GMT]]></title><description><![CDATA[<p dir="auto">Привет, Дэвид, ESX/ESXi поддерживает размер MTU 9000 байт, что означает, что значение, которое вы используете с опцией -s, слишком велико. При использовании vmkping значение, указанное с опцией -s, является полезной нагрузкой. Вам следует запустить тест со значением<br />
-s 8972<br />
, чтобы при включении 8-байтового ICMP и 20-байтового IP-заголовка пакет стал 9000 байт. Это должно сработать, если весь путь от начала до конца настроен на 9000 байт. То же самое верно для ping с коммутатора Nexus, поэтому значение, которое следует использовать с опцией<br />
packet-size,<br />
должно быть на 28 байт меньше, чем MTU. Тест проходит успешно, если вы используете 8972 байта? Мне также интересно, что это за 42-байтовая нагрузка, которую вы видите в захвате Wireshark. Можно ли опубликовать ее здесь? С уважением</p>
]]></description><link>https://sla247.ru/forum/post/12846</link><guid isPermaLink="true">https://sla247.ru/forum/post/12846</guid><dc:creator><![CDATA[Steve Fuller]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:12 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:11 GMT]]></title><description><![CDATA[<p dir="auto">Всем привет, Когда я использовал вышеуказанные команды для настройки джамбо-фреймов на моем Nexus 5548UP с версией 6.0.2, я обнаружил, что не могу выполнить ping выше 8972 с Nexus на хосты и с хостов на хосты/контроллеры NetApp. При выполнении Wireshark ICMP наблюдается большая нагрузка (всего 42 байта), но нет реальной информации о том, что это такое, кроме 20 для заголовка кадра и 8, как я полагаю, для самого ICMP. Это стандартное поведение? vmhost&gt; vmkping -d -s 9000 10.62.24.10 тайм-аут... 1# ping 10.62.24.10 размер пакета 9000 df-bit PING 10.62.24.10 (10.62.24.10): 9000 байт данных Запрос 0 превысил время ожидания Запрос 1 превысил время ожидания Запрос 2 превысил время ожидания Запрос 3 превысил время ожидания Запрос 4 превысил время ожидания --- Статистика пинга 10.62.24.10 --- 5 пакетов отправлено, 0 пакетов получено, 100,00% потеря пакетов</p>
]]></description><link>https://sla247.ru/forum/post/12845</link><guid isPermaLink="true">https://sla247.ru/forum/post/12845</guid><dc:creator><![CDATA[CSCO11377298]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:11 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:10 GMT]]></title><description><![CDATA[<p dir="auto">Спасибо... Это мне помогает.</p>
]]></description><link>https://sla247.ru/forum/post/12844</link><guid isPermaLink="true">https://sla247.ru/forum/post/12844</guid><dc:creator><![CDATA[helalbd_net]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:10 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:09 GMT]]></title><description><![CDATA[<p dir="auto">Для Jumbo с FCOE потребуется следующая конфигурация. policy-map type network-qos jumboFCOE class type network-qos class-fcoe pause no-drop mtu 2158 class type network-qos class-default mtu 9216 оптимизация многоадресной рассылки система qos тип политики обслуживания сетевое качество обслуживания jumboFCOE</p>
]]></description><link>https://sla247.ru/forum/post/12843</link><guid isPermaLink="true">https://sla247.ru/forum/post/12843</guid><dc:creator><![CDATA[wes_ward]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:09 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:08 GMT]]></title><description><![CDATA[<p dir="auto">Здравствуйте, Станти, Как мы можем отключить/ограничить интерфейс от отправки джамбо-фреймов на подключенные устройства? У нас есть коммутатор Catalyst, подключенный к нашему Nexus 5K. Я вижу, что на портах отправляется много джамбо-фреймов, а в коммутаторе Cat я вижу много гигантских пакетов и отбрасываемых выходных пакетов. Мы хотим, чтобы джамбо-фреймы были на наших коммутаторах Nexus, но они не должны передаваться на некоторых портах. С уважением, Сай.</p>
]]></description><link>https://sla247.ru/forum/post/12842</link><guid isPermaLink="true">https://sla247.ru/forum/post/12842</guid><dc:creator><![CDATA[Sai Paritala]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:08 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:07 GMT]]></title><description><![CDATA[<p dir="auto">Еще один простой способ проверить, настроены ли джамбо-фреймы, — выполнить следующую команду и найти раздел для qos-group 0 (это класс по умолчанию для всего трафика Ethernet): switch#<br />
show queuing interface ethernet 1/1 Информация об очереди Ethernet1/1: Очередь TX qos-group sched-type oper-bandwidth 0 WRR 50 1 WRR 50 Очередь RX qos-group 0 q-size: 243200, HW<br />
MTU: 9280 (9216 настроено)</p>
]]></description><link>https://sla247.ru/forum/post/12841</link><guid isPermaLink="true">https://sla247.ru/forum/post/12841</guid><dc:creator><![CDATA[stanti]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:07 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:06 GMT]]></title><description><![CDATA[<p dir="auto">Большое спасибо! Мы попробовали, и все работает нормально.</p>
]]></description><link>https://sla247.ru/forum/post/12840</link><guid isPermaLink="true">https://sla247.ru/forum/post/12840</guid><dc:creator><![CDATA[skrowocsic]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:06 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:05 GMT]]></title><description><![CDATA[<p dir="auto">Я видел, как настраивать джамбо-фреймы в Nexus 5k, нет необходимости настраивать mtu в интерфейсах: <a href="http://www.cisco.com/en/US/products/ps9670/products_configuration_example09186a0080b44116.shtml" rel="nofollow ugc">http://www.cisco.com/en/US/products/ps9670/products_configuration_example09186a0080b44116.shtml</a> !--- Вы можете включить Jumbo MTU<br />
!--- для всего коммутатора, установив MTU<br />
!--- на максимальный размер (9216 байт) в<br />
!--- карте политик для класса системы Ethernet по умолчанию<br />
(class-default). switch(config)#<br />
policy-map type network-qos jumbo switch(config-pmap-nq)#<br />
class type network-qos class-default switch(config-pmap-c-nq)#<br />
mtu 9216 switch(config-pmap-c-nq)#<br />
exit switch(config-pmap-nq)#<br />
exit switch(config)#<br />
system qos switch(config-sys-qos)#<br />
service-policy type network-qos jumbo Но мой ответ: Необходимо ли настраивать policy-maps для получения джамбо-фреймов? Если я настрою джамбо-фреймы в 2 Nexus, смогут ли 2 узла Oracle в разных Nexus использовать джамбо-фреймы, или мне нужно сделать что-то еще? Спасибо!!!!</p>
]]></description><link>https://sla247.ru/forum/post/12839</link><guid isPermaLink="true">https://sla247.ru/forum/post/12839</guid><dc:creator><![CDATA[skrowocsic]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:05 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:04 GMT]]></title><description><![CDATA[<p dir="auto">С помощью jumpo frame они будут использовать MTU 9000 (мы использовали именно его) вместо стандартного 1500. Насколько я знаю, необходимо установить MTU 9000 в настройках сетевой карты сервера и MTU 9000 на порту коммутатора, где заканчиваются эти сетевые соединения. Oracle рекомендует это для повышения производительности, но недостатком является то, что при замене сетевой карты и если администратор забудет изменить MTU по умолчанию, узлы не смогут присоединиться/восстановить кластер.</p>
]]></description><link>https://sla247.ru/forum/post/12838</link><guid isPermaLink="true">https://sla247.ru/forum/post/12838</guid><dc:creator><![CDATA[santkumd528]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:04 GMT</pubDate></item><item><title><![CDATA[Reply to Jumbo-фреймы в Nexus 5000 on Wed, 25 Feb 2026 22:23:03 GMT]]></title><description><![CDATA[<p dir="auto">Все, что вам нужно сделать, это установить эту конфигурацию на всех ваших Nexus 5k: switch(config)#<br />
policy-map type network-qos jumbo switch(config-pmap-nq)#<br />
class type network-qos class-default switch(config-pmap-c-nq)#<br />
mtu 9216 switch(config-pmap-c-nq)#<br />
exit switch(config-pmap-nq)#<br />
exit switch(config)#<br />
system qos switch(config-sys-qos)#<br />
service-policy type network-qos jumbo Это глобально включит возможность передачи джамбо-фреймов. Чтобы убедиться, что она работает, выполните команду «show int eth x/y». Если вы увидите, что конфигурация jumbo увеличивается, а пакеты не теряются, значит, она работает. Также обратите внимание, что mtu не изменится на самом интерфейсе, это глобальная команда, а не команда «для каждого интерфейса». Но это нормально, даже если mtu показывает 1500, он все равно может принимать джамбо-фреймы, если у вас приложена глобальная конфигурация. Пример: Ethernet1/1 работает ... RX 0 одноадресных пакетов 1221713 многоадресных пакетов 2644 широковещательных пакетов 1224357 входных пакетов 91236171 байт ---&gt;<br />
458 пакетов jumbo<br />
0 пакетов подавления шторма 0 гигантских 0 ошибок ввода 0 коротких кадров 0 переполнений 0 недополнений 0 сторожевой таймер 0 отброс при отключении 0 входных пакетов с дрибблом 0 отброшенных входных пакетов 0 пауза Rx</p>
]]></description><link>https://sla247.ru/forum/post/12837</link><guid isPermaLink="true">https://sla247.ru/forum/post/12837</guid><dc:creator><![CDATA[Amanda Hunt]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:23:03 GMT</pubDate></item></channel></rss>