<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[USC-X: настройка сети]]></title><description><![CDATA[<p dir="auto">Здравствуйте! У нас есть:</p>
<ul>
<li>серверы<br />
UCSX-210C-M6 - шасси<br />
UCSX-9508 - фабрика UCS-FI-6454<br />
Мы планируем развернуть кластер на базе vSphere. Каковы лучшие практики настройки сети для этого типа оборудования? Ниже приведен пример<br />
1 варианта<br />
. Пример: для управления создайте один адаптер vNIC, включите отработку отказа. Выполните следующие настройки в vCenter: ![1 variant.png] Вариант</li>
</ul>
<ol start="2">
<li>Для управления создайте два адаптера vNIC, отключите Failover. Выполните следующие настройки в vCenter: ![2 variant.png] Возможно ли реализовать балансировку через фабрику, чтобы оба адаптера были активны?<br />
Нужно ли создавать отдельный виртуальный коммутатор для каждой службы? Например, vMotion, управление, предоставление, виртуальные машины</li>
</ol>
<p dir="auto"><img src="/forum/uploads/files/cisco/77619beae23bfba95a68b8f7733105cb899b9125.png" alt="" class=" img-fluid img-markdown" /></p>
<p dir="auto"><img src="/forum/uploads/files/cisco/61fed5e79e33478f9df2441d01232e9a9c285983.png" alt="" class=" img-fluid img-markdown" /></p>
]]></description><link>https://sla247.ru/forum/topic/1695/usc-x-настройка-сети</link><generator>RSS for Node</generator><lastBuildDate>Fri, 15 May 2026 07:21:36 GMT</lastBuildDate><atom:link href="https://sla247.ru/forum/topic/1695.rss" rel="self" type="application/rss+xml"/><pubDate>Wed, 25 Feb 2026 22:14:53 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to USC-X: настройка сети on Wed, 25 Feb 2026 22:14:54 GMT]]></title><description><![CDATA[<p dir="auto">Тканевые соединения не используют общую плоскость передачи данных, поэтому пара каналов хоста, привязанных к каждому FI, не может выполнять объединение типа LACP. Если вы посмотрите, как Hyperflex устанавливает сетевые настройки, это может быть хорошим отправным пунктом. Для конкретной связи L2, которая, как вы знаете, происходит между хостами, подключенными к одним и тем же FI, создайте один vnic, привязанный к конкретной стороне FI, и сделайте его «активным» vmnic в объединении esxi. Для второго vnic, привязанного к другой стороне FI, сделайте его «резервным» vmnic в объединении ESXi. Такая конструкция минимизирует количество прыжков L2, которые должен совершать трафик, и обеспечивает низкую задержку, но при этом сохраняет возможности резервирования, которые срабатывают в случае выхода из строя «активных» каналов/путей.<br />
Если у вас есть несколько типов соседнего трафика src/dst L2, вы можете использовать вышеупомянутую конструкцию и сделать некоторые активными на A, а некоторые — на B, чтобы выровнять нагрузку трафика между FI-A и FI-B.<br />
Для трафика, который должен проходить через шлюз L3 в северном направлении, установите для них несколько активных ссылок (сторона a, сторона b) с помощью стандартной опции объединения VMware (идентификатор исходного порта), которая по кругу распределяет исходящие соединения гостевой виртуальной машины между активными VMNIC, доступными для этой группы портов гостевой виртуальной машины. Эта конструкция также имеет встроенную избыточность, поскольку трафик будет немедленно переключаться в случае выхода из строя ссылки. Кирк...</p>
]]></description><link>https://sla247.ru/forum/post/12553</link><guid isPermaLink="true">https://sla247.ru/forum/post/12553</guid><dc:creator><![CDATA[Kirk J]]></dc:creator><pubDate>Wed, 25 Feb 2026 22:14:54 GMT</pubDate></item></channel></rss>