Skip to content

Сетевое взаимодействие серверов

43 Темы 250 Сообщения

Вопросы, конфигурации и лучшие практики по сетевому взаимодействию серверов, включая виртуализацию, балансировку нагрузки и безопасность.

  • N5K отключил порт из-за отсутствия подтверждения DCX в 100 PDU.

    8
    0 Голоса
    8 Сообщения
    0 Просмотры
    J
    Я совсем новичок в Nexus, поэтому не совсем понимаю, как решить эту проблему. Я провел быстрый поиск и обнаружил, что это связано с DCBX TLV в LLDP, которые, по-видимому, не должны поступать на обычный порт Ethernet. Я почти уверен, что это обычный Ethernet-порт. (Как я уже сказал, я новичок в Nexus. lol) Интересно, указывает ли следующий вывод на то, что мы получаем и отправляем DCBX TLV в LLDP. Если да, то, похоже, интерфейс перейдет в состояние err-disable, если сервер перестанет отправлять кадры ACK. # show lldp dcbx int e1/17 Локальная информация управления DCBXP: Версия операции: 00 Максимальная версия: 00 Серийный номер: 1 Номер подтверждения: 1 Тип/ Подтип Версия En/Will/Adv Config 004/000 000 Y/N/Y 8906001b21 08 002/000 000 Y/N/Y 0000000064 00000000 00000001 Информация об управлении DCBXP партнера: Версия операции: 00 Максимальная версия: 00 Последовательный номер: 1 Номер подтверждения: 1 Тип/Макс./Операционная Подтип Версия Вкл/Будет/Ошибка Конфиг 004/000 000/000 Y/Y/N 8906001b21 08 003/000 000/000 Y/Y/Y ff08 002/000 000/000 Y/Y/N ffffffff00 00000000 00000008 Мы впервые сталкиваемся с такой ситуацией. Есть ли какие-нибудь идеи, что может быть причиной? Спасибо!
  • стандартный пароль для пользовательского образа Cisco VMware версии 7.0.1

    4
    0 Голоса
    4 Сообщения
    0 Просмотры
    _
    Какой пароль по умолчанию?.... Я пробовал: c!SCo123 changeme password cisco123 password@123 Ни один из них не работает. Проверил QWERTY/AZERTY, проверил, изменив имя пользователя на пароль, чтобы быть абсолютно уверенным... Есть какие-нибудь идеи? Мне кажется, что это проблема со стандартным пользовательским образом Cisco VMware.
  • генератор трафика Cisco Trex будет поддерживать протоколы ISIS, OSPF, BGP, MPLS LDP.

    9
    0 Голоса
    9 Сообщения
    0 Просмотры
    J
    Генератор трафика Cisco Trex будет поддерживать симуляцию протоколов ISIS, OSPF, BGP, MPLS LDP. Пожалуйста, дайте мне знать.
  • подключение VIC 1387 40G к коммутатору 3850

    10
    0 Голоса
    10 Сообщения
    0 Просмотры
    E
    У меня есть тема в общем форуме по переключению, но я решил задать вопрос здесь. [) У меня есть VIC 1387 в сервере C240 M4, который правильно подключается к Nexus 3064. Я пытаюсь перенести свои ограниченные 40G-соединения на NM-2-40G-соединения в стеке 3850, но у меня не получается. Интерфейс появляется с обеих сторон, и я вижу соседей CDP с обеих сторон. Я не могу пропустить IP-трафик по каналу, когда он подключен к 3850. В техническом описании 1387 упоминаются совместимые коммутаторы Nexus. Означает ли это, что он будет взаимодействовать только с коммутатором Nexus? Я надеюсь, что это не так.
  • вход в Nexus Data Broker RADIUS

    4
    0 Голоса
    4 Сообщения
    0 Просмотры
    M
    Я новичок в Nexus Data Broker и пытаюсь настроить вход в систему RADIUS с помощью стороннего сервера RADIUS. В журналах обеих сторон я вижу успешные аутентификации, но после того, как меня начинает перенаправлять на панель управления, меня снова возвращает на страницу входа в систему. Не уверен, не пропустил ли я какой-то атрибут ответа RADIUS или что-то еще, в настоящее время у меня есть: Radius:Cisco = Cisco-AVPair = Network-Admin Есть какие-нибудь предложения?
  • Hyperflex Edge — изменение адресации сети репликации

    3
    0 Голоса
    3 Сообщения
    0 Просмотры
    D
    Всем привет! В рамках развертывания кластера с двумя сайтами и четырьмя узлами я настроил сеть репликации на обеих сторонах в Hyperflex Connect. Все базовые сети L2 и L3 настроены ниже, и нет никаких политик брандмауэра, блокирующих этот трафик. Схема сетей L3 выглядит следующим образом: Производственная сторона — 10.1.80.192/26 Сторона DR — 10.8.80.192/26 Проблема: Я допустил опечатку в конфигурации сети L3 производственной стороны; там, где должно быть 10. 1 .80.192/26, я ввел сторону DR; 10. 8 .80.192/26. Вопрос: Как лучше всего исправить эту ошибку? Нужно ли обращаться в TAC, так как я вижу интерфейс, который был создан и адресован на виртуальных машинах STCTL, но не могу его редактировать. С уважением, Дэвид
  • Группировка портов VDC — N77-F324FQ-25

    5
    0 Голоса
    5 Сообщения
    0 Просмотры
    C
    Я пытаюсь найти группы портов для назначений VDC для модуля N77-F324FQ-25. В техническом паспорте этой информации нет, и я не могу найти ее нигде. Лучший совет, который я смог найти, был show hardware internal dev-port-map — я запустил его, но не знаю, как интерпретировать результат. Спасибо...
  • vPC LACP на N9K и Linux Bonding

    3
    0 Голоса
    3 Сообщения
    0 Просмотры
    S
    Здравствуйте, Я хочу настроить LACP-связь с правильной/оптимальной конфигурацией между UCS 480M5 с VIC 1455 (4x 25Gb каналы) и N9K. Сервер UCS работает с базами данных Oracle на RHEL8 2 коммутатора N9K работают в режиме vPC LACP (активном). Со стороны сервера 2 канала, порты VIC 1 и 2 идут на коммутатор 1, а 3 и 4 — на второй коммутатор. PortChannel на VIC отключен. Я создал 4 виртуальных сетевых интерфейса, соответствующих соответствующим портам восходящего канала. Настроил связь Linux с использованием 4 виртуальных сетевых интерфейсов. Связь работает. Теперь я не уверен, есть ли оптимальная настройка и нужно ли обновлять какие-либо конфигурации/параметры (скорость LACP, ad_select, layer3+4 и т . д.), чтобы обеспечить оптимальную конфигурацию LACP как для коммутаторов, так и для серверов. Пожалуйста, проконсультируйте. Спасибо
  • Nexus 9K vPC показывает, что соединение с одноранговым узлом не работает, но портовый канал работает.

    8
    0 Голоса
    8 Сообщения
    0 Просмотры
    F
    Привет всем, Нужна помощь... Я настраиваю vPC между двумя Nexus 9K, C93240YC-FX2. Порт-канал 10 является соединением vPC peer link и работает. Однако команда «show vpc» показывает, что соединение peer link не работает. Я пробовал перенастроить vpc, портовый канал, отключить/включить vpc, отключить/включить портовый канал, перезагрузить оба N9K, но ничего не помогло запустить vPC. Буду благодарен за любые предложения. Спасибо, Фей. Ниже приведены результаты вывода команд show с обоих N9K. CORE01: EWR1-CORE01# sh vpc Легенда: (*) — локальный vPC не работает, пересылка осуществляется через vPC peer-link Идентификатор домена vPC: 10 Статус однорангового узла: одноранговое соединение не работает Статус поддержания vPC: одноранговый узел работает Статус согласованности конфигурации: сбой Статус согласованности по VLAN: успех Причина несоответствия конфигурации: проверка согласованности не выполнена Причина несоответствия типа 2: проверка согласованности не выполнена Роль vPC: не установлена Количество настроенных vPC: 0 Шлюз однорангового узла: включен Исключенные VLAN с двойной активностью: - Плавная проверка согласованности: включена Статус автоматического восстановления: включен, таймер выключен (тайм-аут = 240 с) Статус восстановления с задержкой: таймер выключен (тайм-аут = 30 с) Статус SVI восстановления с задержкой: таймер выключен (тайм-аут = 10 с) Операционный маршрутизатор-аналог Layer3: отключен Режим виртуального соединения-аналога: отключен Состояние однорангового соединения vPC--------------------------------------------------------------------- id Статус порта Активные VLAN 1 Po10 активен - EWR1-CORE01# show running-config vpc feature vpc vpc domain 10 peer-switch role priority 100 system-priority 100 peer-keepalive destination 192.168.1.2 source 192.168.1.1 vrf VPC-KEEPALIVES peer-gateway auto-recovery ip arp synchronize interface port-channel10 vpc peer-link EWR1-CORE01# show run int po10 интерфейс port-channel10 switchport switchport mode trunk spanning-tree port type network vpc peer-link EWR1-CORE01# show run int e1/59-60 интерфейс Ethernet1/59 switchport switchport mode trunk channel-group 10 mode active no shutdown интерфейс Ethernet1/60 switchport switchport mode trunk channel-group 10 mode active no shutdown EWR1-CORE01# show port-channel summary интерфейс port-channel 10 Флаги: D — неактивен P — активен в портовом канале (члены) I — индивидуальный H — горячий резерв (только LACP) s — приостановлен r — модуль удален b — ожидание сеанса BFD S — коммутируемый R — маршрутизируемый U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met-------------------------------------------------------------------------------- Группа Порт Тип Протокол Порты-члены Канал-------------------------------------------------------------------------------- 10 Po10(SU) Eth LACP Eth1/59(P) Eth1/60(P) EWR1-CORE01# sh ver Программное обеспечение Cisco Nexus Operating System (NX-OS) Поддержка TAC: http://www.cisco.com/tac Copyright (C) 2002-2021, Cisco и/или ее аффилированные компании. Все права защищены. Авторские права на определенные работы, содержащиеся в данном программном обеспечении, принадлежат другим третьим сторонам и используются и распространяются в соответствии с их собственными лицензиями, такими как открытый исходный код. Данное программное обеспечение предоставляется «как есть», и, если не указано иное, не предоставляется никаких гарантий, явных или подразумеваемых, включая, помимо прочего, гарантии товарного состояния и пригодности для конкретной цели. Некоторые компоненты данного программного обеспечения лицензируются в соответствии с GNU General Public License (GPL) версии 2.0 или GNU General Public License (GPL) версии 3.0, либо GNU Lesser General Public License (LGPL) версии 2.1 или Lesser General Public License (LGPL) версии 2.0. Копия каждой такой лицензии доступна по адресу http://www.opensource.org/licenses/gpl-2.0.php и http://opensource.org/licenses/gpl-3.0.html и http://www.opensource.org/licenses/lgpl-2.1.php и http://www.gnu.org/licenses/old-licenses/library.txt . Программное обеспечение BIOS: версия 05.39 NXOS: версия 9.3(8) Время компиляции BIOS: 30.08.2019 Файл образа NXOS: bootflash:///nxos.9.3.8.bin Время компиляции NXOS: 04.08.2021 13:00:00 [08/04/2021 22:25:26] Аппаратное обеспечение cisco Nexus9000 C93240YC-FX2 Шасси Intel(R) Xeon(R) CPU D-1526 @ 1,80 ГГц с 24570056 кБ памяти. Идентификатор процессорной платы FDO24150UQY Имя устройства: EWR1-CORE01 bootflash: 115805708 кБ Время работы ядра: 0 дней, 0 часов, 21 минута, 10 секунд Последний сброс выполнен через 500644 мкс после 03:08:24 среды, 5 апреля 2023 г. Причина: сброс запрошен командой CLI reload Версия системы: 9.3(8) Сервис: плагин Core Plugin, Ethernet Plugin Активные пакеты: ============================= CORE02 EWR1-CORE02# show vpc Легенда: (*) — локальный vPC не работает, пересылка через vPC peer-link Идентификатор домена vPC: 10 Статус однорангового узла: одноранговое соединение не работает Статус поддержания vPC: одноранговый узел работает Статус согласованности конфигурации: сбой Статус согласованности по VLAN: успех Причина несогласованности конфигурации: проверка согласованности не выполнена Причина несогласованности типа 2: проверка согласованности не выполнена Роль vPC: не установлена Количество настроенных vPC: 0 Шлюз однорангового узла: включен Исключенные VLAN с двойной активностью: - Плавная проверка согласованности: включена Статус автоматического восстановления: включен, таймер выключен (тайм-аут = 240 с) Статус восстановления с задержкой: таймер выключен (тайм-аут = 30 с) Статус SVI восстановления с задержкой: таймер выключен (тайм-аут = 10 с) Операционный маршрутизатор-аналог Layer3: отключен Режим виртуального соединения: отключен Статус однорангового соединения vPC--------------------------------------------------------------------- id Статус порта Активные VLAN 1 Po10 up - EWR1-CORE02# show run vpc !Команда: show running-config vpc !Последнее выполнение конфигурации: среда, 5 апреля, 03:05:19 2023 !Время: среда, 5 апреля, 03:24:17 2023 версия 9.3(8) BIOS: версия 05.39 функция vpc vpc domain 10 peer-switch role priority 200 system-priority 200 peer-keepalive destination 192.168.1.1 source 192.168.1.2 vrf VPC-KEEPALIVES peer-gateway auto-recovery ip arp synchronize интерфейс port-channel10 vpc peer-link EWR1-CORE02# show run int po10 !Команда: show running-config interface port-channel10 !Последнее выполнение конфигурации: среда, 5 апреля, 03:05:19 2023 !Время: среда, 5 апреля, 03:24:22 2023 версия 9.3(8) Bios:версия 05.39 interface port-channel10 switchport switchport mode trunk spanning-tree port type network vpc peer-link EWR1-CORE02# show run int e1/59-60 !Команда: show running-config interface Ethernet1/59-60 !Последнее выполнение конфигурации: среда, 5 апреля, 03:05:19 2023 !Время: среда, 5 апреля, 03:24:27 2023 версия 9.3(8) BIOS: версия 05.39 интерфейс Ethernet1/59 switchport switchport mode trunk channel-group 10 mode active no shutdown интерфейс Ethernet1/60 switchport switchport mode trunk channel-group 10 mode active no shutdown EWR1-CORE02# show port-channel summary интерфейс port-channel 10 Флаги: D - Неактивен P - Активен в port-channel (члены) I - Индивидуальный H - Горячий резерв (только LACP) s - Приостановлен r - Модуль удален b - Ожидание сеанса BFD S - Коммутируемый R - Маршрутизируемый U - Up (port-channel) p - Up in delay-lacp mode (member) M - Not in use. Min-links not met-------------------------------------------------------------------------------- Группа Порт Тип Протокол Порты-члены Канал-------------------------------------------------------------------------------- 10 Po10(SU) Eth LACP Eth1/59(P) Eth1/60(P) EWR1-CORE02# EWR1-CORE02# show ver Программное обеспечение Cisco Nexus Operating System (NX-OS) Поддержка TAC: http://www.cisco.com/tac Copyright (C) 2002-2021, Cisco и/или ее аффилированные компании. Все права защищены. Авторские права на определенные работы, содержащиеся в данном программном обеспечении, принадлежат другим третьим сторонам и используются и распространяются в соответствии с их собственными лицензиями, такими как открытый исходный код. Данное программное обеспечение предоставляется «как есть», и, если не указано иное, не предоставляется никаких гарантий, явных или подразумеваемых, включая, помимо прочего, гарантии товарного состояния и пригодности для конкретной цели. Некоторые компоненты данного программного обеспечения лицензируются в соответствии с GNU General Public License (GPL) версии 2.0 или GNU General Public License (GPL) версии 3.0, либо GNU Lesser General Public License (LGPL) версии 2.1 или Lesser General Public License (LGPL) версии 2.0. Копия каждой такой лицензии доступна по адресу http://www.opensource.org/licenses/gpl-2.0.php и http://opensource.org/licenses/gpl-3.0.html и http://www.opensource.org/licenses/lgpl-2.1.php и http://www.gnu.org/licenses/old-licenses/library.txt . Программное обеспечение BIOS: версия 05.39 NXOS: версия 9.3(8) Время компиляции BIOS: 30.08.2019 Файл образа NXOS: bootflash:///nxos.9.3.8.bin Время компиляции NXOS: 04.08.2021 13:00:00 [08/04/2021 22:25:26] Аппаратное обеспечение cisco Nexus9000 C93240YC-FX2 Шасси Intel(R) Xeon(R) CPU D-1526 @ 1,80 ГГц с 24570056 кБ памяти. Идентификатор процессорной платы FDO24150US1 Имя устройства: EWR1-CORE02 bootflash: 115805708 кБ Время работы ядра: 0 дней, 0 часов, 20 минут, 55 секунд Последний сброс выполнен через 460516 мкс после 03:02:43 среды, 5 апреля 2023 г. Причина: сброс запрошен командой CLI reload Версия системы: 9.3(8) Сервис: плагин Core Plugin, Ethernet Plugin Активные пакеты:
  • кабели Twinax с коммутаторами Catalyst

    5
    0 Голоса
    5 Сообщения
    0 Просмотры
    0
    Может ли кто-нибудь сказать, работают ли коммутаторы Catalyst 9300 с кабелями Twinax? Хочу подключить оборудование Synology, HP и Dell, чтобы увеличить скорость передачи данных. Или, может быть, у кого-нибудь есть идея получше для подключения устройств со скоростью 10 Гбит/с?
  • USC-X: настройка сети

    2
    0 Голоса
    2 Сообщения
    0 Просмотры
    A
    Здравствуйте! У нас есть: серверы UCSX-210C-M6 - шасси UCSX-9508 - фабрика UCS-FI-6454 Мы планируем развернуть кластер на базе vSphere. Каковы лучшие практики настройки сети для этого типа оборудования? Ниже приведен пример 1 варианта . Пример: для управления создайте один адаптер vNIC, включите отработку отказа. Выполните следующие настройки в vCenter: ![1 variant.png] Вариант Для управления создайте два адаптера vNIC, отключите Failover. Выполните следующие настройки в vCenter: ![2 variant.png] Возможно ли реализовать балансировку через фабрику, чтобы оба адаптера были активны? Нужно ли создавать отдельный виртуальный коммутатор для каждой службы? Например, vMotion, управление, предоставление, виртуальные машины [image: 77619beae23bfba95a68b8f7733105cb899b9125.png] [image: 61fed5e79e33478f9df2441d01232e9a9c285983.png]
  • C220M — обнаружена недействительная подпись SNS-3595-K9

    11
    0 Голоса
    11 Сообщения
    0 Просмотры
    A
    Здравствуйте, Наш старый ISE C220M - SNS-3595-K9 был заменен на новый, и я пытаюсь использовать его для лабораторных работ, установив ESXI на старом ISE. Но каждый раз, когда я пытаюсь загрузиться с USB, появляется сообщение «Обнаружена недействительная подпись - проверьте настройки безопасной загрузки в настройках». Когда я перехожу в CIMC/Compute/Bios/Configure boot order, я вижу, что безопасная загрузка UEFI не активирована. Мой вопрос: Могу ли я установить Esxi на ISE C220M - SNS-3595? Если да, как я могу отключить обнаруженную подпись? Спасибо
  • FabricPath — 3 ЦОД в кольце

    4
    0 Голоса
    4 Сообщения
    0 Просмотры
    T
    Здравствуйте, я работаю с клиентом, у которого есть конфигурация с двумя ЦОД, в каждом из которых установлено по 2 коммутатора Nexus 5600 в конфигурации vPC. Эти коммутаторы соединяют два ЦОД между собой с помощью FabricPath 4 x 10G. Клиент покинет один из центров обработки данных, и во время миграции новый центр обработки данных будет подключен к двум существующим центрам обработки данных в треугольнике с помощью 4 x 10G к DC1 и 4 x 10G к DC2. Таким образом, это будет конфигурация с тремя центрами обработки данных с использованием FabricPath. Эти коммутаторы являются только L2. Маршрутизация осуществляется в маршрутизаторах и FW. Из того, что я прочитал до сих пор, я не нашел ничего, что нужно было бы учитывать, например, настройку определенных параметров и т. д. Есть ли что-то, что я должен учитывать при такой настройке с использованием FabricPath? Спасибо,
  • Скорость портов Nexus 9348

    14
    0 Голоса
    14 Сообщения
    0 Просмотры
    S
    Здравствуйте, Я обнаружил несоответствие в документации по скорости портов Nexus 9348GC-FXP. Технические характеристики от Cisco: https://www.cisco.com/c/en/us/products/collateral/switches/nexus-9000-series-switches/datasheet-c78-742284.html В этом техническом описании упоминается конфигурация портов: 1) «4 порта SFP28 10/25 Гбит / с» (см. таблицу 2 документа) 2) «4 порта SFP28 могут быть сконфигурированы как 1/10/25 Гбит/ с» (см. рисунок 3 документа) Оба вышеуказанных утверждения противоречат друг другу. Так поддерживают ли эти 4 порта 1 Гбит/с или нет? Я попытался подключить SFP 1 Гбит/с (который правильно распознается), но соединение не устанавливается, несмотря на то, что оно работоспособно (я проверил на другом коммутаторе, не относящемся к Nexus). Стоит отметить, что команда «show interface» на коммутаторе выдает следующий результат: «Оборудование: 1000 / 10000 /25 000 Ethernet». Заранее большое спасибо.
  • пассивные медные разветвительные кабели 100GBASE QSFP к 4xSFP25G (10 метров)

    3
    0 Голоса
    3 Сообщения
    0 Просмотры
    C
    Привет всем В настоящее время у нас есть сценарий установки стоек для инфраструктуры UCS, в котором кабели 100GBASE QSFP к 4xSFP25G Passive Copper Splitter Cables длиной 5 метров не совсем достаточны, но у CIsco нет кабелей длиной 7 или 10 метров. Кто-нибудь знает об обходном решении https://www.cisco.com/c/en/us/products/collateral/interfaces-modules/transceiver-modules/datasheet-c78-736282.htmlat ? Если да, то влияет ли это каким-либо образом на скорость, пропускную способность и передачу данных при длине более 5 метров? QSFP-4SFP25G-CU (1 м, 1,5 м, 2 м, 2,5 м, 3 м, 5 м) Пассивные медные разветвительные кабели 100GBASE QSFP к 4xSFP25G QSFP-4SFP25G-CU5M= 10 метров? Спасибо
  • Журнал UCS SEL — процессор CIMC CATAERR_N

    3
    0 Голоса
    3 Сообщения
    0 Просмотры
    H
    Привет, ребята. Я проверил SEL на сервере B200 следующим образом. И сервер завис. Знаете, почему? |BIOS| Процессор #0x00 | Ошибка конфигурации | | Утверждено |CIMC| Процессор CATERR_N #0x81 | Утверждена предикативная ошибка | Утверждено |CIMC| Сигнализация платформы LED_BLADE_STATUS #0xa6 | Цвет светодиода — янтарный | Подтверждено |CIMC| Процессор MCERR #0xaf | Утверждение предсказуемой неисправности | Утверждено |CIMC| Процессор CATERR_N #0x81 | Ошибка предикативного прогнозирования снята | Подтверждено |CIMC| Процессор CATERR_N #0x81 | Утверждение предсказуемой неисправности | Утверждено |CIMC| Процессор CATERR_N #0x81 | Прогнозируемая неисправность снята | Подтверждено |CIMC| Процессор MCERR #0xaf | Прогнозируемая неисправность снята | Подтверждено |CIMC| Процессор CATERR_N #0x81 | Утверждение предикативного сбоя | Утверждение |CIMC| Процессор MCERR #0xaf | Прогнозируемая неисправность подтверждена | Подтверждено |CIMC| Процессор CATERR_N #0x81 | Предсказуемая неисправность снята | Подтверждено |CIMC| Процессор MCERR #0xaf | Прогнозируемая неисправность снята | Подтверждено
  • Новый C220m6 ESX может пинговать себя, но не шлюз

    5
    0 Голоса
    5 Сообщения
    0 Просмотры
    C
    У меня есть 3 готовых к использованию C220 m6. 2 в сети и 1 в ожидании. Два в сети имеют ту же проблему, поэтому, вероятно, я что-то упустил при настройке/установке ESX. CIMC доступен. ESX может пинговать себя, но не шлюз. CIMC и ESX находятся в одной подсети. ESX подключен к сети через магистральный порт на основном коммутаторе. Простая конфигурация: int gi1/7/33 switchport switchport mode trunk Это проект по обновлению, поэтому я зеркалировал ESX/транковый порт, подключенный к текущему c220. Я использовал встроенный порт LAN1 для подключения к c220. В основном коммутаторе я вижу MAC-адрес этого порта в таблице MAC-адресов, но в ARP ничего не отображается. Новый находится в той же подсети, что и текущий, и имеет тот же шлюз. В esx я вижу vswitch, который содержит «onboard lan1». По умолчанию создана одна группа портов. Она содержит группы портов по умолчанию VM Network и Management Network. Как текущий, так и новый c220, похоже, настроены одинаково. Однако я думаю, что я что-то упустил при первоначальной настройке/установке ESX. Я подключился к c220 через монитор и клавиатуру, чтобы настроить CIMC. Режим NIC для этого является выделенным. Затем я использовал это соединение CIMC для установки ESX. Я загрузил esx7.0.3d с vmware и убедился, что получил пользовательский iso-образ cisco. Установка прошла без проблем. После установки я вошел через KVM и добавил свой IP, подсеть, DNS и домен. Виртуальный коммутатор был создан автоматически. В CIMC я не видел VNIC, поэтому создал 2 вручную. Перезагрузил систему, и теперь их 4. Независимо от этого, все они имеют одинаковую конфигурацию. Я прошел и скопировал настройки VNIC с текущего на новый. Текущий — это c220m4, который был настроен 6 лет назад, поэтому есть несколько различий в функциях. В основном я использовал настройки по умолчанию. Я не понимаю, почему я вижу mac в коммутаторе, esx может пинговать себя, но не может пинговать шлюз по умолчанию. Чтобы было ясно, я не могу пинговать esx из коммутатора. ESX не может пинговать ничего, кроме себя. Мне кажется, что vswitch, который имеет встроенный lan1, не передает данные в нужное место. Есть ли какие-либо идеи или предложения относительно того, что я могу проверить или сделать, чтобы определить, в чем заключается проблема? К вашему сведению, у меня есть заявка в TAC, но я нетерпелив и не хочу ждать, пока инженер свяжется со мной.
  • определение JTAG PIN для Nexus X25

    3
    0 Голоса
    3 Сообщения
    0 Просмотры
    R
    Поскольку портал поддержки Cisco, похоже, сейчас не работает, у меня есть небольшой вопрос по поводу X25, описанного здесь. Не могли бы вы предоставить нам определение JTAG-контактов (всего 14) на X25 для оценки клиентом разработки FDK? ![RichardChiang_0-1722993964423.png] [image: 2ef1c84a84decaf1c68760d2b409b60ae6dc6bc1.png]
  • C93180YC-FX3 рекомендация по стабильной версии программного обеспечения

    3
    0 Голоса
    3 Сообщения
    1 Просмотры
    Z
    Какая стабильная версия программного обеспечения используется для коммутатора Nexus 93180YC-FX3 в финансовой отрасли?
  • серия Nexus 9300 VDC и альтернативные способы

    7
    0 Голоса
    7 Сообщения
    0 Просмотры
    S
    Если я хочу настроить Nexus N9k-C93108TC-EX N9k-C93108YC-EX VDC но он не поддерживает VDC. Итак, Какие есть альтернативные способы?!