Skip to content
  • Категории
  • Последние
  • Метки
  • Популярные
  • Пользователи
  • Группы
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • По умолчанию (Нет скина)
  • Нет скина
Collapse

Networks Engineering

  1. Главная
  2. Сети (Routing & Switching)
  3. SD-Access
  4. SDA Multicast TTL

SDA Multicast TTL

Запланировано Прикреплена Закрыта Перенесена SD-Access
4 Сообщения 0 Posters 9 Просмотры
  • Сначала старые
  • Сначала новые
  • По количеству голосов
Ответить
  • Ответить, создав новую тему
Авторизуйтесь, чтобы ответить
Эта тема была удалена. Только пользователи с правом управления темами могут её видеть.
  • M Не в сети
    M Не в сети
    manuwidmer
    написал в отредактировано
    #1

    Привет, сообщество!
    есть ли у кого-нибудь подтверждение/документация о том, как уменьшается TTL для многоадресной рассылки в одной и той же VN в SDA?
    Следующий набор слайдов охватывает только одноадресную передачу
    https://www.ciscolive.com/c/dam/r/ciscolive/emea/docs/2019/pdf/BRKCRS-3810.pdf
    стр. 97 ff
    По нашим наблюдениям, как только для VN включается многоадресная рассылка/IGMP/MLD-сниффинг, TTL уменьшается для каждого прыжка в фабрике, даже если источник и получатель находятся в одной и той же VN (в основном mcast следует подходу одноадресной рассылки L3).
    В нашем случае это вызывает проблемы с совместимостью, поскольку мы имеем дело с конкретными устройствами, которые используют многоадресную рассылку в своей VLAN и имеют жестко запрограммированное значение TTL, равное 2. Когда мы хотим перейти на SDA в зависимости от размера филиала, между конечными точками будет более 2 прыжков.
    Есть ли способ адаптировать поведение таким образом, чтобы для приемников в той же VN, что и источник, TTL не уменьшался (эквивалентно VN-локальному unicast)?
    Просто отключить многоадресную рассылку и полагаться на BUM-флуд не является вариантом, так как требуется IGMP / MLD-снифинг.
    Спасибо
    Мануэль

    1 ответ Последний ответ
    0
    • M Не в сети
      M Не в сети
      manuwidmer
      написал в отредактировано
      #2

      Отвечая на свой собственный вопрос: Хотя в SDA мы предоставляем подсеть между FE и мобильность между ними, многоадресная рассылка работает через L3, а не L2, даже когда источник и приемник находятся в одной подсети, но подключены к разным FE. Это требует, чтобы каждый HOP уменьшал TTL. Есть приложения, которые работают в одной подсети с TTL=1, что не работает в SDA. На сегодняшний день SDA не имеет решения для таких проблем. В настоящее время рассматривается запрос на усовершенствование для решения этой проблемы.

      1 ответ Последний ответ
      0
      • S Не в сети
        S Не в сети
        Stefano7K
        написал в отредактировано
        #3

        Здравствуйте, у меня тоже есть похожая проблема. Приложение — PTPv1, использующее TTL=1. Разработала ли Cisco какие-либо усовершенствования для решения этой проблемы? Спасибо.

        1 ответ Последний ответ
        0
        • J Не в сети
          J Не в сети
          jalejand
          написал в отредактировано
          #4

          Для PTPv1 и TTL=1 требуется версия 17.6+ и L2 Flooding, чтобы это работало. Для этого необходима многоадресная рассылка подслоя. Это было введено через
          https://bst.cloudapps.cisco.com/bugsearch/bug/CSCvr13592 С уважением

          1 ответ Последний ответ
          0

          Здравствуйте! Похоже, вам интересна эта беседа, но у вас пока нет учетной записи.

          Вы устали просматривать одни и те же посты каждый раз, когда заходите на сайт? После регистрации, вам не придётся искать обсуждения в которых вы принимали участие, настройте уведомления о новых сообщениях так как вам это удобно (по электронной почте или уведомлением). У вас появится возможность сохранять закладки и ставить лайки постам, чтобы выразить свою благодарность другим участникам сообщества.

          С вашими комментариями этот пост может стать ещё лучше 💗

          Зарегистрироваться Войти
          Ответить
          • Ответить, создав новую тему
          Авторизуйтесь, чтобы ответить
          • Сначала старые
          • Сначала новые
          • По количеству голосов


          • Войти

          • Нет учётной записи? Зарегистрироваться

          • Login or register to search.
          • Первое сообщение
            Последнее сообщение
          0
          • Категории
          • Последние
          • Метки
          • Популярные
          • Пользователи
          • Группы