<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[SDA Multicast TTL]]></title><description><![CDATA[<p dir="auto">Привет, сообщество!<br />
есть ли у кого-нибудь подтверждение/документация о том, как уменьшается TTL для многоадресной рассылки в одной и той же VN в SDA?<br />
Следующий набор слайдов охватывает только одноадресную передачу<br />
<a href="https://www.ciscolive.com/c/dam/r/ciscolive/emea/docs/2019/pdf/BRKCRS-3810.pdf" rel="nofollow ugc">https://www.ciscolive.com/c/dam/r/ciscolive/emea/docs/2019/pdf/BRKCRS-3810.pdf</a><br />
стр. 97 ff<br />
По нашим наблюдениям, как только для VN включается многоадресная рассылка/IGMP/MLD-сниффинг, TTL уменьшается для каждого прыжка в фабрике, даже если источник и получатель находятся в одной и той же VN (в основном mcast следует подходу одноадресной рассылки L3).<br />
В нашем случае это вызывает проблемы с совместимостью, поскольку мы имеем дело с конкретными устройствами, которые используют многоадресную рассылку в своей VLAN и имеют жестко запрограммированное значение TTL, равное 2. Когда мы хотим перейти на SDA в зависимости от размера филиала, между конечными точками будет более 2 прыжков.<br />
Есть ли способ адаптировать поведение таким образом, чтобы для приемников в той же VN, что и источник, TTL не уменьшался (эквивалентно VN-локальному unicast)?<br />
Просто отключить многоадресную рассылку и полагаться на BUM-флуд не является вариантом, так как требуется IGMP / MLD-снифинг.<br />
Спасибо<br />
Мануэль</p>
]]></description><link>https://sla247.ru/forum/topic/854/sda-multicast-ttl</link><generator>RSS for Node</generator><lastBuildDate>Thu, 14 May 2026 19:46:40 GMT</lastBuildDate><atom:link href="https://sla247.ru/forum/topic/854.rss" rel="self" type="application/rss+xml"/><pubDate>Fri, 13 Feb 2026 20:11:39 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to SDA Multicast TTL on Fri, 13 Feb 2026 20:11:42 GMT]]></title><description><![CDATA[<p dir="auto">Для PTPv1 и TTL=1 требуется версия 17.6+ и L2 Flooding, чтобы это работало. Для этого необходима многоадресная рассылка подслоя. Это было введено через<br />
<a href="https://bst.cloudapps.cisco.com/bugsearch/bug/CSCvr13592" rel="nofollow ugc">https://bst.cloudapps.cisco.com/bugsearch/bug/CSCvr13592</a> С уважением</p>
]]></description><link>https://sla247.ru/forum/post/6806</link><guid isPermaLink="true">https://sla247.ru/forum/post/6806</guid><dc:creator><![CDATA[jalejand]]></dc:creator><pubDate>Fri, 13 Feb 2026 20:11:42 GMT</pubDate></item><item><title><![CDATA[Reply to SDA Multicast TTL on Fri, 13 Feb 2026 20:11:41 GMT]]></title><description><![CDATA[<p dir="auto">Здравствуйте, у меня тоже есть похожая проблема. Приложение — PTPv1, использующее TTL=1. Разработала ли Cisco какие-либо усовершенствования для решения этой проблемы? Спасибо.</p>
]]></description><link>https://sla247.ru/forum/post/6805</link><guid isPermaLink="true">https://sla247.ru/forum/post/6805</guid><dc:creator><![CDATA[Stefano7K]]></dc:creator><pubDate>Fri, 13 Feb 2026 20:11:41 GMT</pubDate></item><item><title><![CDATA[Reply to SDA Multicast TTL on Fri, 13 Feb 2026 20:11:40 GMT]]></title><description><![CDATA[<p dir="auto">Отвечая на свой собственный вопрос: Хотя в SDA мы предоставляем подсеть между FE и мобильность между ними, многоадресная рассылка работает через L3, а не L2, даже когда источник и приемник находятся в одной подсети, но подключены к разным FE. Это требует, чтобы каждый HOP уменьшал TTL. Есть приложения, которые работают в одной подсети с TTL=1, что не работает в SDA. На сегодняшний день SDA не имеет решения для таких проблем. В настоящее время рассматривается запрос на усовершенствование для решения этой проблемы.</p>
]]></description><link>https://sla247.ru/forum/post/6804</link><guid isPermaLink="true">https://sla247.ru/forum/post/6804</guid><dc:creator><![CDATA[manuwidmer]]></dc:creator><pubDate>Fri, 13 Feb 2026 20:11:40 GMT</pubDate></item></channel></rss>