
После публикации ряда маркетинговых статей, предлагаю читателю копнуть чуть глубже и выяснить как достигается высочайшая на сегодняшний день производительность и не блокируемая коммутация на всех портах шассийных устройств Brocade.
Собственно никакого секрета здесь нет. Архитектура устройств базируется на старой доброй математике Чарльза Клосса, которая издавна использовалась в телефонных свичах где блокировки мягко говоря не приветствуются, а потом была взята на вооружение для построения всех старших линеек Brocade, включая BigIron, NetIron MLX и XMR.
Итак. NetIron MLX. Устройство выпущенное в 2006 году, проверенное временем и множеством инсталляций,
с производительностью фабрики 7,68Tbps, маршрутизацией
7,6 миллиарда пакетов в секунду, и поддержкой на сегодняшний день
256 не блокируемых портов 10 GbE. Архитектура устройства подробно описана в соответствующем документе на сайте вендора. Мы же посмотрим схему и остановимся на самых интересных фактах:
- Используемые модули свич-фабрики и идеология построения устройства едины для всех устройств линейки MLX от 4-х слотового шасси до 32-х слотового.
- Блокировки отсутствуют как на уровне линейных модулей так и в свич-фабрике при любых типах трафика и размерах пакетов
- Свичфабрика задействована постоянно и целиком вплоть до последнего модуля, обеспечивая максимальную производительность с резервированием N+1
- Control Plane отделен от Data Plane. Решение об отправке пакета принимается локально на процессоре линейной карты, обслуживающем конкретный порт.
На схеме изображены главные элементы линейной карты и фабрики коммутации.
- NP - Network Processor
- TM - Traffic Manager
- FE - Fabric Element
Итак NP- сетевой процессор отвечающий за обработку трафика на порту и имеющий производительность 20/40 Gbps отправляет входящий пакет на трафик менеджер (TM) который соединен одновременно со всеми фабрик-элементами всех установленных свич-фабрик. TM получая пакет от сетевого процессора формирует из него ячейки одинакового размера и отправляет их разом на все элементы свич-фабрики (FE). Пакет заново собирается на исходящем TM и отправляется в исходящий порт обслуживающим его процессором.
Таким образом достигается заявленная пропускная способность устройства без блокировок и задержек. Но это хорошо для L2, скажете вы, а что на третьем уровне? Как достигается сумасшедшая цифра в миллиарды пакетов в секунду? И тут все достаточно просто. Весть основной функционал реализован в железе, на ASIC-ах локальных карт. Как уже упоминалось, каждая локальная карта MLX имеет свою таблицу маршрутизации, локальные сетевые процессоры которые обращаются к таблице маршрутизации (Brocade Direct Routing) находящейся в памяти каждой локальной карты.
Итак на сегодня мы имеем систему которая без снижения производительности держит в железе:
- 4000 VPLS Instances
- 8000 VLL
- 4094 VLAN и 1 миллион MAC-адресов
- 512 000 Ipv4 маршршутов
- 112 000 Ipv6 маршрутов
- 2 миллиона маршрутов BGP
- 400 BGP/MPLS VPN
NetIron MLX - универсальное шасси которое хорошо зарекомендовало себя в транспортных сетях операторов где требуется поддержка MPLS, MPLS-TE, VPLS, Metro Ethernet и в сетях дата центров, где требуется высокопроизводительная не блокируемая коммутация и поддержка протокола BGP. Дальше нас ждет переход к использованию модулей на 40 и 100 GbE, но об этом читайте в следующих сообщениях.
Референс
Автор статьи: неизвестный | Дата публикации: 14:23 14.12.2016 Forthis.Ru
Отзывы и комментарии