воскресенье, 8 августа 2010 г.

Архитектура Brocade NetIron MLX

После публикации ряда маркетинговых статей, предлагаю читателю копнуть чуть глубже и выяснить как достигается высочайшая на сегодняшний день производительность и не блокируемая коммутация на всех портах шассийных устройств Brocade.

Собственно никакого секрета здесь нет. Архитектура устройств базируется на старой доброй математике Чарльза Клосса, которая издавна использовалась в телефонных свичах где блокировки мягко говоря не приветствуются, а потом была взята на вооружение для построения всех старших линеек Brocade, включая BigIron, NetIron MLX и XMR.

Итак. NetIron MLX. Устройство выпущенное в 2006 году, проверенное временем и множеством инсталляций, с производительностью фабрики 7,68Tbps, маршрутизацией 7,6 миллиарда пакетов в секунду, и поддержкой на сегодняшний день 256 не блокируемых портов 10 GbE. 
Новое шасси  NetIron MLXe которое стало доступно к заказу в сентябре 2010 года поддерживает уже до 15,36 терабит/сек или до 5 миллиардов пакетов в секунду.  В шасси MLXe можно установить 32 100 гигабитных порта с возможностью объединения в транк до 16 портов с общей пропускной способностью 1.6 терабита. Либо 256 10-гигабитных портов с аггрегацией в транк до 64 портов с суммарной пропускной способностью 640 гигабит.

Архитектура устройств подробно описана в соответствующем документе на сайте вендора. Мы же посмотрим схему и остановимся на самых интересных фактах:


  1. Используемые модули свич-фабрики и идеология построения устройства едины для всех устройств линейки MLX/MLXe от 4-х слотового шасси до 32-х слотового.
  2. Блокировки отсутствуют как на уровне линейных модулей так и в свич-фабрике при любых типах трафика и размерах пакетов
  3. Свичфабрика задействована постоянно и целиком вплоть до последнего модуля, обеспечивая максимальную производительность с резервированием N+1
  4. Control Plane отделен от Data Plane. Решение об отправке пакета принимается локально на процессоре линейной карты, обслуживающем конкретный порт.
На схеме изображены главные элементы линейной карты и фабрики коммутации.
  • NP - Network Processor
  • TM - Traffic Manager
  • FE - Fabric Element
 Итак NP- сетевой процессор отвечающий за обработку трафика на порту и имеющий производительность 20/40 Gbps отправляет входящий пакет на трафик менеджер (TM) который соединен одновременно со всеми фабрик-элементами всех установленных свич-фабрик. TM получая пакет от сетевого процессора формирует из него ячейки одинакового размера и отправляет их разом на все элементы свич-фабрики (FE). Пакет заново собирается на исходящем TM и отправляется в исходящий порт обслуживающим его процессором.

Таким образом  достигается заявленная пропускная способность устройства без блокировок и задержек. Но это хорошо для L2, скажете вы, а что на третьем уровне? Как достигается сумасшедшая цифра в миллиарды пакетов в секунду? И тут все достаточно просто. Весть основной функционал реализован в железе, на ASIC-ах локальных карт. Как уже упоминалось, каждая локальная карта MLX/MLXe/XMR имеет свою таблицу маршрутизации, локальные сетевые процессоры которые обращаются к таблице маршрутизации (Brocade Direct Routing) находящейся в памяти каждой локальной карты.

Итак на сегодня мы имеем систему MLX которая без снижения производительности держит в железе:
  • 4000 VPLS Instances
  • 8000 VLL
  • 4094 VLAN и 1 миллион MAC-адресов
  • 512 000 Ipv4 маршршутов
  • 112 000 Ipv6 маршрутов
  • 2 миллиона маршрутов BGP
  • 400 BGP/MPLS VPN
NetIron MLX - универсальное шасси которое хорошо зарекомендовало себя в транспортных сетях операторов где требуется поддержка MPLS, MPLS-TE, VPLS, Metro Ethernet и в сетях дата центров, где требуется высокопроизводительная не блокируемая коммутация и поддержка протокола BGP.

Комментариев нет:

Отправить комментарий