среда, 15 декабря 2010 г.

BCND Beta Exam

Brocade анонсировал дизайнерский экзамен по сетевому оборудованию: Brocade Certified Network Designer (BCND).
 

Экзамен охватывает следующие области знаний:
  • Методологии сетевого дизайна
  • Сетевые инфраструктуры
  • Позиционирование оборудования Brocade
  • Дизайн сетей на уровне L2
  • Маршрутизацию (Дизайн L3)
  • QoS
  • Беспроводные сети WLAN
  • Безопасность
  • Мультикаст
  • Построение отказоустойчивых систем
  • Сетевое управление и мониторинг
Подрбобнее смотрите тут


Материалы для подготовки доступны в форуме сайта my.brocade:
http://community.brocade.com/docs/DOC-1786
В качестве дополнительного чтения рекомендую книгу Brocade IP Primer по сетевым технологиям Brocade.

Экзамены Brocade нужно сдавать в тестовых центрах VUE
Номер экзамена: 152-510: Brocade Certified Network Designer 2011 Beta
Цена у Beta та же что и для полноценных версий - $150
----------------------------------------------------------------------------------------------------

среда, 1 декабря 2010 г.

Перезаписываем URL в ответе ServerIron ADX

Широкие возможности балансировщиков нагрузки ADX позволяют реализовать множество требуемых в проектах функций с помощью скриптов и тонких настроек устройства. Одна из них - перезапись возвращаемого клиенту URL.
Рассмотрим пример такой настройки, позволяющей переписать URL так, чтобы он приобрел благообразный вид, или для того чтобы скрыть реальный адрес и TCP порт на физическом сервере.
Пусть на реальном сервере адресная строка выглядит так:
www.internal-site-325.com:8995/page1
Мы хотим преобразовать этот URL с тем чтобы пользовател обращались к адресу
www.site.com/catalogue
Для этого создаем скрипт и политику для виртуального сервера, которые будут выдавать клиентам дружественный URL:

csw-rule "rr1" response-status-code 302 302
csw-rule "rr2" response-header "Location" pattern "www.internal-site-325.com:8995/page1"
!
csw-policy "rp1" type response-rewrite
 match "rr1" response-header-rewrite
 match "rr2" rewrite response-header-replace "www.site.com/catalogue" offset 0 length 28
!
server virtual vs1 110.168.84.50
port http response-rewrite-policy "rp1"
Как видим все довольно просто, задача решается в две строчки 

вторник, 30 ноября 2010 г.

Три икса Brocade - VDX, MLX и ADX

Сегодня Brocade предлагает на рынок три уникальных продукта, по большому счету не имеющих аналогов у конкурентов. Постепенно эти устройства из рахзряда "неизвестных" переходят в категорию наиболее восстребованных и популярных систем для построения современных ЦОД-ов и операторских сетей.

Коммутатор VDX, анонсированный совсем недавно призван в корне поменять идеологию построения центров обработки данных, посредством упрощения архитектуры, добавления интеллектуальности в сеть и организации Ethernet-фабрики вместо устаревающией трех-уровневой архитектуры. Конвергенция SAN и IP, поддержка миграции профайлов виртуальных машин, высокая плотность портов, масштабирование - вот устройство призванное разрубить гордиев узел проблем датацентров.

Маршрутизатор NetIron MLX и его обновленная модель MLXe позволяют обеспечить по истине экстраординарную производительность и на долгое время забыть о проблемах масштабирования сети в связи с постоянно растущими объемами передаваемого трафика. 100-гигабитные интерфейсы, пропускная способность в десятки террабит и неблокируемая, распределенная архитектура это то что нужно современным глобальным сетям, к которым все чаще предъявляются требования обеспечивать уровень обслуживания клиентов (SLA) характерный для локальных сетей.

И наконец контроллер доставки приложений или по привчному балансировщик нагрузки - Brocade ServerIron ADX - продвинутый функционал, производительность до 70 гигабит на уровнях L4-L7, 10-гигабитные интерфесый, полностью отказоустойчивая конфигурация (шасси ADX 10K), поддержка режима Active-Active, глобальная балансировка нагрузки (GSLB) блокировка DDOS атак. Все это и многое другое делает ADX незаменимым при построении отказоустойчивых дата-центров, хостингов, фабрик кеширующих серверов или высокопроизводительных файрвольных узлов.

После небольшой естественной паузы, возникшей после покупки Foundry Networks, Brocade бросил объединенные ресурсы двух компаний в разработку новейших сетевых технологий. Благодяря высокой технологичности наработанной за годы лидерства в SAN и отличному видению сетевого рынка наследованному от Foundry, Brocade смог предложить решения которые долгие годы будут основополагающими кирпичиками будущих сетей.

четверг, 25 ноября 2010 г.

Критерии выбора контроллера доставки приложений

Контроллеры доставки приложений (ADC) набирают популярность по мере того как компании переходят от серверных к дата-центрам, от зооппарка инфраструктуры к консолидации и от разномастных серверов и приложений к виртуализации.
Вопрос, какие факторы нужно рассматривать выбирая балансировщик нагрузки или контроллер доставки приложений для центра обработки данных волнует многих дизайнеров и проектировщиков. На сегодня на этот счет имеется не много рекомендаций, поэтому публикую один из подходов который имеет право на жизнь.
 
Параметр
Комментарий
Функционал
Включение процессорно-затратных функций не должно влиять на пиковую производительность устройства
Производительность
Для ADC ключевые параметры – кол-во сессий которые он может устанавливать в секунду и максимальное поддерживаемое число установившихся соединений
Интеграция/совместимость
ADC должен соответствовать стандартам и прозрачно интегрироваться с любыми видами оборудования других производителей
Масштабируемость
Как добавление функционала влияет на производительность? На сколько легко увеличить пропускную способность системы за счет добавления модулей или доп. устройств?
Функциональная интеграция (консолидация)
Для дата-центров важно упростить архитектуру и количество вспомогательных устройств требуемых для обслуживания сети. Консолидация функционала позволяет уменьшить сложность и повысить управляемость ЦОД, что ведет к снижению TCO
Виртуализация
Поддержка виртуализации – необходимое условие при выборе ADC. Поддерживается ли совместная работа с гипервизорами? Есть ли функционал позволяющий автоматически перемещать виртуальные машины? Поддерживает ли ADC контексты?
Безопасность
Необходима совместимость со всеми средствами безопасности организации включая файрволы и IPS. Сам контроллер не должен привносить дополнительные уязвимости, а так же должен поддерживать базовые функции обеспечения безопасности в рамках функциональной консолидации
Доступность приложений
Для контроллера это означает поддержку отказоустойчивых конфигураций, а так же отслеживание и своевременное отключение недоступных ресурсов с переключением трафика пользователей на резервные источники.
Простота внедрения
Не только простота установки и настройки, но так же простота добавления новых приложений

Рассматривая возможных кандидатов которые удовлетворяют увловиям нельзя не отметить балансировщики нагрузки Brocade ADX, функционал, производительность и масштабируемость которых вызывают интерес и уважение на рынке.

понедельник, 15 ноября 2010 г.

Ethernet-фабрика - новый двух-уровневый дизайн сетей датацентров

В течение многих лет трехуровневый дизайн (доступ, агрегация, ядро) был стандартом дефакто для проектировщиков сетей. Надежно - да, производительно - допустим, но плюсы такого дизайна с трудом перевешивали такие минусы как сложность в настройке и большое время сходимости. Отсюда все улучшения и докручивания типа RSTP/MSTP попытки использовать L3 на аггрегации или в ядре. Это позволяло улучшить таймеры но не давало обойти основные острые углы стандартного Ethernet порождаемые протоколом STP.
Сегодня Brocade в рамках стратегии Brocade One анонсировал устройства призванные принципиально изменить подход к построению центров обработки данных. Конвергентные коммутаторы Brocade VDX 6720
позволяют обойти ограничения трех-уровневой модели и проблемы медленной сходимости STP. Новые устройства позволяют объединить уровень доступа и агрегации в единый виртуальный коммутатор (Virtual Cluster Switch) который по аналогии с фабрикой FC-комммутаторов в SAN-сетях назван Ethernet-фабрикой. Это название вполне отражает суть перемен которые предлагает Brocade, фабрика имеет неблокируемую архитектуру масштабируемую до 600 портов 10Gbe, работает на задержках порядка 600 наносекунд и исключает любые потери трафика в случае переконфигурирования за счет использования протокола TRILL (Transparent Interconnection of Lots of Link) который заменяет давно устаревший STP.

Ну и конечно главное достоинство VCS - возможность пропускать без потерь и задержек критичный трафик такой как FCoE или iSCSI за счет поддержки стандарта DCB (Data Center Bridging)
Отдельно нужно сказать о поддержке в VDX вируатльных машин. Как известно головная боль администраторов дата-центров использующих виртуализацию - перемещение VM между физическими серверами. Если этот процесс на уровне серверов автоматизирован, то сетевые профайлы (настройки QoS, полиси, MAC-адреса и т.п.) приходится переносить каждый раз вручную. Теперь эта проблема снята. Внутри кластера VDX профайлы перемещаются вслед за виртуальными машинами автоматически без вмешательства администратора.
VDX6720 поставляются в конфигурациях на 16, 24, 40, 50 или 60 портов SFP+ и позволяют активировать дополнительные порты по мере надобности. Отдельно лицензируется VCS и FCoE, то есть если этот функционал не нужен можно использовать VDX просто как мощный 10-гигабитный коммутатор.

Итак сегодня у нас, проектировщиков дата-центров, появился выбор и надо сказать выбор весьма и весьма привлекательный!

суббота, 6 ноября 2010 г.

Fast Track to Brocade Certification for Cisco Professionals

Компания Brocade анонсировала специальный курс обучения CNE 250 для специалистов Cisco, который позволит сертифицированным инженерам имеющим статусы CCNA, CCNP или CCIE подготовиться по ускоренной программе и сдать экзамен Brocade Certified Network Engineer (BCNE)

Начиная с августа 2010 года курс доступен онлайн как Web Based Training (WBT) или в виртуальном учебном классе Brocade Gold Standard Virtual Classroom Training (VCT).

Курс обучения CNE 250 включает:
  • Обзор продуктов Brocade IP
  • Сравнение командных строк (CLI) Cisco и Brocade
  • Изучение основных топиков входящих в экзамен BCNE
  • симуляторы аналогичные тем которые исопльзуются на реальном экзамене
  • Основные разделы включенные в курсы Brocade ETH 103 Basic Switch/Router Configuration and Management и CNE 200 
Стоимость курса всего $99 плюс по окончании кандидату выдается бесплатный промо-код для сдачи экзамена BCNE в тестовом центре.
Подробнее о курсе CNE 250: http://www.brocade.com/education/CNE_250.page

среда, 6 октября 2010 г.

Универсальная система управления Brocade Network Advisor

Brocade Network Advisor - еще один шаг Brocade в сторону унификации и конвергенции сетей SAN и IP объединяет в себе функционал популярных приложений Brocade Iron View Network Manager и Data Center Fabric Manager для IP и SAN сетей, соответственно.

Network Advisor позволяет управлять сетью любого размера от нескольких коммутаторов до глобальных распределенных сетей включающих десятки тысяч устройств различного назначения. Благодаря наличию функции разделения полномочий Role-Based Access Control (RBAC) приложение дает возможность гибко разграничить права администраторов отвечающих за различные сегменты сетевой инфраструктуры. 
Подробности в статье на сайте brocade.ocs.ru

пятница, 1 октября 2010 г.

Hitless Failover на стекируемых коммутаторах FastIron CX

Новая версия софта для коммутаторов Brocade FCX (IronWare 7.2.0) дополнила функционал устройств уникальной функцией Hitless Failover характерной только для тяжелых шассийных устройств. Теперь на FCX для множества протоколов, включая динамическую маршрутизацию, STP/RSTP/MSTP, а так же другие протоколы второго уровня, поддерживается сто процентная доступность, даже в случае выхода из строя мастер-коммутатора в стеке.

Сегодня сети предприятий как правило состоят из стеков комутаторов на уровне доступа, так как технология стекирования позволяет упростить управление устройствами и получить дополнительный уровень надежности системы.

Стекируемые коммутаторы FCX могут объединять до 8 коммутаторов через выделенные физические порты, с общей пропускной способностью стека 64Gbps.

Для обеспечения Hitless Failover вся информация с control plane активного контроллера стека постоянно синхронизуется с с резервным контроллером. Поэтому в случае выхода из строя активного контроллера, данные по состоянию STP, таблицы маршрутизации, MAC адреса и VLAn-ы не требуют обновления или вычисленя заново, резервный контроллер мгновенно включается в работу без необходимости прерывания работы стека.
Брошюра по функции Hitless Failover на сайте Brocade (PDF)

пятница, 24 сентября 2010 г.

Multi-Chassis Trunk (MCT) на маршрутизаторах NetIron

Multi-Chassis Trunk (MCT) - ключевая технология в составе архитектуры Brocade One позволяющей строить масштабируемые и отказоустойчивые сети удовлетворяющие потребностям сегодняшнего дня и лекго расширяемая под растущие потребности инфраструктуры дня завтрашнего.


Технология MCT позволяет организовать множество коммутаторов Brocade NetIron в один логический свич, который поддерживает подключение к внешним устройствам при помощи агрегированных линков с поддержкой стандартного протокола  LAG (Link Aggregation Group, IEEE 802.3ad)  LAG позволяет увеличивать пропускную способность канала между устройствами за счет объединения нескольких физических линков в один логический. MCT добавляет отказоустойчивость на уровне узла, обеспечивая время восстановления при сбоях менее 200 милисекунд.



Типичная схема использования MCT приведена на рисунке. Внешнее устройство подключаемое к MCT-кластеру не обязано поддерживать MCT, для него достаточно поддержки аггрегированных линков.


Использование MCT позволяет упростить конфигурацию сети и исключить протокол STP при подключении серверов к ядру дата-центра, обеспечивая при этом 100% утилизацию всех линков и отказоустойчивость на уровне шасси в системах где требуется высокая общая доступность решения.
Подробная информация по внедрению MCT на сайте Brocade (PDF 2,16Мб)

вторник, 21 сентября 2010 г.

Платформа MLXe и двух-портовый 100-гигабитный модуль



"То, о чем так долго говорили большевики, свершилось!" © Ульянов Ленин (для тех кто поздно родился и не изучал историю КПСС)

Brocade анонсировал новое шасси NetIron MLXe и не блокируемый двух-портовый100 гигабитный модуль с полным функционалом (MPLS/VPLS/IPv6).
Производительность нового шасси до 15,36 терабит/сек или до 5 миллиардов пакетов в секунду.
Поддерживаются модули как от MLX так и от XMR.
В шасси MLXe можно установить 32 100 гигабитных порта с возможностью объединения в транк до 16 портов с общей пропускной способностью 1.6 терабита. Либо 256 10-гигабитных портов с аггрегацией в транк до 64 портов с суммарной пропускной способностью 640 гигабит.
На 100-гигабитных модулях два порта, причем покупать их можно с одним активированным портом, а второй открывать лицензией позднее, если это потребуется.  Новые модули работают и в шасси MLX но там можно активировать только один порт.
Трансиверы для модулей 100GbE имеют форм-фактор CFP. Некоторые производители оптических модулей уже анонсированы их доступность к заказу.
Подробная информация о новом шасси и модулях на русском языке есть на сайте brocade.ocs.ru 
Фото MLXe в натуральную величину :)

суббота, 4 сентября 2010 г.

Базовая настройка балансировщиков нагрузки Brocade

Коммутаторы приложений Brocade ServerIron предназначены для выполнения целого спектра задач по доставке приложений, распределению нагрузки на сервера, глобальной балансировки нагрузки между дата центрами, балансировки трафика межсетевых экранов, кэш-серверов и других задач возникающих в центрах обработки данных предприятий, хостинговых компаний и сервис-провайдеров.

Основная задача решаемая коммутаторами ServerIron – балансировка нагрузки на сервера (Server Load Balancing или SLB) базируется на сопоставлении между реальными (физическими) серверами установленными в дата-центре  и виртуальными серверами, которые видны пользователям подключающимся через сеть. Реальные сервера это сервера приложений предоставляющие свои сервисы пользователям. Виртуальные сервера характеризуются виртуальным IP-адресом (VIP) который задается на балансировщике для приема запросов от клиентов. Именно VIP указывают пользователи для доступа к тому или иному сервису и VIP должен быть указан в DNS в случае если доступ к сервисам осуществляется по доменному имени. Механизм SLB создает соответствие каждого VIP с несколькими реальными серверами. Схема подключения фермы серверов через коммутатор ServerIron представлена на следующем рисунке:
Предположим что компания разработала сайт www.alterego.com. В DNS адрес сайта привязан к IP адресу 207.95.55.1 который настроен как VIP на коммутаторе ServerIron. Каждый запрос на этот адрес обрабатывается одним из реальных серверов компании, установленных во внутренней сети, и имеющем адрес из диапазона публичных или частных адресов.
SLB работает по методу трансляции адресов (Network Adress Translation). Каждый пакет поступающий на VIP транслируется в пакет имеющий в качестве назначения реальный IP-адрес одного из серверов, который назначается в соответствии с выбранным механизмом балансировки.

Коммутаторы Brocade ServerIron ADX на уровне L2-L3 представляют собой производительный коммутатор третьего уровня и поддерживают весь необходимый функционал, настройка которого выходит за рамки данной статьи. Мы рассмотрим пошаговую конфигурацию коммутатора непосредственно для балансировки нагрузки.
На первом этапе необходимо определить реальные сервера которые будут принимать нагрузку. Затем указать виртуальный IP, и привязать VIP к указанным ранее физическим серверам.
Зададим реальные сервера указанные выше для обработки веб-трафика:
ServerIronADX(config) # server real Web1 207.95.55.21
ServerIronADX(config-rs-Web1) # port http
ServerIronADX(config-rs-Web1) # server real Web2 207.95.55.22
ServerIronADX(config-rs-Web2) # port http
ServerIronADX(config-rs-Web2) # server real Web3 207.95.55.23
ServerIronADX(config-rs-Web3) # port http
ServerIronADX(config-rs-Web3) # server real Web4 207.95.55.24
ServerIronADX(config-rs-Web4) # port http
Далее определяем виртуальный сервер (VIP)
ServerIronADX(config-rs-Web4) # server virtual-name-or-ip www.alterego.com  207.95.55.1
ServerIronADX(config-vs-www.alterego.com) # port http
И, наконец, привязываем реальные сервера к виртуальному серверу
ServerIronADX(config-vs-www.alterego.com) # bind http Web1 http
ServerIronADX(config-vs-www.alterego.com) # bind http Web2 http
ServerIronADX(config-vs-www.alterego.com) # bind http Web3 http
ServerIronADX(config-vs-www.alterego.com) # bind http Web4 http
Все. Наш балансировщик готов к работе. Трафик поступающий на 80 порт VIP по протоколу http будет перенаправляться на реальные сервера.
Далее нужно осуществить тонкие настройки коммутатора. Определить метод используемый для балансировки, выбрать параметры Helth Check для отслеживания состояния серверов, задать параметры защиты от DDos атак, задать группы серверов для настройки отказоустойчивой конфигурации и т.д. Подробные инструкции по настройке ADX на английском языке можно найти на сайте Brocade.


Предположим что компания разработала сайт www.alterego.com. В DNS адрес сайта привязан к IP адресу 207.95.55.1 который настроен как VIP на коммутаторе ServerIron. Каждый запрос на этот адрес обрабатывается одним из реальных серверов компании, установленных во внутренней сети, и имеющем адрес из диапазона публичных или частных адресов.
SLB работает по методу трансляции адресов (Network Adress Translation). Каждый пакет поступающий на VIP транслируется в пакет имеющий в качестве назначения реальный IP-адрес одного из серверов, который назначается в соответствии с выбранным механизмом балансировки.

Коммутаторы Brocade ServerIron ADX на уровне L2-L3 представляют собой производительный коммутатор третьего уровня и поддерживают весь необходимый функционал, настройка которого выходит за рамки данной статьи. Мы рассмотрим пошаговую конфигурацию коммутатора непосредственно для балансировки нагрузки.
На первом этапе необходимо определить реальные сервера которые будут принимать нагрузку. Затем указать виртуальный IP, и привязать VIP к указанным ранее физическим серверам.

Зададим реальные сервера указанные выше для обработки веб-трафика:
ServerIronADX(config) # server real Web1 207.95.55.21
ServerIronADX(config-rs-Web1) # port http
ServerIronADX(config-rs-Web1) # server real Web2 207.95.55.22
ServerIronADX(config-rs-Web2) # port http
ServerIronADX(config-rs-Web2) # server real Web3 207.95.55.23
ServerIronADX(config-rs-Web3) # port http
ServerIronADX(config-rs-Web3) # server real Web4 207.95.55.24
ServerIronADX(config-rs-Web4) # port http

Далее определяем виртуальный сервер (VIP)
ServerIronADX(config-rs-Web4) # server virtual-name-or-ip www.alterego.com  207.95.55.1
ServerIronADX(config-vs-www.alterego.com) # port http

И, наконец, привязываем реальные сервера к виртуальному серверу
ServerIronADX(config-vs-www.alterego.com) # bind http Web1 http
ServerIronADX(config-vs-www.alterego.com) # bind http Web2 http
ServerIronADX(config-vs-www.alterego.com) # bind http Web3 http
ServerIronADX(config-vs-www.alterego.com) # bind http Web4 http

Все. Наш балансировщик готов к работе. Трафик поступающий на 80 порт VIP по протоколу http будет перенаправляться на реальные сервера.

Далее нужно осуществить тонкие настройки коммутатора. Определить метод используемый для балансировки, выбрать параметры Helth Check для отслеживания состояния серверов, задать параметры защиты от DDos атак, задать группы серверов для настройки отказоустойчивой конфигурации и т.д. Подробные инструкции по настройке ADX на английском языке можно найти на сайте Brocade.

среда, 1 сентября 2010 г.

Feature Navigator. Новый инструмент на сайте Brocade

Brocade открыл на своем сайте неограниченный доступ к инструменту Feature Navigator который позволяет получить информация по поддержке того или иного функционала в различных моделях оборудования а так же определить релиз программного обеспечения в котором эти функции реализованы.

Предлагается несколько вариантов навигации и фильтрации результатов поиска:
  • по типу софта
  • по продуктам
  • по конкретным релизам
  • по функционалу
  • и наконец по названиям конкретных функций
Наличие такого инструмента поможет инженерам и пре-сейлам работающим с оборудованием Brocade быстро ориентироваться в  многообразии функционала и подбирать оптимальные решения для своих заказчиков.

Brocade Feature Navigator

воскресенье, 22 августа 2010 г.

100 гигабитный Ethernet

Интернет полон сообщений о том что Brocade готовит к выпуску 100-гигабитные Ethernet модули для маршрутизаторов NetIron MLX и тем самым выйграет гонку вендоров за взятие очередного рубежа пропускной способности сетей. По словам Дейва  Стивенса, Chief Technology Officer (CTO) Brocade подробности о новых модулях последую в сентябре. Официальный сайт хранит молчание, хотя в разделе технологии появилась вкладка посвященная 40 и 100 гигабитному Ethernet. Страсти накаляются и похоже ждать остается не долго.

Вы спросите - "А кому это нужно?". На самом деле Интернет уже давно испытывает проблемы связанные с недостатком пропускной способности существующих каналов связи. Так точки обмена трафиком (IXP) влотную приблизились к терабитным скоростям и только технология объединения линков Brocade позволяющая аггрегировать до 32-х портов 10GbE в один логический канал с пропускной способностью 320Gbps позволяет IXP как то справляться с все возрастающей нагрузкой. Ниже схематично изображены места сети которые ждут новых скоростей. Это сети сервис-провайдеров, городские сети, уровни аггрегации дата-центров и операторов, ядра сетей крупных предприятий.

Brocade анонсировал модули на 100 гигабит которые можно будет установить в шасси NetIron MLX и это с потрясающей плотностью портов 32 100GbE модуля на шасси MLX-32. Учитывая что архитектура MLX уже сегодня готова переваривать и гораздо большие объемы трафика, нет ничего удивительного в том что для поддержки нового стандарта не потребовалось существенных переделок существующего железа.

Для меня было интересно посмотреть что включает в себя принятый в июне стандарт IEEE 802.3ba на 40/100 GbE. Вот табличка с характиристиками и дальностью линков для разных сред передачи:
Как можно видеть в стандарте используется технология MPO (Multi-fiber Push On) для мультимода, то есть агрегация нескольких волокон и сигнализация 4 х 25 Gbps для одномода.
Ну что же не совсем честные 100 гигабит получаются, но будем пользоваться тем что есть.
Учитывая продолжающиеся исследования в области терабитного Ethernet, 100 гигабит это уже почти что пройденный этап.
Brocade уже анонсировал 100-гигабитные модули, которые можно будет установить как в новое шасси NetIron MLXe так и в выпускающиеся долгие годы NetIron MLX.


Зеркало блога на Ya.ru

Друзья, теперь вы можете читать и комментировать мои записи и на Я.ру — brocade_guru!

пятница, 13 августа 2010 г.

Конвергированный Ethernet – настоящее и будущее дата-центров

Сети хранения данных (SAN) традиционно строились на базе протокола FC (Fiber Channel), который предоставляет быстрый и надежный транспорт для передачи данных между массивом и подключаемыми серверами. Подключение к системе хранения по FC обеспечивает серверам высочайшую надежность и производительность работы логической дисковой подсистемы, практически не достижимую при использовании локальных жестких дисков. Надежность и предсказуемость сетей хранения базируются на жесткой стандартизации и тщательной технической проработке решений производителями оборудования.

Желание получить дополнительные степени свободы, гибкость и простоту внедрения и использования систем хранения всегда толкало разработчиков в сторону использования возможностей Ethernet, так появились iSCSI и FCoE. Однако сразу было понятно, что то, что как то работает в тестовых лабораториях и непритязательных сетях SMB построенных на дешевых блокируемых коммутаторах Ethernet, неприемлемо для использования в серьезных решениях, сетях передачи данных крупных предприятий или центров обработки данных (ЦОД).

Производители оборудование Ethernet достаточно вольно относятся к соблюдению стандартов, обеспечению качества обслуживания и надежности устройств. По большому счету такие задачи раньше и не ставились, среди пользователей, и даже среди некоторых сетевых инженеров бытовала уверенность, что все проблемы можно решить увеличением пропускной способности, и что всех нас спасет переход на 100Мегабит, гигабит, 10 и 100 гигабит. Впереди маячит уже терабит, но сейчас стало понятно, что Ethernet в том виде, в каком он зародился в семидесятых годах прошлого века, не удовлетворяет современным требованиям сети передачи данных. Результатом стало появление различных расширений Ethernet и работающих поверх него протоколов позволяющих разрешить те или иные проблемы сети.

Подход, описывающий конвергенцию и передачу по Ethernet других протоколов, прежде всего FCoE, названый Converged Enhanced Ethernet (CEE) разрабатывается сообществом производителей Broadcom, Brocade, Cisco, Emulex, HP, IBM, Juniper, QLogic и другими. Главная задача CEE обеспечить передачу трафика FC поверх Ethernet с сохранением предсказуемости и производительности, присущих Fiber Channel. Другой термин который по сути аналогичен CEE - Data Center Bridging (DCB) используется институтом IEEE для обозначения группы расширений Ethernet для центров обработки данных.


Совмещение трафика Storage Area Network (SAN) и Local Area network (LAN) в одном сегменте сети позволяет получить множество преимуществ при построении дата-центров, включая снижение начальных затрат на оборудование (CapEx) и операционных издержек на поддержку, обслуживание, электропитание и кондиционирование оборудования (OpEx). CEE и FCoE объединяют традиционные порты хранения и порты передачи данных в одном 10-гигабитном порту, существенно уменьшая суммарное число портов и адаптеров установленных в серверах. Другое достоинство CEE – отсутствие необходимости перестраивать или менять существующую FC-структуру при добавлении FCoE устройств.
Оставляя описание протоколов специализированным документам попробуем посмотреть из каких элементов строиться CEE-сеть , каковы принципы дизайна для построения сети хранения на FCoE и какие. На первом этапе CEE был ограничен одним «хопом» то есть сервер с CEE-адаптером подключался непосредственно в Ethernet-порт конвергентного коммутатора, который в свою очередь уже по FC включался в сеть хранения SAN. У Brocade это коммутатор BR-8000 с 24 портами 10GbE CEE и 8 портами FC.


Сервер с установленным CNA-адаптером воспринимает его как два различных логических устройства Host-bus Adapter (HBA) и Network Interface Card (NIC). Вся работа связанная с обработкой, приоритезацией и разделением трафика SAN и LAN ложится на коммутатор и CAN-адаптеры. Достоинства решения очевидны, сеть на стороне серверов становится существенно проще, количество кабелей и адаптеров снижается в два раза.
Ограничение на один хоп (сервера должны быть подключены непосредственно в CEE-коммутатор), которое пока присутствует в такой схеме не позволяет масштабировать решение, передавая FCoE трафик через несколько коммутаторов LAN. Проблема вызвана использованием в Ethernet-коммутаторах протокола Spanning Three (STP) который может вызывать временные потери трафика в моменты реконфигурации сети. Для трафика IP пропадание связи на несколько секунд стандартная ситуация, которую отрабатывают протоколы верхнего уровня (TCP/IP) используя механизм перезапросов и восстановления сессий. Однако для работающих в синхронном режиме протоколов SAN такие прерывания абсолютно не приемлемы.

Протокол, который призван заменить STP в сети CEE, и, вдобавок, обеспечивает одновременное функционирование нескольких альтернативных маршрутов передачи трафика, называется TRILL (Transparent Interconnection of Lots of Links). Это протокол второго уровня (L2) стандартизированный IETF, который подобно OSPF использует алгоритм Shortest path и функционирует аналогично протоколам маршрутизации третьего уровня (L3). TRILL и CEE являются элементами концепции построения и развития конвергентных сетей Brocade One которая превращает всю сеть передачи данных в виртуальный коммутатор – Virtual Cluster Switch (VCS) с единой Ethernet фабрикой работающей без потерь и задержек и объединяющей в себе трафик SAN и LAN.


С интеграцией поддержки VCS, CEE и TRILL в существующие SAN и IP устройства Brocade, такие как DCX и NetIron MLX у заказчиков появляется возможность реализации более простой, надежной и масштабируемой логической архитектуры центра обработки данных с минимальными изменениями существующей физической сетевой инфраструктуры.

воскресенье, 8 августа 2010 г.

Архитектура Brocade NetIron MLX

После публикации ряда маркетинговых статей, предлагаю читателю копнуть чуть глубже и выяснить как достигается высочайшая на сегодняшний день производительность и не блокируемая коммутация на всех портах шассийных устройств Brocade.

Собственно никакого секрета здесь нет. Архитектура устройств базируется на старой доброй математике Чарльза Клосса, которая издавна использовалась в телефонных свичах где блокировки мягко говоря не приветствуются, а потом была взята на вооружение для построения всех старших линеек Brocade, включая BigIron, NetIron MLX и XMR.

Итак. NetIron MLX. Устройство выпущенное в 2006 году, проверенное временем и множеством инсталляций, с производительностью фабрики 7,68Tbps, маршрутизацией 7,6 миллиарда пакетов в секунду, и поддержкой на сегодняшний день 256 не блокируемых портов 10 GbE. 
Новое шасси  NetIron MLXe которое стало доступно к заказу в сентябре 2010 года поддерживает уже до 15,36 терабит/сек или до 5 миллиардов пакетов в секунду.  В шасси MLXe можно установить 32 100 гигабитных порта с возможностью объединения в транк до 16 портов с общей пропускной способностью 1.6 терабита. Либо 256 10-гигабитных портов с аггрегацией в транк до 64 портов с суммарной пропускной способностью 640 гигабит.

Архитектура устройств подробно описана в соответствующем документе на сайте вендора. Мы же посмотрим схему и остановимся на самых интересных фактах:


  1. Используемые модули свич-фабрики и идеология построения устройства едины для всех устройств линейки MLX/MLXe от 4-х слотового шасси до 32-х слотового.
  2. Блокировки отсутствуют как на уровне линейных модулей так и в свич-фабрике при любых типах трафика и размерах пакетов
  3. Свичфабрика задействована постоянно и целиком вплоть до последнего модуля, обеспечивая максимальную производительность с резервированием N+1
  4. Control Plane отделен от Data Plane. Решение об отправке пакета принимается локально на процессоре линейной карты, обслуживающем конкретный порт.
На схеме изображены главные элементы линейной карты и фабрики коммутации.
  • NP - Network Processor
  • TM - Traffic Manager
  • FE - Fabric Element
 Итак NP- сетевой процессор отвечающий за обработку трафика на порту и имеющий производительность 20/40 Gbps отправляет входящий пакет на трафик менеджер (TM) который соединен одновременно со всеми фабрик-элементами всех установленных свич-фабрик. TM получая пакет от сетевого процессора формирует из него ячейки одинакового размера и отправляет их разом на все элементы свич-фабрики (FE). Пакет заново собирается на исходящем TM и отправляется в исходящий порт обслуживающим его процессором.

Таким образом  достигается заявленная пропускная способность устройства без блокировок и задержек. Но это хорошо для L2, скажете вы, а что на третьем уровне? Как достигается сумасшедшая цифра в миллиарды пакетов в секунду? И тут все достаточно просто. Весть основной функционал реализован в железе, на ASIC-ах локальных карт. Как уже упоминалось, каждая локальная карта MLX/MLXe/XMR имеет свою таблицу маршрутизации, локальные сетевые процессоры которые обращаются к таблице маршрутизации (Brocade Direct Routing) находящейся в памяти каждой локальной карты.

Итак на сегодня мы имеем систему MLX которая без снижения производительности держит в железе:
  • 4000 VPLS Instances
  • 8000 VLL
  • 4094 VLAN и 1 миллион MAC-адресов
  • 512 000 Ipv4 маршршутов
  • 112 000 Ipv6 маршрутов
  • 2 миллиона маршрутов BGP
  • 400 BGP/MPLS VPN
NetIron MLX - универсальное шасси которое хорошо зарекомендовало себя в транспортных сетях операторов где требуется поддержка MPLS, MPLS-TE, VPLS, Metro Ethernet и в сетях дата центров, где требуется высокопроизводительная не блокируемая коммутация и поддержка протокола BGP.

вторник, 3 августа 2010 г.

Железная балансировка Microsoft® Exchange Server 2010


Современные тяжелые приложения часто используют многоуровневую распределенную архитектуру, в которой разнесены сервера баз данных, сервера приложений и Front-End сервера принимающие запросы пользователей.
Так Exchange 2010 включает следующие роли сервера:
 
·  Сервер почтовых ящиков   На этом сервере размещаются почтовые ящики и общие папки.
·  Сервер клиентского доступа   На этом сервере размещаются протоколы клиентов, например POP3, IMAP4, HTTPS, мобильный Outlook, служба доступности и служба автоматического обнаружения.
·  Сервер единой системы обмена сообщениями   Этот сервер соединяет внутреннюю УАТС и Exchange 2010.
·  Транспортный сервер-концентратор   Это сервер маршрутизации почты, осуществляющий маршрутизацию внутри организации Exchange.
·  Пограничный транспортный сервер   Это сервер маршрутизации почты, который обычно размещается на границе топологии и осуществляет маршрутизацию входящей и исходящей почты в организации Exchange.

Стандартный дизайн предполагает наличие фермы серверов клиентского доступа  с балансировкой нагрузки для обеспечения высокой доступности и производительности решения.
Для Exchange 2010 возможно использование софтовой балансировки Windows Network Load Balancing (WNLB) но с учетом следующих ограничений:
·  WNLB не может использоваться одновременно с database availability groups (DAGs) – функционалом позволяющим синхронизовать почтовые ящики между несколькими сайтами.
·  Из-за проблем с производительностью не рекомендуется запускать более 8 серверов клиентского доступа с балансировкой WNLB.
·  WNLB не может определить отказ сервисов на серверах и работает только на уровне L3, то есть определяет доступность серверов по IP. То есть если сервер отзывается по IP, но серверные приложения не работают, требуется выводить неисправный сервер клиентского доступа из пула балансировки вручную.
·  Ошибки в конфигурации WNLB могут привести к деградации пропускной способности сети.
·  Поскольку WNLB осуществляет балансировку только по адресу клиента, при ограниченном пуле клиентских адресов, например в случае использования NAT, распределение нагрузки между серверами клиентского доступа работает не эффективно.

Все эти проблемы снимает применение аппаратных балансировщиков  Brocade ServerIron ADX, которые балансируют нагрузку на уровнях L4-L7, с максимальной пропускной способностью на одно шасси до 70Gbps, позволяют выбирать из множества механизмов балансировки и осуществляют постоянный контроль за состоянием серверов начиная от IP-доступности и загруженности по SNMP и заканчивая расширенным Health check вплоть до проверки заданного отклика от конкретного приложения.

Совместное решение Brocade и Microsoft прошло лабораторное тестирование в Microsoft Enterprise Engineering Center (EEC) в штаб квартире Microsoft в Редмонде.
Схема тестирования и типового применения ServerIron ADX с Exchange 2010 приведена на следующей картинке:
 
В такой схеме ServerIron ADX обеспечивает:
  • Сохранение сессий. Клиент подключившийся к одному из серверов продолжает работать только с ним в пределах сессии.
  • Правила переключения контента (Content Switching Rules). За счет поддержки коммутации на уровне L7, ADX может принимать решения о балансировке трафика на основе данных об URL, cookes, или ID SSL-сессии
  • SSL-proxy – поддержание защищенного туннеля между клиентом и сервером с возможностью балансировки на уровне приложений
  • Мониторинг северов для контроля их доступности и готовности к обработке запросов.

суббота, 31 июля 2010 г.

Оборудование Brocade в одной из крупнейших точек обмена трафиком Интернет

Точки обмена трафиком Интернет (Internet exchange point или IX/IXP) используются интернет провайдерами для передачи друг другу локального трафика напрямую, в обход каналов транзитного провайдера верхнего уровня. Такая схема позволяет снизить расходы провайдеров, так как стоимость услуг IX, как правило, фиксирована и не зависит от объемов передаваемого трафика, в то время как транзитный трафик оплачивается побитово. Кроме того наличие альтернативных маршрутов увеличивает отказоустойчивость и общую эффективность сети провайдера.

Главная задача точки обмена трафиком – подключение сетей провайдеров напрямую, без участия других операторов. Часто несколько сетей находящихся в одном городе, но подключенных к разным операторам вынуждены передавать трафик друг другу окольными путями через сети физически находящиеся в других городах или даже странах, в том случае если они подключены к Интернет через разных операторов верхнего эшелона. Это происходит в силу того что сеть Интернет имеет иерархическую структуру. Существует несколько крупных интернациональных операторов, которые предоставляют свои услуги операторам национального масштаба, те, в свою очередь, подключают городских провайдеров, далее идут боле мелкие, локальные провайдеры, домовые сети и так далее.

Подключение провайдеров любого уровня через IX позволяет оптимизировать затраты на передачу данных, уменьшить задержки и эффективно распределить нагрузку по каналам передачи данных.

Наиболее крупные IX по объему передаваемого трафика представлены в таблице 1.
На первых трех позициях точки обмена трафиком в Амстердаме, Франкфурте и Лондоне. Интересно, что все они используют оборудование Brocade в ядре сети и на уровне распределения.


Таблица 1. Крупнейшие точки обмена трафиком. Данные на начало 2010 года. Источник и текущие данные

Акроним 
Название
Город
Дата основания
Кол-во участников
Пиковая загрузка (Gbit/s)
Средняя загрузка (Gbit/s)
1
AMS-IX
Amsterdam Internet Exchange
Амстердам
1997
341
850
520
2
DE-CIX
Deutscher Commercial Internet Exchange
Франкфурт
1995
330
800
460
3
LINX
London Internet Exchange
Лондон
1994
342
527
303
4
Equinix
Equinix Exchange
Лондон, Париж, Амстердам, и другие
1998
386
460
302
5
JPNAP
Japan Network Access Point
Токио, Осака
2001
44
248
170
6
Netnod
Netnod Internet Exchange in Sweden
Стокгольм
1997
50
176
97
7
MSK-IX
Moscow Internet Exchange
Москва
1995
283
153
100
8
JPIX
Japan Internet Exchange
Tокио
1997
113
132
88
9
BIX
Budapest Internet Exchange
Будапешт
1996
46
115
63
10
ESPANIX
Spain Internet Exchange
Мадрид
1997
45
105
74


AMS-IX в Амстердаме образована в 1997 году. Первоначально как ассоциация 20 европейских провайдеров. На первом этапе средний уровень трафика между участниками обмена составлял порядка 80 мегабит в секунду. В 2000 году ассоциация была преобразована в компанию AMIX-IX, подключения участникам предоставлялись на скорости 100Mbps, были первые гигабитные подключения. В 2003 количество подключенных провайдерских сетей достигло 178, а средний объем трафика возрос до 22 Gbps. начали предоставляться гигабитные сервисы и подключения 


Сначала сеть была построена на паре коммутаторов Cisco Catalyst 5000. В 2000 году один из них был заменен на Foundry BI 8000. В 2003 в качестве корневых коммутаторов были установлены BI 15000, благодаря которым в 2004 в ядре сети были установлены первые 10Gb модули для аггрегированного трафика. В 2005 объем трафика достиг 120Gbps а число участников 234.
В 2007 оба корневых коммутатора были заменены на маршрутизаторы Brocade NetIron MLX-32 (бывший Foundry) а общая пропускная способность была доведена до 1 террабита в секунду.
В 2008 число подключений выросло до 300 а объем трафика до 500Gbps.
В 2009 для подключения участников была реализована технология MPLS/VPLS.
Топология сети на сегодняшний день изображена на рисунке 1.



В ядре сети находятся 4 маршрутизатора Brocade MLX-32. На границе сети и для подключения провайдеров используются различные модели от MLX-32 до MLX-8.


Label Switch Paths and Load distribution 1

Топология MPLS/VPLS базируется на 4-х корневых P-маршрутизаторах, таким образом, от каждого маршрутизатора PE имеется 4 пути следования трафика с балансировкой нагрузки между ними, что позволяет обеспечить высокую надежность и непревзойденную пропускную способность всей системы.
Гибкость маршрутизаторов серии NetIron MLX помогает получать максимальную отдачу от инвестиций в сетевую инфраструктуру. При плотности до 256 неблокируемых портов 10 GbE в одном шасси NetIron, сервис провайдеры могут объединять существующие порты 10 GbE в общую магистраль без необходимости приобретения дополнительного оборудования или инвестирования в дорогостоящие оптические компоненты инфраструктуры. Это способствует повышению экономической эффективности за счет возможности более эффективного масштабирования.
«Компания Brocade стала единственным поставщиком оборудования, который смог предоставить нам сетевую инфраструктуру, способную обеспечить комбинацию из трех основных факторов: производительности, высокой масштабируемости и надежности. Если какое-либо из этих требований не соблюдается, это немедленно окажет негативное влияние на наш бизнес и в конечном итоге на доступ пользователей в Интернет» — говорит Хенк Штеенман (Henk Steenman), технический директор Amsterdam Internet Exchange (AMS-IX).