вторник, 21 февраля 2012 г.

Data Center Fabric Checklist: 8 индикаторов для выбора Ethernet фабрики


Термин "фабрика" одно из самых популярных в последнее время маркетинговых слов в области сетевой индустрии. Новая концепция построения сети стратегически важна для организаций которым требуется максимальная отдача от виртуализации в их дата-центрах. Множество вендоров, таких как Brocade, Cisco, Juniper, Extreme, Alcatel-Lucent, Avaya, Extreme и Enterasys, предлагают видение ЦОД-фабрики базирующейся на сети передачи данных, однако некоторые, например Xsigo говорят о фабрике базирующейся на серверах. Так или иначе, очевидно что архитектура дата-центров меняется. Вопрос, в каких случаях компания должна рассматривать внедрение фабрики в своем ЦОД-е? Вот восемь факторов которые стоит принимать во внимание:
  1. Проблемы производительности в существующей сети. Если сетевые или серверные линки перегружены и являются узким местом сети, нужно думать об апгрейде и переход к фабрике позволит получить запас прочности на годы вперед.
  2. Мобильность виртуальных машин (VM). Виртуализация - один из драйверов подтолкнувших к созданию фабрики. Если виртуальные машины должны мигрировать в еределах стойки, можно оставить старую архитектуру. Если требуется миграция между стойками - фабрика оптимальный механизм для обеспечения прозрачной миграции за счет плоской структуры с множеством горизонтальных связей.
  3. Ограничения инфраструктуры. Есть или возможне недостаток мощностей, охлаждения, рэкового пространства. - Фабрика позволит увеличить плотность подключения серверов и виртуальных машин, уменьшить общее число серверов за счет повышения эффективности их использования. Конвергенция снизит энергопотребление и общее число устройств необходимых для построения сети
  4. Конвергенция. Объединение SAN и LAN сетей в единую инфраструктуру требует внедрения фабрики, так как традиционная архитектура не приспособлена для передачи FCoE трафика.
  5. Модернизация сети стоит в ближайших планах. Есть необходимость в переходе на 10, 40 а может и 100 гигабитные линки и нужно потратить деньги с умом. - Переход на фабрику позволит получить максимальную отдачу от вложений и снизит стоимость внедрения и общую стоимость владения инфраструктурой.
  6. Консолидация или строительство нового дата-центра. Любой новый ЦОД должен использовать все преимущества новой архитектуры на базе фабрики. Внедрение старых сетевых технологий ограничивает срок жизни и эффективность центра обработки данных в современных условиях. В новый ЦОД ставятся новые сервера, новые системы хранения и сеть тоже должна быть новой.
  7. Более 50% ваших приложений уже виртуализованы. Надежность сети становится крайне важным фактором для обеспечения доступности сервисов и ресурсов. Фабрика позволит обеспечить большую надежность и производительность по сравнению с традиционной архитектурой.
  8. Есть проблемы с содержанием и сопровождением существующей сети. Устаревшая архитектура сложна и дорога в обслуживании. - Фабрика проще в использовании и это краеугольный камень современного дизайна. Если содержание  сети становится все более обременительным, возможно пришло время переключаться на фабрику.
Фабрика это решение всех перечисленных выше проблем. Если вы столкнулись с одной из них, подумайте о смене сетевой архитектуры в сторону Ethernet-фабрики. Погрузитесь в детали и почувствуйте разницу!


По материалам статьи Zeus Kerravala

пятница, 10 февраля 2012 г.

Ethernet для облачных сетей будущего

Сети которые построены на сегодняшний день являются всего-лишь предвесниками к гипер-расширяемым облачным сетям завтрашнего дня. Сеть будущего должна уметь расширяться практически без ограничений до десятков-сотен тысяч коммутаторов и миллионов портов. Стандарты для такой сети пока не разработаны, но первые шаги в эту сторону уже сделаны.

Сегодня мы видим что 10-гигабитные линки соединяют можные источники трафика через высокопроизводительную Ethernet-фабрику. Линки между свичами, транки двигаются в сторону 40-гигабит. В ядре сети уже начинают использовать каналы 100 гигабит. Juniper, Force10, Extreme, Brocade, Cisco, Huawei - все уже анонсировали или начали выпуск 100-гигабитных устройств. Однако и 40 и 100 гигабит в соответствии со стандартом  IEEE 802.3ba используют несколько потоков 10 или 25 Gbps. Рост скоростей в Ethernet не увеличивается по закону Мура, в первую очередь по тому что скорость передачи в оптическом кабеле это не цифровая, а аналоговая проблема. Простого способа передавать 1000 гигабит по оптическому кабелю пока не существует, хотя необходимость в таких скоростях уже осознается крупными операторами.

Если отойти от кабельных проблем, то другая сложность в построении масштабироуемого Ethernet - тяжелое наследие прошлого. Если вспомнить про CSMA/CD  то становится понятно что изначально Ethernet строился как не особенно надежная и малопредсказуемая с точки зрения задержек сеть, в которой полоса пропускания выделяется конечным устройствам на основе псевдослучайного алгоритма.К счастью попытки обеспечить передачу FC поверх Ethernet привели к разработке новго стандарта Data Center Ethernet (DCE) или Data Center Bridging (DCB) который исключает потерю пакетов и позволяет вычислять задержки пакетов на пути следования трафика.

Попытки стандартизаци упирались в протокол STP (Spanning Tree Protocol) для предотвращения возникновения петель в сетях имеющих резервные линки между коммутаторами. Поэтому на смену STP был предложен новый протокол TRILL (Transparent Interconnect of Lots of Links) который помимо решения проблемы с задержками позволяет передавать трафик по нескольким параллельным линкам одновременно, что позволяет увеличить пропускную способность сети.

Brocade называет преимущества TRILL:
  • Использование кратчайшего пути на основе протокола L2-маршрутизации вместо STP 
  • Работает на 2 уровне, поэтому совместим с такими протоколами как FCoE 
  • Поддерживает мультихоп 
  • Работает с любой топологии сети и использует все доступные резервные линки, которые в стандартном Ethernet должны быть заблокированы
  • Может использоваться одновременно с STP

 Главные достоинства TRILL - увеличение пропускной способности сети по сравнению с аналогичной топологией при использовании STP и использование оптимальных, кратчайших путей для передачи трафика. Кроме того TRILL стабильнее чем STP и имеет более короткое время сходимости.

Другая проблема сетей - задержки. Чем дольше устройство ждет пока данные путешествуют через сеть, тем медленнее работают приложения.
Сегодня коммутатор для дата-центров Brocade VDX обеспечивает задержку 600нс внтури группы портов (один и тот же ASIC) - это невероятно быстро. Локальная коммутация через несколько ASIC-ов занимает у VDX 1,8мкс.
Конкуренты, такие как Arista так же работают над снижением задержек. CEO компании Arista гордится тем что их коммутаторы с задержками 3.5мкс быстрее чем 5-мкс Nexus 5000, 15мкс Nexus7000 или 20+мкс Catalist 6500 (Cisco).

Масштабируемая сеть Ethernet будет включать множество коммутаторов. каждый из которых будет вносить свой вклад в нарастание задержки, поэтому для гигантской сети необходимо быстрое оптимизированное по задержкам оборудование.

Итак пока сеть завтрашнего дня еще не построена, но предпосылки для этого уже есть. Масштабирвемые сети дата-центров могут стать основой для новой производительной и экстремально быстрой глобальной сети.