Сети которые построены на сегодняшний день являются всего-лишь предвесниками к гипер-расширяемым облачным сетям завтрашнего дня. Сеть будущего должна уметь расширяться практически без ограничений до десятков-сотен тысяч коммутаторов и миллионов портов. Стандарты для такой сети пока не разработаны, но первые шаги в эту сторону уже сделаны.
Сегодня мы видим что 10-гигабитные линки соединяют можные источники трафика через высокопроизводительную Ethernet-фабрику. Линки между свичами, транки двигаются в сторону 40-гигабит. В ядре сети уже начинают использовать каналы 100 гигабит. Juniper, Force10, Extreme, Brocade, Cisco, Huawei - все уже анонсировали или начали выпуск 100-гигабитных устройств. Однако и 40 и 100 гигабит в соответствии со стандартом IEEE 802.3ba используют несколько потоков 10 или 25 Gbps. Рост скоростей в Ethernet не увеличивается по закону Мура, в первую очередь по тому что скорость передачи в оптическом кабеле это не цифровая, а аналоговая проблема. Простого способа передавать 1000 гигабит по оптическому кабелю пока не существует, хотя необходимость в таких скоростях уже осознается крупными операторами.
Если отойти от кабельных проблем, то другая сложность в построении масштабироуемого Ethernet - тяжелое наследие прошлого. Если вспомнить про CSMA/CD то становится понятно что изначально Ethernet строился как не особенно надежная и малопредсказуемая с точки зрения задержек сеть, в которой полоса пропускания выделяется конечным устройствам на основе псевдослучайного алгоритма.К счастью попытки обеспечить передачу FC поверх Ethernet привели к разработке новго стандарта Data Center Ethernet (DCE) или Data Center Bridging (DCB) который исключает потерю пакетов и позволяет вычислять задержки пакетов на пути следования трафика.
Попытки стандартизаци упирались в протокол STP (Spanning Tree Protocol) для предотвращения возникновения петель в сетях имеющих резервные линки между коммутаторами. Поэтому на смену STP был предложен новый протокол TRILL (Transparent Interconnect of Lots of Links) который помимо решения проблемы с задержками позволяет передавать трафик по нескольким параллельным линкам одновременно, что позволяет увеличить пропускную способность сети.
Brocade называет преимущества TRILL:
Главные достоинства TRILL - увеличение пропускной способности сети по сравнению с аналогичной топологией при использовании STP и использование оптимальных, кратчайших путей для передачи трафика. Кроме того TRILL стабильнее чем STP и имеет более короткое время сходимости.
Другая проблема сетей - задержки. Чем дольше устройство ждет пока данные путешествуют через сеть, тем медленнее работают приложения.
Сегодня коммутатор для дата-центров Brocade VDX обеспечивает задержку 600нс внтури группы портов (один и тот же ASIC) - это невероятно быстро. Локальная коммутация через несколько ASIC-ов занимает у VDX 1,8мкс.
Конкуренты, такие как Arista так же работают над снижением задержек. CEO компании Arista гордится тем что их коммутаторы с задержками 3.5мкс быстрее чем 5-мкс Nexus 5000, 15мкс Nexus7000 или 20+мкс Catalist 6500 (Cisco).
Масштабируемая сеть Ethernet будет включать множество коммутаторов. каждый из которых будет вносить свой вклад в нарастание задержки, поэтому для гигантской сети необходимо быстрое оптимизированное по задержкам оборудование.
Итак пока сеть завтрашнего дня еще не построена, но предпосылки для этого уже есть. Масштабирвемые сети дата-центров могут стать основой для новой производительной и экстремально быстрой глобальной сети.
Сегодня мы видим что 10-гигабитные линки соединяют можные источники трафика через высокопроизводительную Ethernet-фабрику. Линки между свичами, транки двигаются в сторону 40-гигабит. В ядре сети уже начинают использовать каналы 100 гигабит. Juniper, Force10, Extreme, Brocade, Cisco, Huawei - все уже анонсировали или начали выпуск 100-гигабитных устройств. Однако и 40 и 100 гигабит в соответствии со стандартом IEEE 802.3ba используют несколько потоков 10 или 25 Gbps. Рост скоростей в Ethernet не увеличивается по закону Мура, в первую очередь по тому что скорость передачи в оптическом кабеле это не цифровая, а аналоговая проблема. Простого способа передавать 1000 гигабит по оптическому кабелю пока не существует, хотя необходимость в таких скоростях уже осознается крупными операторами.
Если отойти от кабельных проблем, то другая сложность в построении масштабироуемого Ethernet - тяжелое наследие прошлого. Если вспомнить про CSMA/CD то становится понятно что изначально Ethernet строился как не особенно надежная и малопредсказуемая с точки зрения задержек сеть, в которой полоса пропускания выделяется конечным устройствам на основе псевдослучайного алгоритма.К счастью попытки обеспечить передачу FC поверх Ethernet привели к разработке новго стандарта Data Center Ethernet (DCE) или Data Center Bridging (DCB) который исключает потерю пакетов и позволяет вычислять задержки пакетов на пути следования трафика.
Попытки стандартизаци упирались в протокол STP (Spanning Tree Protocol) для предотвращения возникновения петель в сетях имеющих резервные линки между коммутаторами. Поэтому на смену STP был предложен новый протокол TRILL (Transparent Interconnect of Lots of Links) который помимо решения проблемы с задержками позволяет передавать трафик по нескольким параллельным линкам одновременно, что позволяет увеличить пропускную способность сети.
Brocade называет преимущества TRILL:
- Использование кратчайшего пути на основе протокола L2-маршрутизации вместо STP
- Работает на 2 уровне, поэтому совместим с такими протоколами как FCoE
- Поддерживает мультихоп
- Работает с любой топологии сети и использует все доступные резервные линки, которые в стандартном Ethernet должны быть заблокированы
- Может использоваться одновременно с STP
Главные достоинства TRILL - увеличение пропускной способности сети по сравнению с аналогичной топологией при использовании STP и использование оптимальных, кратчайших путей для передачи трафика. Кроме того TRILL стабильнее чем STP и имеет более короткое время сходимости.
Другая проблема сетей - задержки. Чем дольше устройство ждет пока данные путешествуют через сеть, тем медленнее работают приложения.
Сегодня коммутатор для дата-центров Brocade VDX обеспечивает задержку 600нс внтури группы портов (один и тот же ASIC) - это невероятно быстро. Локальная коммутация через несколько ASIC-ов занимает у VDX 1,8мкс.
Конкуренты, такие как Arista так же работают над снижением задержек. CEO компании Arista гордится тем что их коммутаторы с задержками 3.5мкс быстрее чем 5-мкс Nexus 5000, 15мкс Nexus7000 или 20+мкс Catalist 6500 (Cisco).
Масштабируемая сеть Ethernet будет включать множество коммутаторов. каждый из которых будет вносить свой вклад в нарастание задержки, поэтому для гигантской сети необходимо быстрое оптимизированное по задержкам оборудование.
Итак пока сеть завтрашнего дня еще не построена, но предпосылки для этого уже есть. Масштабирвемые сети дата-центров могут стать основой для новой производительной и экстремально быстрой глобальной сети.
Комментариев нет:
Отправить комментарий