Узел агрегации что это
Основы компьютерных сетей. Тема №8. Протокол агрегирования каналов: Etherchannel
P.S. Возможно, со временем список дополнится.
Итак, начнем с простого.
Etherchannel — это технология, позволяющая объединять (агрегировать) несколько физических проводов (каналов, портов) в единый логический интерфейс. Как правило, это используется для повышения отказоустойчивости и увеличения пропускной способности канала. Обычно, для соединения критически важных узлов (коммутатор-коммутатор, коммутатор-сервер и др.). Само слово Etherchannel введено компанией Cisco и все, что связано с агрегированием, она включает в него. Другие вендоры агрегирование называют по-разному. Huawei называет это Link Aggregation, D-Link называет LAG и так далее. Но суть от этого не меняется.
Разберем работу агрегирования подробнее.
Есть 2 коммутатора, соединенных между собой одним проводом. К обоим коммутаторам подключаются сети отделов, групп (не важен размер). Главное, что за коммутаторами сидят некоторое количество пользователей. Эти пользователи активно работают и обмениваются данными между собой. Соответственно им ни в коем случае нельзя оставаться без связи. Встает 2 вопроса:
Теперь об их отличии. Первые 2 позволяют динамически согласоваться и в случае отказа какого-то из линков уведомить об этом.
Ручное агрегирование делается на страх и риск администратора. Коммутаторы не будут ничего согласовывать и будут полагаться на то, что администратор все предусмотрел. Несмотря на это, многие вендоры рекомендуют использовать именно ручное агрегирование, так как в любом случае для правильной работы должны быть соблюдены правила, описанные выше, а коммутаторам не придется генерировать служебные сообщения для согласования LACP или PAgP.
Начну с протокола LACP. Чтобы он заработал, его нужно перевести в режим active или passive. Отличие режимов в том, что режим active сразу включает протокол LACP, а режим passive включит LACP, если обнаружит LACP-сообщение от соседа. Соответственно, чтобы заработало агрегирование с LACP, нужно чтобы оба были в режиме active, либо один в active, а другой в passive. Составлю табличку.
Теперь перейдем к лабораторке и закрепим в практической части.
Есть 2 коммутатора, соединенные 2 проводами. Как видим, один линк активный (горит зеленым), а второй резервный (горит оранжевым) из-за срабатывания протокола STP. Это хорошо, протокол отрабатывает. Но мы хотим оба линка объединить воедино. Тогда протокол STP будет считать, что это один провод и перестанет блокировать.
Заходим на коммутаторы и агрегируем порты.
На этом настройка на первом коммутаторе закончена. Для достоверности можно набрать команду show etherchannel port-channel:
Видим, что есть такой port-channel и в нем присутствуют оба интерфейса.
Переходим ко второму устройству.
После этого канал согласуется. Посмотреть на это можно командой show etherchannel summary:
Здесь видно группу port-channel, используемый протокол, интерфейсы и их состояние. В данном случае параметр SU говорит о том, что выполнено агрегирование второго уровня и то, что этот интерфейс используется. А параметр P указывает, что интерфейсы в состоянии port-channel.
Все линки зеленые и активные. STP на них не срабатывает.
Сразу предупрежу, что в packet tracer есть глюк. Суть в том, что интерфейсы после настройки могут уйти в stand-alone (параметр I) и никак не захотят из него выходить. На момент написания статьи у меня случился этот глюк и решилось пересозданием лабы.
Теперь немного углубимся в работу LACP. Включаем режим симуляции и выбираем только фильтр LACP, чтобы остальные не отвлекали.
Видим, что SW1 отправляет соседу LACP-сообщение. Смотрим на поле Ethernet. В Source он записывает свой MAC-адрес, а в Destination мультикастовый адрес 0180.C200.0002. Этот адрес слушает протокол LACP. Ну и выше идет «длинная портянка» от LACP. Я не буду останавливаться на каждом поле, а только отмечу те, которые, на мой взгляд, важны. Но перед этим пару слов. Вот это сообщение используется устройствами для многих целей. Это синхронизация, сбор, агрегация, проверка активности и так далее. То есть у него несколько функций. И вот перед тем, как это все начинает работать, они выбирают себе виртуальный MAC-адрес. Обычно это наименьший из имеющихся.
И вот эти адреса они будут записывать в поля LACP.
С ходу это может не сразу лезет в голову. С картинками думаю полегче ляжет. В CPT немного кривовато показан формат LACP, поэтому приведу скрин реального дампа.
Выделенная строчка показывает для какой именно цели было послано данное сообщение. Вот суть его работы. Теперь это единый логический интерфейс port-channel. Можно зайти на него и убедиться:
И все действия, производимые на данном интерфейсе автоматически будут приводить к изменениям на физических портах. Вот пример:
Стоило перевести port-channel в режим trunk и он автоматически потянул за собой физические интерфейсы. Набираем show running-config:
И действительно это так.
Теперь расскажу про такую технологию, которая заслуживает отдельного внимания, как Load-Balance или на русском «балансировка». При создании агрегированного канала надо не забывать, что внутри него физические интерфейсы и пропускают трафик именно они. Бывают случаи, что вроде канал агрегирован, все работает, но наблюдается ситуация, что весь трафик идет по одному интерфейсу, а остальные простаивают. Как это происходит объясню на обычном примере. Посмотрим, как работает Load-Balance в текущей лабораторной работе.
На данный момент он выполняет балансировку исходя из значения MAC-адреса. По умолчанию балансировка так и выполняется. То есть 1-ый MAC-адрес она пропустит через первый линк, 2-ой MAC-адрес через второй линк, 3-ий MAC-адрес снова через первый линк и так будет чередоваться. Но такой подход не всегда верен. Объясняю почему.
Вот есть некая условная сеть. К SW1 подключены 2 компьютера. Далее этот коммутатор соединяется с SW2 агрегированным каналом. А к SW2 поключается маршрутизатор. По умолчанию Load-Balance настроен на src-mac. И вот что будет происходить. Кадры с MAC-адресом 111 будут передаваться по первому линку, а с MAC-адресом 222 по второму линку. Здесь верно. Переходим к SW2. К нему подключен всего один маршрутизатор с MAC-адресом 333. И все кадры от маршрутизатора будут отправляться на SW1 по первому линку. Соответственно второй будет всегда простаивать. Поэтому логичнее здесь настроить балансировку не по Source MAC-адресу, а по Destination MAC-адресу. Тогда, к примеру, все, что отправляется 1-ому компьютеру, будет отправляться по первому линку, а второму по второму линку.
Это очень простой пример, но он отражает суть этой технологии. Меняется он следующим образом:
Здесь думаю понятно. Замечу, что это пример балансировки не только для LACP, но и для остальных методов.
Заканчиваю разговор про LACP. Напоследок скажу только, что данный протокол применяется чаще всего, в силу его открытости и может быть использован на большинстве вендоров.
Тем, кому этого показалось мало, могут добить LACP здесь, здесь и здесь. И вдобавок ссылка на данную лабораторку.
Теперь про коллегу PAgP. Как говорилось выше — это чисто «цисковский» протокол. Его применяют реже (так как сетей, построенных исключительно на оборудовании Cisco меньше, чем гетерогенных). Работает и настраивается он аналогично LACP, но Cisco требует его знать и переходим к рассмотрению.
У PAgP тоже 2 режима:
Теперь переходим к настройке SW2 (не забываем, что на SW1 интерфейсы выключены и следует после к ним вернуться):
Возвращаемся к SW1 и включаем интерфейсы:
Теперь переходим в симуляцию и настраиваемся на фильтр PAgP. Видим, вылетевшее сообщение от SW2. Смотрим.
То есть видим в Source MAC-адрес SW2. В Destination мультикастовый адрес для PAgP. Повыше протоколы LLC и SNAP. Они нас в данном случае не интересуют и переходим к PAgP. В одном из полей он пишет виртуальный MAC-адрес SW1 (выбирается он по тому же принципу, что и в LACP), а ниже записывает свое имя и порт, с которого это сообщение вышло.
В принципе отличий от LACP практически никаких, кроме самой структуры. Кто хочет ознакомиться подробнее, ссылка на лабораторную. А вот так он выглядит реально:
Последнее, что осталось — это ручное агрегирование. У него с агрегированием все просто:
При остальных настройках канал не заработает.
Как говорилось выше, здесь не используется дополнительный протокол согласования, проверки. Поэтому перед агрегированием нужно проверить идентичность настроек интерфейсов. Или сбросить настройки интерфейсов командой:
В созданной лабораторке все изначально по умолчанию. Поэтому я перехожу сразу к настройкам.
И аналогично на SW2:
Настройка закончена. Проверим командой show etherchannel summary:
Порты с нужными параметрами, а в поле протокол «-«. То есть дополнительно ничего не используется.
Как видно все методы настройки агрегирования не вызывают каких-либо сложностей и отличаются только парой команд.
Под завершение статьи приведу небольшой Best Practice по правильному агрегированию. Во всех лабораторках для агрегирования использовались 2 кабеля. На самом деле можно использовать и 3, и 4 (вплоть до 8 интерфейсов в один port-channel). Но лучше использовать 2, 4 или 8 интерфейсов. А все из-за алгоритма хеширования, который придумала Cisco. Алгоритм высчитывает значения хэша от 0 до 7.
4 | 2 | 1 | Десятичное значение |
---|---|---|---|
0 | 0 | 0 | 0 |
0 | 0 | 1 | 1 |
0 | 1 | 1 | 3 |
1 | 0 | 0 | 4 |
0 | 0 | 1 | 1 |
1 | 0 | 1 | 5 |
1 | 1 | 0 | 6 |
1 | 1 | 1 | 7 |
Данная таблица отображает 8 значений в двоичном и десятичном виде.
На основании этой величины выбирается порт Etherchannel и присваивается значение. После этого порт получает некую «маску», которая отображает величины, за которые тот порт отвечает. Вот пример. У нас есть 2 физических интерфейса, которые мы объединяем в один port-channel.
Значения раскидаются следующим образом:
1) 0x0 — fa0/1
2) 0x1 — fa0/2
3) 0x2 — fa0/1
4) 0x3 — fa0/2
5) 0x4 — fa0/1
6) 0x5 — fa0/2
7) 0x6 — fa0/1
8) 0x7 — fa0/2
В результате получим, что половину значений или паттернов возьмет на себя fa0/1, а вторую половину fa0/2. То есть получаем 4:4. В таком случае балансировка будет работать правильно (50/50).
Теперь двинемся дальше и объясню, почему не рекомендуется использовать, к примеру 3 интерфейса. Составляем аналогичное сопоставление:
1) 0x0 — fa0/1
2) 0x1 — fa0/2
3) 0x2 — fa0/3
4) 0x3 — fa0/1
5) 0x4 — fa0/2
6) 0x5 — fa0/3
7) 0x6 — fa0/1
8) 0x7 — fa0/2
Здесь получаем, что fa0/1 возьмет на себя 3 паттерна, fa0/2 тоже 3 паттерна, а fa0/3 2 паттерна. Соответственно нагрузка будет распределена не равномерно. Получим 3:3:2. То есть первые два линка будут всегда загруженнее, чем третий.
Все остальные варианты я считать не буду, так как статья растянется на еще больше символов. Можно только прикинуть, что если у нас 8 значений и 8 линков, то каждый линк возьмет себе по паттерну и получится 1:1:1:1:1:1:1:1. Это говорит о том, что все интерфейсы будут загружены одинаково. Еще есть некоторое утверждение, что агрегировать нужно только четное количество проводов, чтобы добиться правильной балансировки. Но это не совсем верно. Например, если объединить 6 проводов, то балансировка будет не равномерной. Попробуйте посчитать сами. Надеюсь алгоритм понятен.
У Cisco на сайте по этому делу есть хорошая статья с табличкой. Можно почитать по данной ссылке. Если все равно останутся вопросы, пишите!
Раз уж так углубились, то расскажу про по увеличение пропускной способности. Я специально затронул эту тему именно в конце. Бывают случаи, что срочно нужно увеличить пропускную способность канала. Денег на оборудование нет, но зато есть свободные порты, которые можно собрать и пустить в один «толстый» поток. Во многих источниках (книги, форумы, сайты) утверждается, что соединяя восемь 100-мегабитных портов, мы получим поток в 800 Мбит/с или восемь гигабитных портов дадут 8 Гбит/с. Вот кусок текста из «цисковской» статьи.
Теоретически это возможно, но на практике почти недостижимо. Я по крайней мере не встречал. Если есть люди, которые смогли этого добиться, я буду рад услышать. То есть, чтобы это получить, нужно учесть кучу формальностей. И вот те, которые я описывал, только часть. Это не значит, что увеличения вообще не будет. Оно, конечно будет, но не настолько максимально.
На этом статья подошла к концу. В рамках данной статьи мы научились агрегировать каналы вручную, а также, при помощи протоколов LACP и PAgP. Узнали, что такое балансировка, как ею можно управлять и как правильно собирать Etherchannel для получения максимального распределения нагрузки. До встречи в следующей статье!
Устройство сетей операторов связи
В зависимости от оператора сеть может быть организована на основе нескольких технологий. Зачастую используются технологии Ethernet и PON, все зависит от предпочтений провайдера, списка востребованных услуг, плотности абонентов и еще многих факторов. В нашей статье мы будем рассматривать классическую Ethernet сеть, развернутую в рамках города с высокой плотностью абонентов.
Для наглядности рассмотрим схему сети интернет провайдера, основанную на модели OSI, но заметим, что «в жизни» схема сети модифицируется и перерабатывается провайдером в рамках собственных задач и возможностей.
Сеть провайдера состоит из следующих уровней:
Как видно по схеме сеть провайдера весьма большая, и для ее реализации необходима масса разнообразного оборудования, начиная от маршрутизаторов и коммутаторов, заканчивая оптическими патч-кордами для стыковки трансиверов. Именно на примере такой сети можно показать и достаточно легко объяснить существующее множество модификаций трансиверов.
Уровень доступа
Начнем снизу сети – с уровня доступа. Это ближайший к конечным абонентам сегмент операторской сети. В качестве коммутатора доступа, расположенного на чердаке или в подвале многоквартирного дома, зачастую используются бюджетное и неприхотливое оборудование такое как L2-коммутатор, например D-Link XXX или его аналоги от компаний Cisco, Huawei, Eltex и так далее. Все эти модели объединяют схожие характеристики – 24 или 48 10/100Base-T портов для подключения абонентов (в последнее время становится востребована модификация с портами 100/1000Base-T) и двумя или четырьмя 1,25 Гбит/с SFP-портов для подключения к соседним коммутаторам доступа и к уровню агрегации.
Для организации соединений 1,25 Гбит/с зачастую используются оптические модули WDM SFP или одноволоконные трансиверы SFP. Для этого типа подключения выбираются именно одноволоконные модули в связи с удобством их инсталляции и обслуживания. Для образования соединения нужно только одно волокно, в качестве оптического коннектора используются простые и надежные коннекторы типа SC/UPC (Subscriber Connector). Реже используются трансиверы с разъемом LC/UPC (Lucent Connector), меньшая распространённость LC разъемов объясняется их недостаточной надежностью по сравнению с SC.
В связи с небольшой удаленностью коммутаторов доступа друг от друга и от уровня агрегации, используются SFP модули с дальностью передачи 3 км или 20 км. Также некоторыми провайдерами используется модификация WDM SFP трансивера на 10 км, которая представляет собой универсальное решение для организации каналов уровня доступа. Стандартные одноволоконные трансиверы ведут передачу на длинах волн 1310 нм и 1550 нм и работают парно, то есть один трансивер передает на длине волны 1310 нм, принимает на 1550 нм, а второй передает на 1550 нм и принимает на 1310 нм. Но иногда сети операторов связи, построены по принципу PON-сетей в рамках, когда по одному волокну передается интернет трафик и КТВ-сигнал. В таком случае используются нестандартные WDM SFP модули с длинами волн передачи 1310 нм и 1490 нм, это позволяет освободить длину волны 1550 нм, которая необходима для передачи КТВ.
Все вышеперечисленное по большей части относится к подключению физических лиц, юридические лица часто подключаются при помощи WDM медиаконвертера 10/100. Медиаконвертер позволяет организовать на удаленной площадке порт RJ45 с пропускной способностью 100Мб/с. Зачастую их используют для подключения отдельных объектов, на которых не требуется большой пропускной способности. Наиболее востребованы модификации конвертеров со средней дальностью передачи – до 20 км. Также существуют медиаконвертеры с SFP слотом, которые позволяют использовать нестандартные SFP модули для подключения абонента. На рынке встречаются модели, предполагающие установку 1,25 Гбит/с модулей или 100 Мбит/с модулей, также встречаются гибридные модели, работающие с обоими типами SFP трансиверов.
Уровень агрегации
Коммутаторы уровня агрегации подключаются к ядру сети по топологии «Звезда», реже применяется топология «Шина». Объем и скорость передаваемой информации на этом уровне сети заметно выше, чем на уровне доступа. Для организации каналов связи «агрегация – ядро сети» зачастую используются трансиверы со скоростью передачи 10 Гбит/с. В зависимости от схемы прокладки оптических кабелей и их волоконной емкости на уровне агрегации, могут применяться технологии спектрального уплотнения WDM и CWDM, в основном это вызвано дефицитом волокон и необходимостью их экономить. В случае, если уровень агрегации подключается к ядру сети по топологии «Звезда» с организацией одного канала 10 Гбит/с, с каждой точки агрегации логично использовать WDM трансиверы форм-фактора SFP+ или XFP (форм-фактор зависит от используемых коммутаторов агрегации).
В том же случае, если топология подключения уровня агрегации сложнее, чем классическая «Звезда» или же до каждой точки агрегации необходимо доставить больше одного канала 10 Гбит/с, то экономически оправданным является построение CWDM системы, которая позволяет организовать 9 дуплексных каналов связи в рамках одного оптического волокна. Необходимо отметить, что CWDM системы позволяют строить как простые трассы типа «точка-точка», так и трассы со сложной топологией «точка-многоточие» или «кольцо».
Вне зависимости от топологии сети, удаленность узлов агрегации от ядра сети может составлять от нескольких километров до нескольких десятков километров, редко расстояние превышает 20 км.
Уровень ядра сети
Уровень ядра сети самый ответственный, на нем важна и высокая производительность, и максимальная отказоустойчивость. Резервирование оборудования ядра сети производится с использованием топологии «каждый-с-каждым» и физическим резервированием каналов связи и сервисов. Расстояние между активным сетевым оборудованием на данном уровне может составлять как десятки метров и находиться в рамках одного здания, так и десятков километров с разнесением ядра сети на несколько площадок. Передаваемые скорости внутри ядра сети могут составлять 40 – 100 Гбит/с, все зависит от величины провайдера и объема его абонентской базы.
Соответственно, для организации соединений между коммутаторами ядра сети могут использоваться, как 10 Гбит/с трансиверы, так и высокоскоростные 40 и 100 Гбит/с трансиверы. В зависимости от удаленности сетевого оборудования соответственно применяются, как многомодовые трансиверы типа SR, так и высокопроизводительные системы уплотнения CWDM или DWDM с использованием транспондеров или мукспондеров для передачи высокоскоростных каналов связи.
Серверный уровень
Серверный уровень, по факту являясь неотъемлемой частью ядра сети, зачастую располагается недалеко, в пределах одного здания. Его подключение также требует резервирования для обеспечения бесперебойности работы сервисов. В связи с небольшими расстояниями между оборудованием, в пределах машинного зала или здания, на этом уровне сети распространены трансиверы для «коротких» соединений, такие как, DAC-кабели, AOC-кабели, всевозможные вариации Break-out кабелей и трансиверы типа SR и LRM. В основном все соединения имеют скорость передачи 10 Гбит/с и 40 Гбит/с, но с растущим объемом потребляемого трафика все чаще начинает использоваться связка 25 Гбит/с и 100 Гбит/с.
Трансиверы, обеспечивающие скорость передачи 25 Гбит/с это новый форм-фактор – SFP28. Являясь развитием форм-фактора SFP, новый тип трансиверов сохранил компактные габариты корпуса, при этом увеличил скорость передачи до 25 Гбит/с. Важной особенностью данного форм-фактора стала возможность соединения с трансиверами QSFP28 100G. Дело в том, что трансиверы QSFP28 являются четырёх поточными, т.е. номинальная скорость 100 Гбит/с образуется в результате объединения четырёх потоков по 25 Гбит/с. Таким образом, с одним трансивером QSFP28 можно агрегировать до четырёх потоков предаваемых трансиверами SFP28. Для этого нужно подобрать правильные модификации, например MT-QSFP-100G-DF-31-LR4-CD-MPO; при помощи breakout патчкорда можно соединить с модулями MT-SFP28-25G-DF-31-LR-CD. А любой двухволоконный QSFP28 можно соединять с SFP28 при помощи мультиплексоров, CWDM, DWDM или LWDM, в зависимости от модели.
Кроме трансиверов и кабелей на серверном уровне для организации соединений используются сетевые карты или NIC. На данный момент самыми распространёнными стали карты со скоростью передачи на один порт 10/25/40 Гбит/с, реже встречаются высокоскоростные 100Гбит/с. В зависимости от производителя сетевые карты могут быть построены на основе процессоров от Intel, Broadcom, Mellanox, Qlogic и других менее известных. По стечению обстоятельств в России массовую популярность завоевали карты на основе процессоров Intel, например, X520-DA2 на основе чипа Intel 82599ES. Такая популярность породила большой объем OEM продукции на основе оригинальных чипсетов от Intel.
Зачастую доустановка или смена сетевой карты в сервере вызвана увеличением пропускной способности сети, которую спровоцировало повышение запросов абонентов к качеству сервисов. По опыту, выход из строя сетевой карты маловероятен, так как заложенной прочности достаточно для безаварийной работы весь жизненный цикл сервера.
Пограничный уровень сети
Данный уровень сети не изображается на классической схеме сети, но представляет собой важный сегмент сети, а именно точку сопряжения с вышестоящим провайдером. Данный уровень представляет собой границу между локальной сетью провайдера и Интернетом.
На данном уровне используются высокоскоростные модули, дальность которых напрямую зависит от удаленности точки подключения маршрутизатора.
Общие сведения о агрегирования каналов и LACP [чаво]
Понятие о протоколе Link Aggregation Control Protocol
Howard
Купить FS коммутаторы для предприятий
Агрегация каналов-это подход к объединению нескольких отдельных каналов (Ethernet) в один логический канал. Вместе с ним часто появляются два термина, то есть LAG и LACP. Они вас смутили? Давайте теперь немного подробнее рассмотрим эти термины.
Не стесняйтесь забегать вперед, если вы уже позаботились о некоторых деталях.
Что такое LAG и как это работает?
Кроме того, он обеспечивает резервирование на уровне канала при отказе сети и балансировке нагрузки трафика. Даже если одна связь выйдет из строя, остальные связи между двумя коммутаторами все равно будут работать. Они также принимают на себя тот трафик, который должен проходить через вышедшего из строя, поэтому пакет данных не будет потерян.
Что такое LACP (протокол управления агрегацией каналов) и как он работает?
В результате, каналы, поддерживающие протокол LACP, могут увеличить логическую полосу пропускания и надежность сети без изменения какой-либо сетевой инфраструктуры.
Более того, даже если одна ссылка выходит из строя, в режиме LACP другие доступные члены ссылки в той же группе LACP будут балансировать нагрузку.
В момент, когда LACP включен между двумя коммутаторами, они будут отправлять LACPDU (блоки данных LACP) друг другу. После получения друг от друга LACPDU два коммутатора будут определять, у какой стороны системный приоритет выше.
После выбора Субъекта два коммутатора будут выбирать активные порты на основе приоритетов портов порта Субъекта. Однако, если порты Субъекта имеют одинаковые приоритеты, порты с меньшими номерами портов будут выбраны в качестве активных портов.
После выбора соответствующих портов двух коммутаторов устанавливается порт-канал (группа LACP). Тогда активные ссылки загрузят данные баланса для связи.
LAG vs LACP: в чем разница?
После того, как каналы агрегации установлены, все эти ссылки становятся активными ссылками для пересылки пакетов данных. Если одна активная ссылка не работает, остальные оставшиеся активные ссылки будут балансировать нагрузку на трафик. Однако этот режим может обнаруживать только разъединения входящих в него каналов, но не может обнаруживать другие сбои, такие как сбои канального уровня и неправильные соединения каналов.
Когда условие агрегирования ссылок изменяется, LACP корректирует или удаляет агрегированный канал. Если одна активная ссылка выходит из строя, система выбирает ссылку среди резервных ссылок в качестве активной ссылки. Таким образом, количество ссылок, участвующих в пересылке данных, остается неизменным. Кроме того, этот режим не только обнаруживает разъединения своих звеньев, но и другие сбои, такие как сбои канального уровня и неправильные соединения каналов.
Должен ли я включать агрегацию каналов?
Если у вас есть коммутатор с большим количеством портов Gigabit Ethernet, вы можете подключить их все к другому устройству, у которого также есть несколько портов, и сбалансировать трафик между этими каналами для повышения производительности.
Другой важной причиной использования агрегации каналов является обеспечение быстрого и прозрачного восстановления в случае отказа одного из отдельных каналов.
Если вы очень заботитесь о надежности и доступности сети, было бы лучше включить агрегацию каналов на ваших устройствах.
Как настроить коммутатор агрегации каналов?
Коммутатор агрегации каналов или коммутатор LACP, см. Установку или настройку коммутатора для достижения технологии агрегации каналов. Коммутатор агрегации каналов может быть любым коммутатором, например Gigabit Ethernet коммутатор или 10 Gigabit коммутатор, который поддерживает LACP. Как правило, существует шесть шагов для настройки коммутаторов агрегации каналов:
Шаг 1. Добавьте интерфейсы участников в группу каналов.
Шаг 2: Установите приоритет системы LACP и определите Субъекта, чтобы Партнер выбирал активные интерфейсы на основе приоритета интерфейса Субъекта.
Шаг 3: Установите верхний порог количества активных интерфейсов для повышения надежности. (Этот шаг необязательно применяется в командах динамической конфигурации CLI.)
Шаг 4: Установите приоритеты интерфейса LACP и определите активные интерфейсы, чтобы интерфейсы с более высоким приоритетом выбирались в качестве активных интерфейсов. (Этот шаг необязательно применяется в командах динамической конфигурации CLI.)
Шаг 5: Создайте сети VLAN и добавьте интерфейсы к этим VLAN. (Этот шаг необязательно применяется в командах динамической конфигурации CLI.)
Шаг 6: Проверьте конфигурацию LACP.
Дополнительные сведения о настройке коммутатора LACP или коммутатора агрегации каналов см. В разделе Конфигурация LACP на коммутаторах серии FS S3900.
Коммутаторы поддерживающие LAG
Если вы ищете хорошие сетевые коммутаторы, поддерживающие LACP, вот три самых продаваемых коммутатора от FS, глобальной высокотехнологичной компании, предоставляющей решения и услуги для высокоскоростных сетей связи.
S3900-24T4S | S5850-48S6Q | S5860-20SQ | |
---|---|---|---|
Уровень управления | Layer 2+ | Layer 3 | Layer 3 |
Комбинация портов | 24 x 1G, 4 x 10G SFP+ | 48 x 10G SFP+, 6 x 40G QSFP+ | 20 x 10G SFP+, 4 x 25G SFP28, 2 x 40G QSFP+ |
Ключевая особенность | VLAN, QoS, IGMP Snooping, Link Aggregation, IPv6,L3 статическая маршрутизация | VLAN, QoS, IGMP Snooping, Link Aggregation, статическая маршрутизация, RIP, OSPF, IPv6 поддержка, BGP/ISIS, MLAG | QoS, IGMP Snooping, Link Aggregation, IPv6, L3 статическая маршрутизация, RIP, OSPF, BGP/ISIS, стекируемый |
Применения | SMB( 2500 пользователей) |