Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ДВУСТОРОННИЕ ШПОРЫ ПО масичГФ.docx
Скачиваний:
44
Добавлен:
29.03.2015
Размер:
572.57 Кб
Скачать

Формат кадра

Существует несколько форматов Ethernet-кадра.

  • Первоначальный Version I (больше не применяется).

  • Ethernet Version 2 или Ethernet-кадр II, ещё называемый DIX (аббревиатура первых букв фирм-разработчиков DEC, Intel, Xerox) — наиболее распространена и используется по сей день. Часто используется непосредственно протоколом Интернет.

Наиболее распространенный формат кадра Ethernet II

  • Novell—внутренняя модификация IEEE 802.3 без LLC (Logical Link Control).

  • Кадр IEEE 802.2 LLC.

  • Кадр IEEE 802.2 LLC/SNAP.

  • Некоторые сетевые карты Ethernet, производимые компанией Hewlett-Packardиспользовали при работе кадр формата IEEE 802.12, соответствующий стандарту100VG-AnyLAN.

В качестве дополнения Ethernet-кадр может содержать тег IEEE 802.1Qдля идентификацииVLAN, к которой он адресован, иIEEE 802.1pдля указания приоритетности.

Разные типы кадра имеют различный формат и значение MTU.

Билет 5.

5. Поясните смысл сегментации локальной сети. Проиллюстрируйте механизм самообучения коммутатора и процесс прохождения кадра через коммутатор.

Ограничения сети, построенной на общей разделяемой среде

При построении небольших сетей, состоящих из 10-30 узлов, использование стандартных технологий на разделяемых средах передачи данных приводит к экономичным и эффективным решениям. Во всяком случае, это утверждение справедливо для очень большого числа сегодняшних сетей, даже тех, в которых передаются большие объемы мультимедийной информации, — появление высокоскоростных технологий со скоростями обмена 100 и 1000 Мбит/с решает проблему качества транспортного обслуживания таких сетей.

Эффективность разделяемой среды для небольшой сети проявляется в первую очередь в следующих свойствах:

  • простой топологии сети, допускающей легкое наращивание числа узлов (в небольших пределах);

  • отсутствии потерь кадров из-за переполнения буферов коммуникационных устройств, так как новый кадр не передается в сеть, пока не принят предыдущий — сама логика разделения среды регулирует поток кадров и приостанавливает станции, слишком часто генерирующие кадры, заставляя их ждать доступа;

  • простоте протоколов, обеспечившей низкую стоимость сетевых адаптеров, повторителей и концентраторов.

Однако справедливым является и другое утверждение — крупные сети, насчитывающие сотни и тысячи узлов, не могут быть построены на основе одной разделяемой среды даже такой скоростной технологии, как Gigabit Ethernet. И не только потому, что практически все технологии ограничивают количество узлов в разделяемой среде; все виды семейства Ethernet — 1024 узлами, Token Ring — 260 узлами, a FDDI — 500 узлами. Даже сеть средних размеров, состоящая из 50-100 компьютеров и укладывающаяся в разрешенный максимум количества узлов, чаще всего будет плохо работать на одной разделяемой среде.

Основные недостатки сети на одной разделяемой среде начинают проявляться при превышении некоторого порога количества узлов, подключенных к разделяемой среде, и состоят в следующем. Даже та доля пропускной способности разделяемого сегмента, которая должна в среднем доставаться одному узлу (то есть, например, 10/N Мбит/с для сегмента Ethernet с N компьютерами), очень часто узлу не достается. Причина заключается в случайном характере метода доступа к среде, используемом во всех технологиях локальных сетей. Наиболее тяжелые условия для узлов сети создает метод доступа CSMA/CD технологии Ethernet, но и в других технологиях, таких как Token Ring или FDDI, где метод доступа носит менее случайный характер и даже часто называется детерминированным, случайный фактор доступа к среде все равно присутствует и оказывает свое негативное влияние на пропускную способность, достающуюся отдельному узлу.

На рис. 4.14 показана зависимость задержек доступа к среде передачи данных в сетях Ethernet, Token Ring и FDDI от коэффициента использования сети р, который также часто называют коэффициентом нагрузки сети. Напомним, что коэффициент использования сети равен отношению трафика, который должна передать сеть, к ее максимальной пропускной способности. Для сети Ethernet максимальная пропускная способность равна 10 Мбит/с, а трафик, который она должна передать, равен сумме интенсивностей трафика, генерируемого каждым узлом сети. Коэффициент использования обычно измеряют в относительных единицах или процентах.

Как видно из рисунка, всем технологиям присущ экспоненциальный рост величины задержек доступа при увеличении коэффициента использования сети, отличается только порог, при котором наступает резкий перелом в поведении сети, когда почти прямолинейная зависимость переходит в крутую экспоненту. Для всего семейства технологий Ethernet это 40-50 %, для технологии Token Ring — 60 %, а технологии FDDI— 70%.

Рис. 4.14. Задержки доступа к среде передачи данных для технологий Ethernet, Token Ring и FDDI

Количество узлов, при которых коэффициент использования сети начинает приближаться к опасной границе, зависит от типа функционирующих в узлах приложений. Если раньше для сетей Ethernet считалось, что 30 узлов — это вполне приемлемое число для одного разделяемого сегмента, то сегодня для мультимедийных приложений, перекачивающих большие файлы данных, эту цифру нужно уточнять с помощью натурных или имитационных экспериментов.

Влияние задержек и коллизий на полезную пропускную способность сети Ethernet хорошо отражает график, представленный на рис. 4.15.

Рис. 4.15. Зависимость полезной пропускной способности сети Ethernet от коэффициента использования

При загрузке сети до 50 % технология Ethernet на разделяемом сегменте хорошо справляется с передачей трафика, генерируемого конечными узлами. Однако при повышении интенсивности генерируемого узлами трафика сеть все больше времени начинает проводить неэффективно, повторно передавая кадры, которые вызвали коллизию. При возрастании интенсивности генерируемого трафика до такой величины, когда коэффициент использования сети приближается к 1, вероятность столкновения кадров настолько увеличивается, что практически любой кадр, который какая-либо станция пытается передать, сталкивается с другими кадрами, вызывая коллизию. Сеть перестает передавать полезную пользовательскую информацию и работает «на себя», обрабатывая коллизии.

Этот эффект хорошо известен на практике и исследован путем имитационного моделирования, поэтому сегменты Ethernet не рекомендуется загружать так, чтобы среднее значение коэффициента использования превосходило 30 %. Именно поэтому-во многих системах управления сетями пороговая граница для индикатора коэффициента загрузки сети Ethernet по умолчанию устанавливается на величину 30 %.

Технология Ethernet наиболее чувствительна к перегрузкам разделяемого сегмента, но и другие технологии также весьма страдают от этого эффекта, поэтому ограничения, связанные с возникающими коллизиями и большим временем ожидания доступа при значительной загрузке разделяемого сегмента, чаще всего оказываются более серьезными, чем ограничение на максимальное количество узлов, определенное в стандарте из соображений устойчивой передачи электрических сигналов в кабелях.

В результате даже сеть средних размеров трудно построить на одном разделяемом сегменте так, чтобы она работала эффективно при изменении интенсивности генерируемого станциями трафика. Кроме того, при использовании разделяемой среды проектировщик сети сталкивается с жесткими ограничениями максимальной длины сети, которые для всех технологий лежат в пределах нескольких километров, и только технология FDDI позволяет строить локальные сети, длина которых измеряется десятками километров.

Преимущества логической структуризации сети

Ограничения, возникающие из-за использования общей разделяемой среды, можно преодолеть, разделив сеть на несколько разделяемых сред и соединив отдельные сегменты сети такими устройствами, как мосты, коммутаторы или маршрутизаторы (рис. 4.16).

Перечисленные устройства передают кадры с одного своего порта на другой, анализируя адрес назначения, помещенный в этих кадрах. (В отличие от концентраторов, которые повторяют кадры на всех своих портах, передавая их во все подсоединенные к ним сегменты, независимо от того, в каком из них находится станция назначения.) Мосты и коммутаторы выполняют операцию передачи кадров на основе плоских адресов канального уровня, то есть МАС-адресов, а маршрутизаторы — на основе номера сети. При этом единая разделяемая среда, созданная концентраторами (или в предельном случае — одним сегментом кабеля), делится на несколько частей, каждая из которых присоединена к порту моста, коммутатора или маршрутизатора.

Говорят, что при этом сеть делится на логические сегменты или сеть подвергается логической структуризации. Логический сегмент представляет собой единую разделяемую среду. Деление сети на логические сегменты приводит к тому, что

нагрузка, приходящаяся на каждый из вновь образованных сегментов, почти всегда оказывается меньше, чем нагрузка, которую испытывала исходная сеть. Следовательно, уменьшаются вредные эффекты от разделения среды: снижается время ожидания доступа, а в сетях Ethernet — и интенсивность коллизий.

Некоторые производители применяют в своих коммутаторах приемы управления потоком кадров, отсутствующие в стандартах протоколов локальных сетей, для предотвращения потерь кадров при перегрузках.

Рис. 4.13. Чередование передач кадров при обмене данными через коммутатор

На рисунке 4.13 приведен пример обмена кадрами между коммутатором и портом сетевого адаптера компьютера в режиме пиковой загрузки коммутатора. Коммутатор не успевает передавать кадры из буфера передатчика Tx, так как при нормальном полудуплексном режиме работы передатчик должен часть времени простаивать, ожидая, пока приемник не примет очередной кадр от компьютера.

Так как потери, даже небольшой доли кадров, обычно намного снижают полезную производительность сети, то при перегрузке коммутатора рационально было бы замедлить интенсивность поступления кадров от конечных узлов в приемники коммутатора, чтобы дать возможность передатчикам разгрузить свои буфера с более высокой скоростью. Алгоритм чередования передаваемых и принимаемых кадров (frame interleave) должен быть гибким и позволять компьютеру в критических ситуациях на каждый принимаемый кадр передавать несколько своих, причем не обязательно снижая при этом интенсивность приема до нуля, а просто уменьшая ее до необходимого уровня.

Для реализации такого алгоритма в распоряжении коммутатора должен быть механизм снижения интенсивности трафика подключенных к его портам узлов. У некоторых протоколов локальных сетей, таких как FDDI, Token Ring или 100VG-AnyLAN имеется возможность изменять приоритет порта и тем самым давать порту коммутатора преимущество перед портом компьютера. У протоколов Ethernet и Fast Ethernet такой возможности нет, поэтому производители коммутаторов для этих очень популярных технологий используют два приема воздействия на конечные узлы.

Эти приемы основаны на том, что конечные узлы строго соблюдают все параметры алгоритма доступа к среде, а порты коммутатора - нет.

Первый способ "торможения" конечного узла основан на так называемом агрессивном поведении порта коммутатора при захвате среды после окончания передачи очередного пакета или после коллизии. Эти два случая иллюстрируются рисунком 4.14.

Рис. 4.14. Агрессивное поведение коммутатора при перегрузках буферов

В первом случае коммутатор окончил передачу очередного кадра и вместо технологической паузы в 9.6 мкс сделал паузу в 9.1 мкс и начал передачу нового кадра. Компьютер не смог захватить среду, так как он выдержал стандартную паузу в 9.6 мкс и обнаружил после этого, что среда уже занята.

Во втором случае кадры коммутатора и компьютера столкнулись и была зафиксирована коллизия. Так как компьютер сделал паузу после коллизии в 51.2 мкс, как это положено по стандарту (интервал отсрочки равен 512 битовых интервалов), а коммутатор - 50 мкс, то и в этом случае компьютеру не удалось передать свой кадр.

Коммутатор может пользоваться этим механизмом адаптивно, увеличивая степень своей агрессивности по мере необходимости.

Второй прием, которым пользуются разработчики коммутаторов - это передача фиктивных кадров компьютеру в том случае, когда у коммутатора нет в буфере кадров для передачи по данному порту. В этом случае коммутатор может и не нарушать параметры алгоритма доступа, честно соревнуясь с конечным узлом за право передать свой кадр. Так как среда при этом равновероятно будет доставаться в распоряжение то коммутатору, то конечному узлу, то интенсивность передачи кадров в коммутатор в среднем уменьшится вдвое. Такой метод называется методом обратного давления (backpressure). Он может комбинироваться с методом агрессивного захвата среды для большего подавления активности конечного узла.

Метод обратного давления используется не для того, чтобы разгрузить буфер процессора порта, непосредственно связанного с подавляемым узлом, а разгрузить либо общий буфер коммутатора (если используется архитектура с разделяемой общей памятью), либо разгрузить буфер процессора другого порта, в который передает свои кадры данный порт. Кроме того, метод обратного давления может применяться в тех случаях, когда процессор порта не рассчитан на поддержку максимально возможного для протокола трафика. Один из первых примеров применения метода обратного давления как раз связан с таким случаем - метод был применен компанией LANNET в модулях LSE-1 и LSE-2, рассчитанных на коммутацию трафика Ethernet с максимальной интенсивностью соответственно 1 Мб/с и 2 Мб/с.

Билет 6. Проиллюстрируйте проблемы петлевой топологии устройств L2 уровня и объясните назначение и работу протокола распределенного связующего дерева (STP).

Проблемы петлевой конфигурации. Петли, а значит, и парал-

лельные пути в локальных Ethernet-сетях (LANs), являются причи-ной бесконечного движения по кругу:

– кадров с неизвестным мосту МАС-адресом назначения;

– широковещательных кадров;

– Unicast-кадров в фазе наводнения (Flooding).

Параллельные пути в более сложной топологии приводят к широковещательному штурму, переполнению всех буферных ресурсов и стагнатации LANs.

Причины возникновения физических петель:

– намеренная попытка повысить надежность сети за счет из-быточных соединений;

– ошибка администратора сети.

L2-петли доставляют намного больше проблем, чем L3-петли маршрутизации, так как IP-пакет уничтожается роутером при дос-тижении времени жизни пакета TTL = 0, а Ethernet-кадр циркули-рует в сети до тех пор, пока принудительно не будет отключено питание моста или не возникнут неисправности канала.

Назначение STP. Протокол связующего дерева STP (Spanning Tree Protocol, IEEE 802.3D) позволяет мостам общаться между со-бой протокольными блоками данных BPDU (Bridge Protocol Data Units) с групповым МАС-адресом назначения для приведения LANs с множественными связями к древовидной топологии, ис-ключающей циклы движения кадров. Происходит это путем авто-матического логического блокирования избыточных в данный мо-мент портов на каждом мосте.

Основное преимущество STP – можно построить LANs, в ко-торой существует несколько параллельных путей, однако при этом гарантировать, что:

– резервные пути прохождения трафика при нормальном функционировании основного пути заблокированы;

– один из резервных путей автоматически активизируется при нарушении основного пути.

Главный недостаток STP – избыточные линии или избыточные сетевые компоненты не могут использоваться для балансирования загрузки.

Сервис STP согласно IEEE 802.3D:

– Конфигурирует произвольную топологию Bridge LAN в единственное распределенное связующее дерево. При наличии более одного пути для кадров между любыми двумя оконечными станциями все избыточные пути отключаются, таким образом устраняются циклы кадров.

– Предусматривает автоматическую отказоустойчивость посредством реконфигурации топологии распределенного связующего дерева в результате неисправности моста или неисправности в канале связи в пределах границ LAN без формирования циклов текущих данных.

– Распределенное связующее дерево образуется в LAN любой размерности с высокой вероятностью и за известный ограниченный интервал времени сходимости (конвергенции) протокола STP. В течение этого времени могут быть недоступны связи между любой парой оконечных станций.

– Активная топология предсказуема и воспроизводима. Активная топология может быть выбрана посредством управления параметрами алгоритма STP.

– Используемая STP-протоколом полоса пропускания каналов при установлении и поддержании распределенного связующего дерева использует малый процент от полной располагаемой полосы пропускания.

Пример работы STP

Этап 1. Выбор корневого моста. Представлен на рис. 1.5.

Рис. 1.5. Выбор корневого моста

… Фрагмент BPDU-сообщения

Root ID – BID корневого моста

→ Какой мост имеет статус корневого

моста?

Root path cost – корневая стои-

→ Каково

расстояние

до

корневого

мость

моста?

Sender ID – BID моста отправи-

→ Каков

BID моста

отправителя

теля

BPDU?

Port Identifier –

идентификатор

→ С какого порта было

отправлено

порта

BPDU?

Процесс корневой борьбы:

– BPDU-сообщения стандартно отправляются каждые 2 с;

– сначала мосты в поля Root ID и Sender ID подставляют соб-ственные значения BID;

каждый мост в поле Root ID сохраняет лучшее из BPDU, полученных на каждый порт. Каждый приходящий BPDU сравни-вается с ранее сохраненным. Если полученный BPDU более при-емлем, то новое сообщение заменяет ранее записанное;

– мосты определяют, что наименьший BID у моста Cat-A, по-этому Cat-A становится корневым.

Этап. 2. Выбор корневых портов. Представлен на рис. 1.6.

Рис. 1.6. Выбор корневых портов

Процесс выбора корневых портов:

– Cat-А (корневой мост) отправляет сообщения BPDU c корневой стоимостью, равной 0, через все порты;

– RPC Cat-A = 0.

– получив такое BPDU, мост Cat-В добавляет к значению корневой стоимости значение стоимости порта 1/1, равное для FE числу 19:

RPC Cat-B = RPC Cat-А + Path COST Cat-B = 0 + 19 = 19;

Cat-B отправляет BPDU с RPC Cat-B = 19 через другие порты.

– BPDU от моста Cat-B получает мост Cat-C на порту 1/2

  • рассчитывает:

RPC Cat-С (1/2) = RPC Cat-B + Path COST Cat-C (1/2) = 19 +19 = 38;

– с другой стороны на порт 1/1 Cat-C от корневого моста при-ходят сообщения со значением стоимости, равным 0, и затем мост Cat-C увеличивает ее на 19:

RPC Cat-С (1/1) = RPC Cat-A + Path COST Cat-C (1/1) = 0 +

  • 19 =19;

– мост Cat-C выберет порт 1/1 в качестве корневого со значе-

нием RPC = 19;

– мост Cat-C отправляет BPDU с RPC Cat-С = 19 через другие порты.

Мост Cat-B выполняет аналогичные вычисления: стоимость пу-ти от корневого моста до порта 1/1 устройства Cat-B равняется 19, в то время как стоимость пути от порта 1/2 моста Cat-B равняется 38, поэтому порт 1/1 становится корневым для коммутатора Cat-B.

Этап 3. Выбор назначенных портов. Представлен на рис. 1.7.

Рис. 1.7. Выбор назначенных портов

Процесс выбора назначенных портов

– Сегмент 1 имеет подключения по двум портам:

  1. порт 1/1 Cat-A и порт 1/1 Cat-B;

  1. порт 1/1 Cat-A имеет меньшую корневую стоимость, по-этому становится назначенным.

– Сегмент 2 имеет подключения также по двум портам:

  1. порт 1/2 Cat-A и порт 1/1 Cat-С;

  1. порт 1/2 Cat-A имеет меньшую корневую стоимость и он становится назначенным;

– Сегмент 3 подключен к двум коммутаторам, имеющим оди-наковое значение корневой стоимости, равное 19. В такой ситуа-ции срабатывает «Алгоритм принятия решения» протокола STP:

по наименьшему идентификатору корневого моста (Root BID); по наименьшей стоимости маршрута к корневому мосту (RPC); по наименьшему идентификатору моста-отправителя (BID); по наименьшему идентификатору порта (Port ID).

Выбор назначенного порта в сегменте 3:

– Cat-B и Cat-C не корневые, поэтому переходим к 2.

– Cat-B и Cat-C имеют одинаковые значения стоимости, рав-ные 19, поэтому переходим к 3.

Идентификатор коммутатора Cat-B (32768.ВВ-ВВ-ВВ-ВВ-ВВ-ВВ) меньше, чем идентификатор коммутатора Cat-C (32768.CC-CC-CC-CC-CC-CC), поэтому:

– порт 1/2 коммутатора Cat-B становится назначенным для сегмента 3;

– порт 1/2 коммутатора Cat-C получает статус блокированно-го (неназначенного) порта.

Билет 9. Классовая модель IP-адресации. Назначение специальных IP адресов. Кто распределяет IP-адресное пространство в Интернет?

IP-адрес – идентификатор Интернета, информирующий о том, как достигнуть сетевой локализации через маршрутизирующую систему Интернета (СПД).

IPv4: 32-битовое число (4 байта). Байты пишутся в десятич-ной форме, разделяются точками. Пример: 172.16.58.7. В IPv4 мо-гут быть 4 миллиарда различных хост-адресов (232).

IPv6: 128-битовое число (16 байт). Пишется в шестнадцате-рично-десятичной нотации. Пример : 2001:0503:0C27:0000:0000: 0000:0000:0000. В IPv6 могут быть 16 миллиардов различных сете-вых адресов (2128).

Назначение IP-адреса:

– необходим для маршрутизации в Интернете;

– является конечным «Общественным ресурсом»; не находя-щийся в собственности пользователя адрес. Не свойство. Не может быть куплен, продан, передан. Предоставляется на непостоянной основе для использования. Возвращается, когда больше не требу-ется;

Иерархическая организация IP-адресов.

IP-адрес позволяет рассматривать группы адресов (сеть/под-сеть) как единое целое до тех пор, пока не потребуется определить адрес индивидуального узла (порт хоста).

Иллюстрация IPv4 (рис. 3.2):

– Адрес сети – 172.16.0.0/16, где «/xx» – количество старших бит, используемых для нумерации сети и называемых префиксом сети.

– Адрес подсети – 172.16.14.0/24 в сети 172.16.0.0/16.

– Адрес хоста/порта – 172.16.14.15 в сети 172.16.0.0/16 (и подсети 172.16.14.0/24).

Пример работы IP-адреса

Рис. 3.2. Маршрутизация в Интернете

Кто распределяет IP-адреса

Региональные интернет-регистратуры (Regional Internet Registry – RIR) – организации, занимающиеся вопросами адреса-ции и маршрутизации в Интернете. На 2006 год существуют пять

RIR (рис. 3.3):

  1. American Registry for Internet Numbers (ARIN) для Северной Америки.

  2. RIPE Network Coordination Centre (RIPE NCC) для Европы,

Ближнего Востока и Центральной Азии.

  1. Asia-Pacific Network Information Centre (APNIC) для Азии и Тихоокеанского региона.

  2. Latin American and Caribbean Internet Addresses Registry (LACNIC) для Латинской Америки и Карибского региона.

  1. African Network Information Centre (AfriNIC) для Африки.

IP-адрес состоит из двух логических частей – номера сети и номера узла в сети. Значения первых битов адреса определяют границу логических частей и класс IP-адреса. На рис. 3.5 показана структура IP-адреса разных классов.

Рис. 3.5. Структура IP-адреса

Несколько адресов во всех классах зарезервированы для спе-циальных целей.

Распределение специальных IP-адресов:

Диапазон адресов

Назначение

0.0.0.0

Неизвестная сеть ( сеть по умолчанию)

10.0.0.0–10.255.255.255

Зарезервировано для частных сетей

(RFC1918)

127.0.0.1–127.255.255.255

Зарезервировано для локальных адресов

типа «петля»

172.16.0.0–172.31.255.255

Зарезервировано для частных сетей

(RFC1918)

192.168.0.0–192.168.255.255

Зарезервировано для частных сетей

(RFC1918)

255.255.255.255

Широковещательный адрес

Поскольку адрес 0.0.0.0 класса А не является нормальным, то реально в сетях класса А доступно 127 = (27 – 1) адресов.

Рассмотрим пример сети класса B:

Номер сети

Номер узла

Комментарий

172.17

0.0

IP-адрес сети

172.17

0.1

Первый IP-адрес хоста в этой сети

172.17

0.2

Второй IP-адрес хоста в этой сети

  1. 255.254 Последний IP-адрес хоста в этой сети

172.17

255.255

Направленный широковещательный IP-адрес

для этой сети

Поэтому максимально возможное значение числа IP-адресов для назначения их хостам уменьшено на 2.

Билет 10.

Бесклассовая адресация (англ. Classless Inter-Domain Routing, англ. CIDR) — метод IP-адресации, позволяющий гибко управлять пространствомIP-адресов, не используя жёсткие рамкиклассовой адресации. Использование этого метода позволяет экономно использовать ограниченный ресурс IP-адресов, поскольку возможно применение различных масок подсетей к различным подсетям.

Диапазоны адресов

IP-адрес является массивом бит. Принцип IP-адресации — выделение множества (диапазона, блока, подсети) IP-адресов, в котором некоторые битовые разряды имеют фиксированные значения, а остальные разряды пробегают все возможные значения. Блок адресов задаётся указанием начального адреса и маски подсети. Бесклассовая адресация основывается на переменной длине маски подсети (англ.variable length subnet mask, VLSM), в то время, как в классовой (традиционной) адресации длина маски строго фиксирована 0, 1, 2 или 3 установленными октетами.

Пример подсети 192.0.2.32/27 в бесклассовой записи:

Октеты IP-адреса

192

0

2

32

Биты IP-адреса

1

1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

1

0

0

0

1

0

0

0

0

0

Биты маски подсети

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

0

0

0

0

0

Октеты маски подсети

255

255

255

224

В данном примере видно, что в маске подсети 27 бит слева выставлены в единицу. В таком случае говорят о длине префикса подсети в 27 бит и указывают через косую черту (знак /) после базового адреса.

Пример записи IP-адреса 172.16.0.1/12 с применением бесклассовой адресации:

Октеты IP-адреса

172

16

0

1

Биты IP-адреса

1

0

1

0

1

1

0

0

0

0

0

1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

1

Биты маски подсети

1

1

1

1

1

1

1

1

1

1

1

1

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

Октеты маски подсети

255

240

0

0

Множество всех адресов соответствует нулевой маске подсети и обозначается /0, а конкретный адрес IPv4— маске подсети с длиной префикса в 32 бита, обозначаемой /32.

Для упрощения таблиц маршрутизации можно объединять блоки адресов, указывая один большой блок вместо ряда мелких. Например, 4 смежные сети класса C (4 × 255 адресов, маска 255.255.255.0 или /24) могут быть объединены, с точки зрения далёких от них маршрутизаторов, в одну сеть /22. И напротив, сети можно разбивать на более мелкие подсети, и так далее.

Стандартом принята маска в виде непрерывной последовательности единиц и непрерывной последовательности нулей. Только для таких масок получающиеся множества IP-адресов будут смежными. Однако, также широко распространены обратные маски (invers mask, wildcard mask), которые не обязаны содержать подряд идущие единицы или нули. Обратная маска используется для формирования правил ACL.

Variable-Length Subnet Masking используется для объединение подсетей в более крупную сеть (например, 192.168.1.0/24 и 192.168.2.0/24 можно объединить в 1 подсеть 192.168.0.0/16) нельзя рассматривать без понятия бесклассовая маршрутизация. VLSM дает более эффективное использование адресного пространства Изначально необходимо решить, хотите ли вы, чтобы протокол маршрутизации использовал деление сетей на классы (classful) или на подсети произвольных размеров (classless). Протоколы маршрутизации типа classful (например, RIP-1 и IGRP) не включают в рассылаемые обновления информацию о подсетях, что приводит к неэффективному использованию адресного пространства. Понятно, что они не поддерживают и технологию VLSM, которая позволяет интерфейсам маршрутизатора, находящимся в одной сети, иметь различные маски подсетей. Если вам нужна технология VLSM, то ориентируйтесь на протоколы типа classless: EIGRP, IS-IS и OSPF. Если у вас имеется небольшая корпоративная сеть без VLSM и в ней нет маршрутизаторов Cisco, то протокол RIP-1 является наилучшим выбором. Его легко реализовать на устройствах уровня 3, а простая команда запустит его в работу на всех интерфейсах. К тому же это самый дешевый вариант: протокол RIP-1 встроен в любую операционную систему BSD. Все, что вам нужно будет сделать, - установить эту систему на любой компьютер, добавить вторую сетевую карту — и вот вам RIP-маршрутизатор готов. В протоколе RIP-2 добавлена аутентификация служебных сообщений; поддерживается два режима: простой, когда незашифрованный ключ для аутентификации посылается вместе с сообщением, и с использованием алгоритма MD5. В остальном RIP-2 поддерживает все те же функции, что и RIP-1. Также, нельзя не вспомнить, что, к примеру, сети 192.168.1.0/24 192.168.2.0/24 192.168.3.0/24 192.168.4.0/24 192.168.5.0/24 намного проще хранить, передавать и обрабатывать в виде 192.168.0.0/16, что правильно спроектированной сети (когда сети, объединенные в примере /16 маской обслуживаются 1 маршрутизатором, а не разбросаны по территории вперемешку с 172.16.х. х и 10.х. х. х ) экономит ресурсы и память маршрутизатора. Таблица маршрушизации протокола может достигать 50MB, но, какой она бы была БЕЗ использования суммирования маршрутов с помощью VLSM?

VLSM - Variable-Length Subnet Masking - маскирование подсети маской переменной длины.... схема организации подсети IP, позволяющая разбивать подсети на более мелкие подподсети

ЕЩЁ

Для более эффективного использования адресного пространства была разработана технология маски подсети переменной длины - variable length subnet masking (VLSM). Данная технология подробно описана в RFC 1219. Маски подсети переменной длины обеспечивают возможность создания более одной маски подсети в переделах одной сети, возможность разбивать на подсети уже разбитые на подсети группы IP адресов. Применение масок подсети переменной длины предоставляет следующие преимущества: - Эффективным распределением адресных блоков. Иерархическое распределение адресных блоков позволяет использовать все доступные адреса, не создавая конфликтов и не оставляя части адресных блоков неиспользованными. - Возможность использования суммированных маршрутов. Технология VLSM позволяет задавать больше иерархических уровней в рамках одного адресного плана. Это позволяет производить оптимальное суммирование в таблицах маршрутизации. Например, подсеть 172.16.12.0/22 суммирует все адреса, которые входят в нее, включая подсети 172.16.13.0/24, 172.16.14.0/24 и 172.16.15.0/24. - Небольшое число записей в таблицах маршрутизации. В Интернет и интранет маршрутизаторах применяется механизм иерархического суммирования маршрутов. Благодаря применению данного механизма одна запись в таблице маршрутизации представляет иерархическую совокупность IP адресов. Данный механизм обеспечивает следующие преимущества: - Более эффективная маршрутизация; - Использование значительно меньших вычислительных возможностей маршрутизатора; - Быстрая сходимость сети при изменениях в ее структуре; - Упрощенный поиск и устранение ошибок. На рисунке 1.16 показано двоичное представление сетей с 172.16.11.0 по 172.16.16.0. Видно, что сети с 172.16.12.0 по 172.16.15.255 имеют 22 одинаковых бит в начале адреса. Сети 172.16.11.0 и 172.16.16.0 не имеют в начале адреса все 22 одинаковых бит. Поэтому эти сети не входят в блок 172.16.12.0/22.

Билет 12.

Маршрутизация (англ.Routing) — процесс определения маршрута следования информации в сетях связи.

Маршруты могут задаваться административно (статические маршруты), либо вычисляться с помощьюалгоритмов маршрутизации, базируясь на информации о топологии и состоянии сети, полученной с помощьюпротоколов маршрутизации(динамические маршруты).

Статическими маршрутами могут быть:

  • маршруты, не изменяющиеся во времени;

  • маршруты, изменяющиеся по расписанию;

Маршрутизация в компьютерных сетях выполняется специальными программно-аппаратными средствами — маршрутизаторами; в простых конфигурациях может выполняться и компьютерами общего назначения, соответственно настроенными.

Протокол маршрутизации — сетевой протокол, используемыймаршрутизаторамидля определения возможных маршрутов следования данных в составнойкомпьютерной сети. Применение протокола маршрутизации позволяет избежать ручного ввода всех допустимых маршрутов, что, в свою очередь, снижает количество ошибок, обеспечивает согласованность действий всех маршрутизаторов в сети и облегчает трудадминистраторов.

Протоколы маршрутизации делятся на два вида, зависящие от типов алгоритмов, на которых они основаны:

  • Дистанционно-векторные протоколы, основаны на Distance Vector Algorithm (DVA);

  • Протоколы состояния каналов связи, основаны на Link State Algorithm (LSA).

Также протоколы маршрутизации делятся на два вида в зависимости от сферы применения:

  • Междоменной маршрутизации;

  • Внутридоменной маршрутизации.

Дистанционно-векторные протоколы:

RIP— Routing Information Protocol;

IGRP— Interior Gateway Routing Protocol (лицензированный протокол Cisco Systems);

BGP— Border GateWay Protocol;

EIGRP— Enhanced Interior Gateway Routing Protocol (на самом деле он гибридный — объединяет свойства дистанционно-векторных протоколов и протоколов по состоянию канала; лицензированный протоколCisco Systems);

AODV

Протоколы состояния каналов связи:

IS-IS— Intermediate System to Intermediate System (стек OSI);

OSPF— Open Shortest Path First;

NLSP— NetWare Link-Services Protocol (стек Novell);

HSRPиCARP— протоколы резервирования шлюза в Ethernet-сетях.

OLSR

TBRPF

Протоколы междоменной маршрутизации:

EGP;

BGP;

IDRP;

IS-IS level 3;

Протоколы внутридоменной маршрутизации:

RIP;

IS-IS level 1-2;

OSPF;

IGRP;

EIGRP.