При строительстве или модернизации серверной инфраструктуры один из ключевых вопросов — какую скорость сети закладывать. Разбираемся простыми словами, чтобы вы могли принять правильное решение.
Сеть сегодня — это такая же важная часть инфраструктуры, как процессоры и диски. Экономия на сетевом оборудовании или выбор устаревших скоростей приведет к узкому месту уже через 2–3 года.
1. Серверы: берите 25 Гбит/с
Раньше стандартом был 1 Гбит/с, затем 10 Гбит/с. Сегодня индустрия массово перешла на 25 Гбит/с.
Почему это важно:
- Современные серверы с NVMe-дисками и мощными процессорами просто не успевают работать через 10-гигабитную сеть — это становится главным узким местом.
- Цена портов 25 Гбит/с ненамного выше 10-гигабитных, но скорость выше в 2,5 раза.
- Идеально подходит для виртуализации, гиперконвергентных систем (vSAN, Nutanix) и работы с быстрыми дисковыми массивами.
Совет: Новые серверы ставьте на 25 Гбит/с (SFP28). 10 Гбит/с оставляйте только для старого оборудования или для управления серверами (внеполосный доступ).
2. Магистраль между коммутаторами: 100 или 400 Гбит/с
Внутри дата-центра коммутаторы соединяются между собой по архитектуре Spine-Leaf (хребет-листья): Leaf (листья) — коммутаторы, к которым подключаются серверы (обычно на 25 Гбит/с). Spine (хребет) — коммутаторы, которые объединяют все Leaf-коммутаторы между собой. Для связей между коммутаторами используются более высокие скорости: Минимальная рекомендация: 100 Гбит/с. С запасом на рост: 400 Гбит/с.
3. Важный нюанс: микро-заторы и управление перегрузками
На высоких скоростях (25 Гбит/с и выше) возникает проблема: серверы могут резко «выстреливать» данные. Коммутатор не успевает обработать поток, очередь переполняется, и пакеты теряются. Для обычного интернет-трафика это не страшно — TCP перешлет потерянное. Но для дисковых массивов (SAN), баз данных и гиперконвергентных систем потери пакетов вызывают подвисания, ошибки и снижение производительности.
Решение: Используйте механизмы управления перегрузками — PFC, ECN, DCB. Главное — убедиться, что они включены на коммутаторах и сетевых картах. Часто оборудование поддерживает эти технологии, но по умолчанию они отключены.
4. Связь между ЦОД: 400G ZR и 800G ZR
Для соединения разных дата-центров между собой (DCI — Data Center Interconnect) используются специальные оптические модули. Современное решение — 400G ZR и 800G ZR. Они позволяют передавать данные на расстояние до 120 км без дополнительного оборудования. Коммутатор подключается напрямую к оптоволокну — не нужны отдельные транспондеры. Упрощается архитектура и снижаются затраты на связь между ЦОД.
Совет: Если вы планируете строить или модернизировать связь между дата-центрами на ближайшие годы — выбирайте оборудование с поддержкой 400G ZR или 800G ZR. Это даст гибкость и защитит инвестиции.
5. Что выбрать в итоге
| Что подключаем | Рекомендуемая скорость | Почему |
|---|---|---|
| Серверы (ToR) | 25 Гбит/с (SFP28) | Оптимально для NVMe, виртуализации и гиперконвергенции. 10 Гбит — только для старого оборудования. |
| Связь между коммутаторами внутри ЦОД | 100–400 Гбит/с | 100 Гбит — минимальный стандарт. При строительстве с запасом берите 400 Гбит. |
| Связь между разными ЦОД (DCI) | 400G ZR / 800G ZR | Позволяет подключаться напрямую к оптоволокну без дополнительных устройств. |
Главный вывод:
Сеть перестала быть просто «проводком», соединяющим серверы. На современных скоростях она становится такой же важной частью инфраструктуры, как процессоры и диски.
Экономия на сетевом оборудовании или выбор устаревших скоростей гарантированно создаст узкое место, которое упрется в потолок через 2–3 года.
Если у вас остались вопросы по выбору сетевого оборудования, оптических модулей или проектированию серверной инфраструктуры — обратитесь к нашим специалистам. Мы поможем подобрать оптимальное решение под ваши задачи!