Чи означають швидші сегменти мережі швидший швидкість потоку або меншу затримку?


12

Це ще одне з тих гіпотетичних питань. Я намагався розібратися, чи буде швидше «сегмент» мережі між хостом A і хостом B перетворюватися на більш швидку швидкість потоку або меншу затримку між ними. Дозвольте показати вам фізичні зв’язки в мережі між комп'ютером A та комп'ютером B:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

Коротше кажучи, є 1G-посилання від хоста А до першого перемикача, в якому є модуль SFP, підключений до короткого 10G / 40G / 100G (насправді не важливо, просто швидше, ніж 1G) білка волокна, який підключається до ще один модуль SFP в іншому мідному комутаторі 1G, який з'єднаний через 1G мідь з хостом B.

Чи швидше протікає рух між двома хостами через волокно, яке проходить посередині? Або швидкість потоку і затримка будуть однаковими, якби ділянка між двома комутаторами була такою ж швидкістю, як і решта мережі?

Було б сенс, щоб затримка була нижчою між вузлом A та вузлом B, але швидкість входу та виходу NIC обмежувала б швидкість потоку, правильно? Якщо це так, чи має сенс підключати «основні» комутатори та маршрутизатори разом із швидшими посиланнями?

Відповіді:


13

Ні, насправді. Заміна мідної ланки волокнистою ланкою може зменшити затримку на невеликий шматочок (якщо припустити, що не відбувається перенапруження), але те, що ви дійсно отримуєте, замінивши "основну" ланку на більш високу пропускну здатність, менше можливих перевантажень. У вашому прикладі scenerio це не має значення, оскільки на кожному кінці є лише один пристрій. Однак у мережі, що перебуває в реальному часі, переміщення від 1 г до 10 г основних ланцюгів полегшить проблеми перевантаженості всередині ядра мережі.

Тепер, як побічний вплив, у вас може бути менша затримка та кращий потік трафіку, але це пов'язано виключно з ослабленням перевантаженості, тому маршрутизатори / комутатори не перевантажуються та не скидають / не ставлять на чергу.


Тож збільшення швидкості зв’язків в ядрі мережі збільшує пропускну здатність, а не швидкість.
Ліббукс

4
В основному, так. "Швидкість" в мережевому мовленні - це не стільки, скільки швидкість , а скільки біт в секунду, ви можете переходити по посиланню. Затримка / RTT зазвичай є питанням загальної відстані в поєднанні з кількістю пристроїв на шляху. Кожен хміль / пристрій додає невелику кількість затримки. "Швидкість" в основному зводиться до фізики і швидкості світла.
Justin Seabrook-Rocha

Ключовим моментом є те, що біти рухаються з однаковою швидкістю - це справді те, що мені було цікаво.
Libbux

2
Я також зазначу, що все це виходить за вікно, коли ви заходите в країну фінансової торгівлі. У тому світі RTT є королем. Навіть мікросекунди RTT мають значення, що змушує їх робити всілякі нерозумні речі, такі як переміщення робочої станції на 100 футів ближче до сервера і скорочення падіння волокна.
Джастін Сібрук-Роча

7
У той час як сигнал рухається з однаковою швидкістю, незалежно від 100M, 1GE або 10GE, затримка серіалізації (час, необхідний для введення кадру в провід) зменшується, коли швидкість збільшується. Тобто, якщо ви надсилаєте кадр із затримкою серіалізації 100M на 1538B 0.123 мс, на 1GE цей кадр вже на 21 км нижче волокна.
ytti

6

Швидкість потоку даних не має різниці у фізиці середовища. Маючи на увазі, я маю на увазі, що електричний сигнал проходить з одного боку 100-метрового мідного бігу на інший, незважаючи на те, що цей сигнал є частиною 10 Мбіт / с або 1 Гбіт / с.

Якщо ви переходите від міді до волокна, то, можливо, ви помітите невелике поліпшення, але це дійсно має бути лише граничною різницею.

Зараз є інші фактори, які можуть вступати в гру, наприклад, обладнання, яке може робити 10 Гбіт / с, як правило, більш здатне обробляти кадри / пакети, ніж обладнання, розраховане на 10 Мбіт / с, тому затримка, додана обладнанням, може бути зменшена, оскільки добре. Але це повністю залежить від можливостей обладнання, а не від швидкості зв'язку.


5

У цьому випадку перехід від 1G до кінця до ядра 10G не повинен істотно нічого змінити. Лише незначне збільшення пропускної здатності виходитиме з прискорення сигналізації (зменшення бітового часу) по лінії 10G +. Але за відсутності перевантаженості (читайте: інші хости) вони повинні були мати можливість наситити посилання для початку.

Час, який потрібен хостам A&B для подачі сигналу (входу та виходу), пакет не змінюється. Час, який потрібен для переходу пакета з перемикання на комутатор, теоретично пропорційно швидший. Однак при цих швидкостях різниця не помітна для людини. (~ 10 мкс для пакета 1500 мту)


Чи, скажімо, 100G зв’язок між комутаторами помітно зміниться?
Libbux

Вони вже можуть більше ніж наситити свою локальну зв’язок, тому ні. За допомогою чутливого тестового обладнання ви можете виміряти зміну затримки в пакеті, але це не призведе до того, що посилання на один концерт швидше переходить. :-) Однак, справжня користь - це уникнення перевантажених перевантажень, коли за допомогою посилання існує більше, ніж просто хостинг A та B.
Рікі Бім

0

Оскільки пропускна здатність = для розміру Windows / RTT, все, що скорочує RTT, збільшило б пропускну здатність, є іншим питанням, чи варто цього. Чим більше розмір вікна, тим більший вплив має RTT.


1
із вікном 128 кб, кінцевий кінець 1G складе ~ 3,5 Г / с. З посиланням 10G в середині, це число підскакує до ~ 5G / s. Ви помітите, що обидва числа знаходяться набагато вище швидкості хост-зв’язку, тому це було б зовсім не помітно.
Ricky Beam

0

Це залежить.

У мережі, що не працює в режимі очікування, це залежить від того, чи є пристрої комутації "зберігати і пересилати" або "прорізати". Якщо комутаційні пристрої зберігаються та передаються вперед, то швидші посилання означатимуть меншу затримку. Однак якщо вони підтримують перемикання наскрізного перемикання, то додаткові затримки будуть введені, оскільки неможливо зробити переріз через перехід від повільніше вхідного зв'язку до більш швидкого вихідного зв'язку. Однак, якщо ви не граєте у високочастотному торговому світі чи подібному, це, ймовірно, в будь-якому випадку незначно.

У практичній мережі, що має більшу ємність в ядрі, зменшується ймовірність виникнення перевантажень з боку інших користувачів. Застійність призводить до зменшення пропускної здатності та затримки вгору. Загалом, добре, якщо ваші основні посилання швидші за посилання на кінцевих користувачів, тому жоден кінцевий користувач не може їх наситити (тому, якщо ви працюєте гігабітом на робочому столі, ви, ймовірно, повинні мати ядро ​​10 гігабіт).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.