Чи один порт 10 гігів такий же, як десять портів 1 гіга


17

Я просив мене це пару днів, і після ряду пошуків я не зміг придумати зрозумілої відповіді, навіть теоретичної, що має сенс у моїй голові.

Я розмовляю з рішеннями для хостингу на Mac, і мені було цікаво, чи можу я додати картки Ethernet thunderbolt до Macs та зв’язати їх у VLAN та, таким чином, напіво вирішити вузькі місця пропускної здатності до машин, щоб збільшити швидкість доступу до БД або зовнішнього сховища .

Наприклад: Підключіть дві картки Ethernet до Mac Mini, зв’яжіть їх та матимете VLAN з пропускною здатністю 2 Гбіт / с.


8
N портів 1-гіга - це не те саме, що 1 порт N-gig.
ЄЕАА

1
Це не називається VLAN - VLAN означає щось інше.
користувач253751

1
Що ви шукаєте, це агрегація посилань, деякі комутатори підтримують це, вам потрібно знайти сумісні адаптери з драйверами, які це підтримують.
Gizmo

Відповіді:


39

Простіше кажучи, ні, вони різні:

  • за допомогою інтерфейсу 10 GbE ви отримуєте пропускну здатність 10 Гбіт / с навіть для одного з'єднання
  • з інтерфейсами 10x 1GbE (і з використанням протоколу 802.ad) одне з'єднання / сеанс обмежується лише 1 Гбіт / с. З іншого боку, ви можете обслуговувати 10 одночасних сеансів кожен із пропускною здатністю 1 Гбіт / с

Іншими словами, з'єднання зазвичай не збільшує швидкість одного з'єднання. Єдиним винятком є ​​зв'язок Linux типу 0 (balance-rr), який надсилає пакети в круговій формі, але має суттєві недоліки та обмежене масштабування. Для практичного прикладу подивіться тут


16
Ні, це не так, як працює зв’язок.
ЄЕАА

2
Чудова і правильна відповідь, але давайте будемо корисні. Хоча теоретично він різний і ОП може бути не семантично точним, агрегація ланок все ще є дуже підходящим рішенням для вихідної проблеми, вузьких місць, що пропускають смуги.
Еса Йокінен

4
@ConstantinJacob Bonding, як правило, хешує деякі поля в заголовку і використовує це, щоб вибрати посилання в пакеті. Якщо в хешованих полях є достатня кількість варіантів, трафік буде розподілений рівномірно. Якщо хешовані поля однакові, буде використовуватися лише одне посилання в пакеті. Поля, включені в хеш, залежать від реалізації, але зазвичай включають поля, такі як MAC / IP / порт джерела / призначення та номер протоколу.
kasperd

5
@ConstantinJacob Сформульовано дещо інакше. Кожне TCP-з'єднання, яке ви здійснюєте через свій пакет, буде присвоєно випадковому посиланню в пакеті. Якщо у вас є 10 підключень TCP, можливо, вам пощастить, щоб вони отримали по одному посиланню кожен. Але набагато більше шансів на те, що буде одне або більше непрацюючих посилань, а деякі TCP-з'єднання будуть посиланнями спільного доступу. Це проблема проблеми з збирачем купонів, і ви повинні розраховувати на досягнення близько 30 з'єднань TCP, перш ніж ви навіть почнете використовувати всі посилання, і навіть більше, перш ніж трафік стане рівним.
kasperd

8
З точки зору бізнесу, є ще одна важлива відмінність. По-перше, один 48-портовий 10GbE комутатор все ще коштує менше десяти 48-портових комутаторів 1 Гбіт. Підключити та керувати 48 кабелями значно простіше, ніж 480 кабелів. Сервери мають обмежену кількість слотів для карт, тому одна 10 GbE-карта може легко переносити 20 Gbps, можливо, 40 Gbps, але одна карта 1 Gb, як правило, може підтримувати лише 4 Gbps. Якщо ми називаємо все це чимось на кшталт "щільність пропускної здатності", то збільшена щільність пропускної здатності на 10 GbE має реальні технічні та економічні переваги.
Тодд Вілкокс

20

10 Гбіт / с через порти x10 1 Гбіт / с

Я відповідаю лише заради повноти і щоб врятувати вам деякі головні болі. У мене понад 20 тис. Серверів роблять щось подібне до цього, і можу вам сказати, що це погана ідея. Цей метод додає багато складності, що згодом викличе операційні проблеми. Ми зробили це за допомогою 4 1gb nics на сервері. У той час це насправді було більше сенсу, ніж їздити на 10 гіг. У той час 10-кілограмовий повсюди був би в багато разів більшим за ціна за дуже невеликий прибуток. Наші недавні ітерації наших центрів обробки даних більше не роблять цього.

LACP-зв'язок ( режим 4 ) з одним партнером LAG дасть вам 10 Гбіт / с, майже стільки ж, як один порт 10 Гбіт / с. Це дійсно можна зробити за допомогою більш ніж одного перемикача, але вони повинні підтримувати MLAG, інакше вам потрібно підключитися лише до одного комутатора. Якщо вони не підтримують MLAG, ви отримуєте лише 1 перемикач пропускної здатності. Інші інтерфейси будуть у режимі очікування. (так 5gb / s, якщо у вас є 2 перемикачі).

Одне з'єднання використовуватиме лише одне посилання, але ви можете розділити трафік там, де це потрібно на шарі 7, якщо вам потрібно, або ви можете заглянути в MPTCP, але підтримка цього є новою в останніх ядрах, і я не впевнений, що він готовий для прайм-тайму. Ви можете розділити синхронізацію даних за допомогою LFTP + SFTP та дзеркальної підсистеми LFTP. Він навіть може розділити один файл на кілька потоків. Існує також бітторент.

Ви не зможете робити DHCP на цих портах з точки зору клієнта до PXE, завантажуючи інсталятор ОС , якщо ви не змусите eth0 на стороні сервера, що технічно порушує моніторинг LACP. Це може бути зроблено, але не повинно бути , і це буде зробити усунення проблем більш важкою , якщо ви змушуєте інтерфейс вгору.

У вашому конфігурації зв’язку вам доведеться генерувати унікальну MAC-адресу, яка відрізняється від усіх ваших фізичних інтерфейсів, або у вас будуть гоночні умови завдяки способу роботи PXE / DHCP, якщо припустимо, що у вашому налаштуванні є DHCP / PXE. В Інтернеті є багато прикладів того, як генерувати унікальний MAC bond0 на льоту.

Для цього також потрібна конфігурація на стороні комутатора, яка вирівнюється з кожною з конфігурацій облікових записів ваших серверів. Вам потрібно буде встановити демон LLDP, щоб усунути неполадки з цим менш болісно, ​​і LLDP включений на ваших комутаторах.

Якщо ви це зробите, ваше маркування та маркування повинні бути бездоганними. Автоматизація вашого перемикача повинна бути надійною. Одне зміщення кабелю, яке поєднує 2 сервери, спричинить дуже цікаві проблеми.

Кудос Джей в IBM за те, що він зробив код зв’язку настільки ж хорошим, як і він, і за те, що ми могли розібратися, як зробити так, щоб DHCP працював у цій конфігурації.


1
Мені дещо цікаво, де ви працюєте, щоб було 20k вузлів із сполученими посиланнями 4x1 ... це якась нетривіальна інфраструктура, яку ви описуєте lol.
Кайтар

"Ви не зможете робити DHCP на цих портах" - Це клієнт або сервер DHCP , або обидва?
MSalters

Про клієнта. Якщо ви запустили ваші сервери, то вам доведеться змусити eth0 і змусити порт переключення eth0 вгору, або вам доведеться використовувати інший метод для завантаження ОС.
Аарон

1
@Kaithar Я другий нетривіальний аспект. Я б припустив, що це було занадто далеко, щоб вмістити два класи серверів. Уніфікованість домінувала в загальному визнанні. Тепер, коли все відбувається подвійним 10 Гбіт / с, ми все ще робимо LACP з одним партнером MLAG, тож 20 Гбіт / с загалом і більше не потрібно форсувати інтерфейси.
Аарон

0

Це залежить. Якщо в первинному протоколі трафіку є вбудоване багатосторінкове балансування навантаження, наприклад, iSCSI, це працює дуже добре. У облігації є маса проблем, про які вже описані інші відповіді.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.