Варіанти дизайну iSCSI для розподілених комутаторів 10GbE VMware? MPIO проти LACP


9

Я працюю над розширенням сервера зберігання для декількох кластерів VMware vSphere 5.5 та 6.0 у своєму центрі обробки даних. Я в основному використовував сховища даних NFS протягом усього досвіду роботи з VMware (Solaris ZFS, Isilon, VNX, Linux ZFS), і можу ввести в середовище масив nimble iSCSI , а також можливий гібридний масив Tegile (ZFS) .

Поточні рішення для зберігання даних - це масиви на базі Nexenta ZFS та Linux ZFS, які забезпечують кріплення NFS для хостів vSphere. Підключення до мережі забезпечується через 2 x 10GbE LACP-магістралі на головках зберігання та 2 x 10GbE на кожному хості ESXi. Вимикачі - це подвійні верхні пристрої Arista 7050S-52, налаштовані як однорангові MLAG .

Що стосується vSphere, я використовую розподілені комутатори vSphere (vDS), налаштовані LACP-зв’язками в 2-х 10GbE-посиланнях та мережевому вході / виводу управління (NIOC), що розподіляють акції для групи портів VM, NFS, vMotion та трафіку управління.

введіть тут опис зображення

Такий підхід до вирішення та дизайну чудово працював роками, але додавання блоку iSCSI-сховища для мене є великим зрушенням. Мені ще потрібно буде зберегти інфраструктуру NFS на огляд.

Мені хотілося б зрозуміти, як я можу інтегрувати iSCSI в це середовище, не змінюючи фізичного дизайну. МЛАГ на перемикачах ToR для мене надзвичайно важливий.

  • Для зберігання на основі NFS LACP є загальноприйнятим засобом забезпечення надмірності шляху.
  • Для iSCSI LACP, як правило, нахмуриться, рекомендуючи багатосторонній дизайн MPIO.
  • Я використовую 10GbE скрізь і хотів би зберегти прості посилання з двома портами на кожен із серверів. Це для простоти кабелів та дизайну.

З огляду на вищесказане, як я можу максимально використати рішення iSCSI?

  • Налаштувати iSCSI через LACP?
  • Створіть VMkernel адаптери iSCSI на vDS і спробуйте прив’язати їх до окремих посилань, щоб досягти якихось мутантних MPIO?
  • Додати ще мережеві адаптери?

Відповіді:


1

Я б не рекомендував запускати iSCSI над LACP, оскільки дійсно немає користі для нього над надмірністю надсилання посилань.

Створення вимикачів VMkernel для iSCSI на вашому vDS з програмним забезпеченням iSCSI HBA - саме те, що вам слід зробити. Це дасть тобі справжній MPIO. Ця публікація в блозі здається дещо актуальною для того, що ви намагаєтесь ігнорувати необхідність міграції зі стандартних комутаторів: https://itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi-storage-from- a-стандартний перемикач-на-розподілений-перемикач /

Вам не потрібно буде додавати більше мережевих адаптерів, якщо у вас вже є два для iSCSI. Однак я рекомендую вам включити джомбові кадри (MTU 9000) у вашій мережі iSCSI. Це потрібно встановити на всіх рівнях мережі, таких як VMkernel, vDS, фізичні комутатори та прилади SAN.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.