Я працюю над розширенням сервера зберігання для декількох кластерів VMware vSphere 5.5 та 6.0 у своєму центрі обробки даних. Я в основному використовував сховища даних NFS протягом усього досвіду роботи з VMware (Solaris ZFS, Isilon, VNX, Linux ZFS), і можу ввести в середовище масив nimble iSCSI , а також можливий гібридний масив Tegile (ZFS) .
Поточні рішення для зберігання даних - це масиви на базі Nexenta ZFS та Linux ZFS, які забезпечують кріплення NFS для хостів vSphere. Підключення до мережі забезпечується через 2 x 10GbE LACP-магістралі на головках зберігання та 2 x 10GbE на кожному хості ESXi. Вимикачі - це подвійні верхні пристрої Arista 7050S-52, налаштовані як однорангові MLAG .
Що стосується vSphere, я використовую розподілені комутатори vSphere (vDS), налаштовані LACP-зв’язками в 2-х 10GbE-посиланнях та мережевому вході / виводу управління (NIOC), що розподіляють акції для групи портів VM, NFS, vMotion та трафіку управління.
Такий підхід до вирішення та дизайну чудово працював роками, але додавання блоку iSCSI-сховища для мене є великим зрушенням. Мені ще потрібно буде зберегти інфраструктуру NFS на огляд.
Мені хотілося б зрозуміти, як я можу інтегрувати iSCSI в це середовище, не змінюючи фізичного дизайну. МЛАГ на перемикачах ToR для мене надзвичайно важливий.
- Для зберігання на основі NFS LACP є загальноприйнятим засобом забезпечення надмірності шляху.
- Для iSCSI LACP, як правило, нахмуриться, рекомендуючи багатосторонній дизайн MPIO.
- Я використовую 10GbE скрізь і хотів би зберегти прості посилання з двома портами на кожен із серверів. Це для простоти кабелів та дизайну.
З огляду на вищесказане, як я можу максимально використати рішення iSCSI?
- Налаштувати iSCSI через LACP?
- Створіть VMkernel адаптери iSCSI на vDS і спробуйте прив’язати їх до окремих посилань, щоб досягти якихось мутантних MPIO?
- Додати ще мережеві адаптери?