VMware VMFS5 і LUN розмір - кілька менших сховищ даних, або 1 велика сховище даних?


10

Оскільки VMFS5 вже не має межі 2 ТБ для обсягу VMFS, я розглядаю, який сценарій був би кориснішим у цілому: -

  • Менше LUN ​​з більшими розмірами, або
  • Більше LUN ​​менших розмірів.

У моєму випадку у мене є новий накопичувальний масив з 24 дисками на 600 ГБ. Я буду використовувати RAID10, приблизно 7,2 ТБ, і намагаюся вирішити, чи потрібно використовувати 1 великий 7TB сховище даних або кілька магазинів по 1 ТБ кожен.

Які плюси і мінуси кожного підходу?

Оновлення : Звичайно, я знехтував включити гарячі запасні частини у свій розрахунок, тому це буде трохи менше 7,2 ТБ, але загальна ідея та ж. :-)

Оновлення 2 : Є 60 ВМ і 3 хости. Жоден з наших відеомашин не має інтенсивного вводу / виводу. Більшість з них - сервери веб / додатків, а також такі речі, як моніторинг (munin / nagios), 2 постійних комп'ютера з Windows з мінімальним навантаженням тощо. Сервери БД рідко віртуалізуються, якщо у них ДУЖЕ низькі вимоги вводу / виводу Зараз я думаю, що єдиний віртуальний сервер БД - це вікно MSSQL, а БД у цьому вікні - <1 Гб.

Оновлення 3 : додаткова інформація про масив та підключення до FC. Масив - це IBM DS3524, 2 контролери з 2 ГБ кешу кожен. 4x порти 8 Гбіт FC на контролер. Кожен хост ESXi має 2x 4 Гбіт FC HBA.


1
Ви маєте ліцензію на використання StorageDRS?
Chopper3

@ Chopper3: на даний момент у нас є звичайні ліцензії Enterprise, а не Plus, тому наразі немає StorageDRS.
ThatGraemeGuy

@ThatGraemeGuy Якою була резолюція щодо цього?
ewwhite

@ewwhite: На жаль, я не можу згадати. Це було так давно, і я вже не рік від цієї роботи. :-( Я смутно пам'ятаю, що робив 4 сховища даних VMFS однакового розміру на 24-дисковому масиві, і я знаю, що після переходу на новий масив, FWIW, у нас взагалі не було проблем з введенням-виведенням
ThatGraemeGuy,

Відповіді:


4

Ви не вказали, скільки у вас віртуальних машин або що вони будуть робити. Навіть не маючи цієї інформації, я б уникав одного великого LUN з причин блокування / продуктивності, суперечок та гнучкості.


2

Я припускаю, що ви збираєтеся віртуалізувати сервери, а не настільні комп’ютери, все в порядку? Далі я припускаю, що ви будете використовувати кілька серверів ESX / ESXi для доступу до вашої пам’яті та керувати ними vCenter Server.

Приймаючи рішення про розмір LUN та кількість VMFS, ви врівноважуєте декілька факторів: продуктивність, гнучкість конфігурації та використання ресурсів, при цьому пов'язані підтримувані максимальні налаштування вашої інфраструктури.

Ви можете отримати найкращі показники за допомогою відображення від 1 ВМ до 1 LUN / VMFS. Немає конкуренції між машинами на одній і тій же VMFS, немає блокуючих суперечок, кожне навантаження розділене і все є goood. Проблема полягає в тому, що ви збираєтеся керувати нечестивою кількістю LUN, можете потрапити на підтримувані максимальні межі, зіткнетесь з головними болями зі зміною розміру та міграцією VMFS, недовикористаними ресурсами (цей єдиний відсотковий вільний простір у VMFS додається) і взагалі створюєте те, що не приємно керувати.

Інша крайність - один великий VMFS, призначений для розміщення всього. Ви отримаєте найкраще використання ресурсів таким чином, не буде жодної проблеми з вирішенням того, що робити, де розгортатись, і проблеми, коли VMFS X є гарячою точкою, а VMFS Y простоює. Витрати становлять сукупні показники. Чому? Через блокування. Коли один ESX пише в заданий VMFS, інші блокуються на час, необхідний для завершення вводу-виводу та повинні повторити спробу. Це коштує продуктивності. Поза межами ігрового майданчика / тесту та середовищ розробки неправильний підхід до конфігурації сховища.

Загальноприйнята практика полягає у створенні сховищ даних досить великих розмірів для розміщення кількох віртуальних машин та розділення наявного місця для зберігання на шматки відповідного розміру. Яка кількість ВМ залежить від віртуальних машин. Можливо, ви хочете отримати одну або декілька критичних виробничих баз даних на VMFS, але дозволити три-чотири десятки машин для тестування та розробки на одній сховищі даних. Кількість VM в сховищі даних також залежить від вашого обладнання (розмір диска, об / хв, кеш-пам'ять контролерів тощо) та моделей доступу (для будь-якого рівня продуктивності ви можете розміщувати набагато більше веб-серверів на тому ж VMFS, ніж поштові сервери).

Менші сховища даних мають ще одну перевагу: вони заважають фізично забивати занадто багато віртуальних машин на сховищі даних. Жоден об'єм тиску управління не помістить зайвий терабайт віртуальних дисків на пів-терабайт-накопичувачі (принаймні, доки вони не почують про тонке забезпечення та дедуплікацію).

Ще одне: при створенні цих сховищ даних стандартизуйте на розмір одного блоку. Це спрощує багато чого пізніше, коли ви хочете зробити щось у сховищах даних і побачити некрасиві помилки "не сумісні".

Оновлення : DS3k матиме активні / пасивні контролери (тобто будь-який даний LUN може обслуговуватися або контролером A, або B; доступ до LUN через невласний контролер несе штрафну ефективність), тож виплатити буде мати рівну кількість LUN , рівномірно розподілений між контролерами.

Я міг би уявити, починаючи з 15 ВМ / LUN з простором до 20 або більше.


До речі, набагато менше блокуючих суперечок з VMFS5, ніж раніше, до речі.
Chopper3

Додано додаткову інформацію про віртуальні машини та систему зберігання даних.
ThatGraemeGuy

1

Коротка відповідь на ваше запитання: все залежить від того, якими є ваші схеми вводу-виводу, і це буде унікальним для вашого оточення.

Я пропоную вам заглянути тут http://www.yellow-bricks.com/2011/07/29/vmfs-5-lun-sizing/, оскільки це може допомогти вам розглянути очікуваний IOPS і скільки LUNS може бути придатним. Це означає, що якщо ви помиляєтесь на стороні обережності, деякі люди рекомендують мати багато LUNS (Якщо моє виправлення попередньої відповіді схвалено, дивіться мої коментарі щодо черг LO IO на стороні масиву). Я схильний погоджуватися, але хотів би піти далі, а потім розподілити їх разом в один / кілька томів VMFS (не вірте FUD щодо розширень та інших обмежень VMFS http://virtualgeek.typepad.com/virtual_geek/2009/03 /vmfs-best-practices-and-counter-fud.html). Це матиме перевагу керування однією / декількома сховищами даних в межах vSphere, а оскільки vSphere автоматично врівноважує VM за наявними розширеннями, починаючи з першого блоку кожного ступеня, вигода від продуктивності поширює ваш IO на кілька LUN.

Ще щось, що слід врахувати ... Ви кажете, що жоден з віртуальних машин не є інтенсивним IO. Враховуючи це, ви можете розглянути комбінацію RAID5 та RAID10, щоб отримати найкраще з обох світів (простір та швидкість).

Крім того, якщо у вас VM налаштовані з декількома VMDK, з шаблонами ОС I та додатків, розповсюдженими на цих віртуальних дисках (тобто ОС, веб, БД, журнали тощо, кожен на окремому VMDK), ви можете знайти кожен VMDK на інший сховище даних для відповідності можливостям вводу-виводу цього фізичного LUN (наприклад, ОС на RAID5, журнали на RAID10). Це все про збереження подібних шаблонів вводу-виводу, щоб скористатися механічною поведінкою базових дисків, щоб, наприклад, запис журналу в одній машині Відомості не впливав на швидкість читання в Інтернеті в іншій машині.

FYI ... ви можете успішно віртуалізувати сервери БД, вам просто потрібно проаналізувати шаблони введення-виведення та швидкість IOPS та націлити цей IO на відповідний LUN; весь час знаючи про схеми вводу-виводу та IOPS, які LUN вже робить. Ось чому багато адміністраторів звинувачують у віртуалізації за низьку продуктивність БД ... тому що вони не ретельно обчислювали IO / IOPS, які створювали б декілька серверів, коли вони розміщували їх на спільному LUN (тобто це помилка адміністратора, а не вина віртуалізації. ).


0

Кожен том (LUN) має власну глибину черги, тому, щоб уникнути суперечок IO, багато реалізацій використовують більше менших LUN. Однак, ви можете зробити LUN-сховища даних досить легко. Недоліком більших (і менших) сховищ даних VMWare є, наскільки я знаю, те, що ви можете зіткнутися з деякими обмеженнями кількості VM, які можуть бути одночасно.


0

Інша увага - продуктивність контролера. Я спеціально не знаю вашого SAN, але більшість, якщо не всі SAN вимагали, щоб LUN був власником одного контролера одночасно. Ви хочете мати достатню кількість LUN в системі, щоб ви могли врівноважити навантаження між контролерами.

Наприклад, якби у вас був лише один LUN, ви використовували б один активний контролер одночасно. Інший би сидів бездіяльно, так як це нічого не робити.

Якби у вас було два LUN, але один був набагато зайнятішим, ніж інший, ви використовували б обидва контролери, але не однаково. Коли ви додаєте більше LUN, контролери розподіляють навантаження більш рівномірно.

Конкретні поради для вас:

Усі ваші вітрини порівняно однакові з точки зору вимог до продуктивності. Я створив би два LUN, по одному на контролер. Почніть вводити VM на перший LUN, і вимірюйте затримку вводу / виводу та глибину черги протягом часу, коли VM осідають. Не використовуйте другий LUN ще. Продовжуйте заповнювати LUN 1. Ви або досягнете точки, коли ви почнете бачити показники продуктивності, що LUN заповнений, або ви перенесли половину ваших віртуальних машин на цю LUN і збережете продуктивність.

Якщо ви бачите проблеми з продуктивністю, я видаляю 30% віртуальних машин з LUN 1 і переміщую їх до LUN 2. Потім починаю заповнювати LUN 2 таким же чином. Перейдіть до LUN 3, якщо потрібно ... чи це має сенс? Ідея полягає в тому, щоб досягти максимальної щільності ВМ на даному ЛУН разом із приблизно 30% накладними витратами для приміщення.

Я б також зробив пару "високопродуктивних" LUN-дисків для будь-яких сильних ударів VM. Знову по одному на контролер, щоб поділити навантаження.


-1

Виходячи з ваших пояснень, описаних вище, вам слід погодитися з 1 сховищем даних. 60 Вм понад 3 господарів - це не так вже й погано (20: 1). Проте я рекомендую вам оновити HBA до 8Gb, якщо це можливо фінансово принаймні на одному хості, за умови, що ваш перемикач волокон є мінімум 8Gb комутатором.

Зважаючи на це, я б зробив принаймні 2, якщо не 3 сховища даних на масиві. 1 сховище даних на хост, при цьому всі сервери мають доступ до інших для vMotion. Я мало знаю про масив IBM; за допомогою EMC я створив би одну групу RAID10 з 3 LUN для кожної сховища даних. З цією установкою хост із 8 Гб HBA буде чудовим для ваших вищих систем вводу / виводу.

Ви можете зробити 1 сховище даних / сервер, і є кілька випадків, які я роблю сам, але це роблю лише за допомогою реплікації SAN на спеціальних серверах. Управління 87 різними сховищами даних на 9 серверах для vMotion стає заплутаним, коли ви його налаштовуєте! Більшість моїх відеоматеріалів знаходяться у сховищах даних із 5-10 серверами, залежно від того, скільки місця їм потрібно.

Одне заключне зауваження. Якщо у вас є будь-які сервери в режимі відключення пари / кластеру або завантаження збалансовано, вам потрібно їх захотіти в різних сховищах даних. Ви не хочете, щоб сховище даних вийшло з ладу, а потім залишатись без серверів. Справді, якщо ви втратите масив, ви втратили все, але саме тому ми робимо резервну копію, правда?


2
Мені важко вірити, що для ОП потрібно більше 2х4 Гб пропускної здатності або навіть 1х 4 Гб. Чи можете ви пояснити, чому це оновлення варто того, окрім "більше завжди краще"? Також створення 3 сховищ даних схоже на хороший баланс, але сказати "один на хост" є заплутаним, оскільки, очевидно, всі сховища даних будуть доступні всім хостам. Інакше ви не можете використовувати Storage vMotion, vMotion або HA ...
Jeremy

Я не кажу, що додайте 8Gb по всій платі, як я вже сказав, це рекомендація, а не вимога. 2x4Gb - це чудово, і я ніколи не буду робити 1x4Gb просто тому, що вам потрібен зайвий шлях. Наявність його на одному просто дозволяє будь-яке розширення на більш високі системи вводу / виводу. Чорт, я зараз запускаю нашу систему обміну з 2x4Gb HBA, але вони мають лише 3-4 VM на хоста.
ARivera3483
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.