SAN з декількома накопичувачами SSD або багато старомодних жорстких дисків?


9

Моя компанія намагається з'ясувати, який тип САН придбати. Це спеціально для серверів баз даних, які стають обмеженими в IO (зберігання зараз DAS, але ми досягаємо межі одного сервера, і ми також хотіли б додати кластеризацію).

Нам потрібно рішення, яке дасть близько 3000 IOPS в довгостроковій перспективі (зараз ми досягаємо 1000 IOPS). Більшість операцій з нашою базою даних - це невеликі читання / записи. На підставі обговорень з інженерами HP та іншими користувачами в Інтернеті, HP P2000 з 24 SAS HD в конфігурації RAID 10 забезпечить лише цю швидкість за ~ 20 000 доларів. Додайте до контролерів та інших елементів для розробки SAN, що відповідає нам максимуму бюджету в 30 000 доларів.

Але в Інтернеті я бачу, що багато SAS SSD мають швидкість доставки 80 000 IOPS +. Це реально очікувати? Якщо так, то було б реально отримати P2000 або подібний SAN початкового рівня і закинути туди кілька SSD? Наші бази даних невеликі, всього лише кілька туберкульозу. Якби ми це зробили, у нас залишиться грошей, щоб купити другий SAN для дзеркального відображення / відмови, що здається доцільним.


3
Я відповім на це незабаром.
ewwhite

Чи можете ви зв’язатись із конкретною моделлю / типом SAN, який ви хочете використовувати? Існує багато застережень, які поставляються із масивами зберігання в стилі HP P2000. Як ви плануєте підключитися? iSCSI? Волокна? SAS?
ewwhite

Також, яка це платформа бази даних?
ewwhite

Ось модель, яку я дивився, просто з іншою конфігурацією приводу: aventissystems.com/product-p/200385.htm . СУБД є стандартом SQL Server 2008 R2. Ми дійсно готові до будь-якої конфігурації / постачальника, доки ми можемо "дешево" масштабуватись у майбутньому та до тих пір, поки будемо утримувати наш скромний бюджет.
Звуковий сигнал

Скільки потрібно ємності?
ewwhite

Відповіді:


4

Я можу говорити про особливості того, що ви намагаєтеся досягти. Чесно кажучи, я б не вважав початковий рівень HP P2000 / MSA2000 для ваших цілей.

Ці пристрої мають багато обмежень і з точки зору набору функцій SAN - це не що інше, як коробка дисків. Ніяких рівнів, не інтелектуального кешування, максимум 16 дисків у групі віртуальних дисків , низькі можливості IOPS, погана підтримка SSD (особливо на обраному вами блоці).

Вам потрібно буде підійти до HP MSA2040, щоб побачити будь-які переваги в роботі та офіційну підтримку SSD-дисків. Плюс, ви дійсно хочете використовувати iSCSI?

DAS може бути найкращим варіантом, якщо ви можете терпіти місцеве зберігання. Флеш-пам’ять PCIe надійде під ваш бюджет, але ємність потрібно буде ретельно спланувати.

Чи можете ви детальніше ознайомитись із специфікаціями власних серверів? Зробити / моделювати тощо.

Якщо кластеризація є обов'язковою, інший варіант - зробити блок HP MSA2040, але використовувати блок SAS замість iSCSI. Це менш затратно, ніж інші моделі, дозволяє підключити 4-8 серверів, пропонує низьку затримку та велику пропускну здатність, а ще може підтримувати SSD. Навіть з моделями Fiber або iSCSI цей пристрій надасть вам більше гнучкості, ніж той, з яким ви пов’язані.


Дякую! У нас є всі сервери HP, в першу чергу HP DL380. Єдині причини, по яких ми розглядали iSCSI, - це те, що нам здалося легше розширити минулі 4 сервери (якщо ми хотіли висунути інші дані сервера на SAN), і це було трохи швидше (10Gb проти 6Gb).
звуковий сигнал

Однак, я погляну на MSA2040 ... не впевнений, чому він раніше не з'являвся на нашому радарі.
звуковий сигнал

Я можу побачити плутанину ... Якщо ви не плануєте розширюватися за межі 4 або 8 серверів, SAS працює досить добре. І це не 10Gb проти 6Gb ... це 10Gb проти 4-смугового інтерфейсу SAS (48Gbps до корпусу).
ewwhite

Я щойно побачив, що програмне забезпечення віддаленого оснащення працює лише на iSCSI або FC ... ми сподівалися використати віддалене оснащення для відображення SAN в кінцевому підсумку. Або є інший процес через SAS, який би дозволив досягти тієї ж можливості?
звуковий сигнал

@Beepbeep Я, мабуть, використовував інший процес DR. Я схильний не покладатися на накопичувач або пристрій на рівні SAN. Але 10GbE та FC версії MSA2040 можуть вам краще підійти.
ewwhite

6

Основне правило, яке я використовую для дискового вводу:

  • 75 ВОН на шпиндель для SATA.

  • 150 ВОН на шпиндель для FC / SAS

  • 1500 IOP на шпиндель для SSD.

Як і ВГД на масив, також враховуються ВГД на терабайт. Не рідкість виявитись дуже поганим співвідношенням ВГД на ТБ, якщо ви робите SATA + RAID6. Це може здатися не надто сильним, але ви часто виявляєте, що хтось помітить "вільний простір" на масиві та захоче його використовувати. Люди звичайно купують концерти та ігнорують iops, коли дійсно навпаки в більшості корпоративних систем.

Потім додайте вартість штрафу на запис для RAID:

  • 2 для RAID1, RAID1 + 0
  • 4 для RAID5 (або 4)
  • 6 для RAID6.

Штраф для запису може бути частково пом’якшений приємними кешами великого запису та за правильних обставин. Якщо у вас багато послідовного вводу IO (наприклад, журнали БД), ви можете значно зменшити штрафні санкції на RAID 5 та 6 досить. Якщо ви можете написати повну смужку (наприклад, один блок на шпинделі), вам не доведеться читати, щоб обчислити паритет.

Припустимо, набір 8 + 2 RAID 6. У звичайній роботі для одного запису IO потрібно:

  • Прочитайте блок "оновлений".
  • Прочитайте перший блок паритету
  • Прочитайте другий блок паритету
  • Перерахуйте паритет.
  • написати всі 3. (6 ІО).

З кешованим повним записом смужки - наприклад, 8 послідовних "шматок" розміром смужки RAID, ви можете обчислити паритет на всю партію, не потребуючи читання. Тож вам потрібно лише 10 записів - по одній на кожну інформацію та дві паритетності.

Це робить ваш штраф 1.2.

Ви також повинні мати на увазі, що запис IO легко кешувати - вам не потрібно отримувати його на диск відразу. Він працює в умовах обмеженого часового обмеження - до тих пір, поки ваші вхідні записи в середньому не перевищують швидкість шпинделя, всі вони зможуть працювати зі швидкістю кешу.

Читання IO, з іншого боку, зазнає важких обмежень - ви не можете виконати прочитане, поки дані не будуть отримані. Алгоритми зчитування кешування та кеш-пам’яті читання стають важливими в цей момент - передбачувані шаблони читання (наприклад, послідовні, як ви отримаєте з резервного копіювання) можна передбачити і попередньо встановити, але випадкові зчитування зчитування не можуть.

Для баз даних я б, як правило, пропонував вам припустити, що:

  • Більшість IO 'бази даних' випадково зчитується. (наприклад, погано для випадкового доступу). Якщо ви можете дозволити собі накладні витрати, RAID1 + 0 добре - адже дзеркальні диски дають два джерела зчитування.

  • більша частина вашого «журналу» IO - це послідовне записування. (наприклад, добре для кешування, і всупереч тому, що запропонують багато DBA, ви, мабуть, хочете RAID50, а не RAID10).

Співвідношення двох важко сказати важко. Залежить, що робить БД.

Оскільки випадкове читання IO - це найгірший випадок кешування, саме там SSD дійсно входить у свій власний - багато виробників не турбують кешування SSD, оскільки це все одно приблизно однакова швидкість. Отже, особливо для таких речей, як темп-бази даних та індекси, SSD дає хороший прибуток від інвестицій.


Дякуємо, ми на 100% RAID10, тому що ми зосереджені на базах даних.
звуковий сигнал

Це звичайно, але це також помилка. RAID10 насправді досить марнотратний, насамперед, орієнтований на роботу навантаження. Написаний кешований RAID5 / RAID6 має менший штраф при записі, наприклад, при написанні файлів журналу бази даних.
Sobrique

3

Ваш аналіз досить правильний.

Використовуйте кілька жорстких дисків для великої кількості ГБ, а також багато жорстких дисків до декількох IOps.
Використовуйте кілька SSD-дисків для великої кількості IOP, а також багато SSD для декількох ГБ

Що для вас важливіше? Космос є великим фактором витрат для SSD-рішень, оскільки ціна за ГБ набагато вища. Якщо ви говорите про базу даних на 200 ГБ, необхідні 4K IOP, пара SSD отримає вас там. Або 24 дисковий масив на 15 К накопичувачів, що залишає вам багато місця для масового зберігання.

Скільки IOps ви дійсно отримаєте з цих SSD, багато в чому залежить від інфраструктури зберігання (ewwhite буде докладно розроблений на цьому), але розумно отримувати такі швидкості. Особливо з Raid10, де паритет не обчислюється.


Дякуємо за відгук! Чи доцільно змішувати диски? Тобто встановити 4 SSD для завдань, орієнтованих на продуктивність, а потім купу жорстких дисків для масового зберігання?
звуковий сигнал

3
@Beepbeep Так, але будьте в курсі компромісів. Багато іопів витрачатимуть ресурси контролера, а це означає, що ви не отримаєте максимум послідовної пропускної здатності від жорстких дисків. Багато послідовної пропускної здатності на жорстких дисках можуть витіснити IO з SSD, збільшивши затримку через канали. Якщо це має значення для вас, але їх на різних каналах.
sysadmin1138

0

Нещодавно я створив пару серверів зберігання даних для свого роботодавця, використовуючи шасі Dell C2100, запустивши FreeBSD 10.1 з дванадцятьма привідними SATA накопичувачами Western Digital "SE" 2TB 7200 об / хв. Приводи знаходяться в одному пулі ZFS, що складається з двох 6-накопичувальних віртуальних пристроїв RAIDZ-2 (vdevs). До пулу додаються пари SSD-дисків Intel DC S3500, які є суперзахищеними від втрати електроенергії, вони використовуються як SLOG, так і L2ARC. Завантажуючи тестування цього сервера через iSCSI, я зміг вдарити 7500-8200 IOPS. Наша загальна вартість, включаючи жорсткі диски, становила близько 2700 доларів за один сервер.

Під час роботи цих систем на базі BSD один з наших підрозділів HP MSA2012i SAN зазнав двох несправностей контролера, а інший наш блок MSA2012i пошкодив великий обсяг NTFS, що потребував 12 годин простою.

Dell та HP продають вам 10% обладнання та 90% обіцянки підтримки, яку ви ніколи не зможете використовувати.


Це правда ... Частина мене хотіла порекомендувати сервер HP, на якому працює ZFS (або ОС на базі ZFS), оскільки він буде працювати набагато краще, ніж MSA / P2000 ... але я не хотів виходити по дотичній.
ewwhite

О, у мене немає проблем з HP. HP і Dell чудово обладнані серверним обладнанням. Зазвичай завантажується краще, ніж шасі шасі iStarUSA або Norco. Але якщо мова йде про критичні пристрої (SAN / NAS в моїй книзі критично важливі), я рекомендую рішення з якомога більшою прозорістю. Прилади SAN - великі чорні коробки. Вони чудово працюють, поки вони цього не роблять, і тоді ти до кривиці ****.
катод
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.