Наскільки ефективний рівень зберігання даних LSI CacheCade SSD?


22

LSI пропонує свою технологію багаторівневого зберігання даних CacheCade , яка дозволяє пристроям SSD використовувати як кеш-пам'ять для читання та запису для збільшення традиційних масивів RAID.

Інші постачальники застосували подібні технології; Контролери HP SmartArray мають свій SmartCache . Adaptec має MaxCache ... Не кажучи вже про низку програмних прискорювальних засобів ( sTec EnhanceIO , Velobit , FusionIO ioTurbine , Intel CAS , Facebook flashcache ?) .

Виходячи з фону ZFS , я використовую різні типи SSD для кешування кешування читання (L2ARC) та запису кешування (ZIL). Для відповідних навантажень потрібні різні ознаки; Низька затримка та витривалість кешування запису. Висока ємність для читання.

  • Оскільки SSD-диски CacheCade можуть використовуватися для кешування запису та зчитування, з якою метою грає бортовий NVRAM контролер?
  • Якщо використовується як кеш запису, яка небезпека існує для SSD-дисків CacheCade щодо витривалості запису? Використання споживчих SSD-дисків, мабуть, рекомендується.
  • Чи надходять записи прямо на SSD або вони спочатку потрапляють у кеш контролера?
  • Наскільки розумний алгоритм кешування читання? Я розумію, як функціонують ARC ZFS і L2ARC . Чи є якісь ознайомлення з процесом укладення CacheCade?
  • Які показники існують для контролю ефективності налаштування CacheCade? Чи існує метод спостереження за коефіцієнтом чи відсотком ураженої кількості кешу ? Як ви можете сказати, чи справді це працює?

Мене цікавлять думки та відгуки щодо рішення LSI. Будь-які застереження? Поради?


2
Adaptec має те саме. ДУЖЕ хороше запитання.
TomTom

Відповіді:


9

Оскільки SSD-диски CacheCade можуть використовуватися для кешування запису та зчитування, з якою метою грає бортовий NVRAM контролер?

Якщо залишити функцію кешування запису контролера увімкненою, NVRAM все ще буде використовуватися в основному. Кеш запису SSD зазвичай буде використовуватися лише для більшої кількості даних запису, де тільки NVRAM недостатньо для того, щоб не відставати.

Якщо використовується як кеш запису, яка небезпека існує для SSD-дисків CacheCade щодо витривалості запису? Використання споживчих SSD-дисків, мабуть, рекомендується.

Це залежить від того, наскільки часто ваші записи стають необхідним, щоб кеш запису SSD став необхідним ... чи ваші накопичувачі здатні обробляти завантаження запису досить швидко, що NVRAM не заповнює. У більшості сценаріїв, які я бачив, кеш запису майже не має жодної дії, тому я б не очікував, що це матиме великий вплив на стійкість запису - більшість записів на SSD, ймовірно, будуть частиною вашого читання кешування

Чи надходять записи прямо на SSD або вони спочатку потрапляють у кеш контролера?

Відповідав вище ... Кеш контролера потрапляє першим, кеш SSD - це більше 2-а лінія захисту.

Наскільки розумний алгоритм кешування читання? Я розумію, як функціонують ARC ZFS і L2ARC. Чи є якісь ознайомлення з процесом укладення CacheCade?

Вибачте ... немає знань, які могли б сприяти цьому - сподіваємось, хтось ще матиме деяке розуміння?

Які показники існують для контролю ефективності налаштування CacheCade? Чи існує метод спостереження за коефіцієнтом чи відсотком ураженої кількості кешу? Як ви можете сказати, чи працює він?

Не схоже, що для цього доступні будь-які засоби моніторингу, як це стосується інших реалізацій SAN цього набору функцій ... І оскільки віртуальний диск CacheCade не представлений в ОС, ви, можливо, не матимете ніякого способу вручну моніторити активність. Це може просто вимагати подальшого тестування для перевірки ефективності ...

Думка / спостереження: У багатьох випадках (при правильному використанні читання кешу, відповідного розміру для робочого набору даних) ця функція змушує ЛЮБИТИ. Але врешті-решт, це може бути ударом.


1
Гей, просто хотів додати, що можуть бути деякі показники, доступні в ОС, на сторінці 220, в якій йдеться про параметри MegaCLI (які можна встановити в Linux, Windows, Unix, Bsd тощо). Там написаноConvention MegaCli -perfmon -start -interval <val> -aN Description -perfmon: Specifies collection of performance data. The possible parameters are: -start: Starts the performance data collection. -interval: the time interval (in minutes) that you specified for which you want the performance data collection. The default value is 5 minutes
NickW


Хммм, не надто багатослівний. Я мав би побачити, як виглядає формат колекції.
ewwhite

Мені буде цікаво подивитися, які дані насправді збираються / повідомляються, якщо хтось тестує це ...
JimNim

1

Говорячи про апаратні рішення, я не знайшов способу дізнатися точне співвідношення показів або щось таке. Я вважаю, що для цього є дві причини: гучність позаду контролера видається як один привід (і тому він повинен "просто працювати"), і важко порахувати "хіти", які будуть не для файлів, а для секторів HDD, так може виникнути деяка частота показів навіть на порожньому HDD, що може заплутати. Більше того, алгоритми, що стоять за "гібридизацією", не є загальнодоступними, тому знання трактату не допоможе багато. Ви просто купуєте його і приводите його в роботу - низькі витрати (порівняно з чистим рішенням SSD), приємний вплив швидкості.

Підхід "Купуй та використовуй" - це досить непогана річ, але факт, що ніхто не знає напевно, як створити найшвидшу комбінацію: чи слід використовувати декілька великих HDD та декілька великих кеш-дисків, чи ми повинні використовувати багато маленьких HDD та кілька великих SSD і т.д., і яка різниця між 100 або, скажімо, 500 Гб або 2000 Гб кешу SSD (навіть 500 виглядає надмірним, якщо дані з гарячим обсягом мають невеликі розміри), і чи має це бути як 2x64Gb або 8x8Gb для передачі даних паралельний. Знову ж таки, кожен постачальник використовує власний алгоритм і може змінити його під час наступного оновлення прошивки.

Я пишу це здебільшого, щоб сказати, що мої висновки дали мені дивну відповідь: якщо ви використовуєте якийсь сервер загального призначення та загальнонавантажений профіль, то h / w гібридний контролер чудово підходить навіть при відносно невеликих SSD, але якщо ваші завдання раніше були конкретніше, вам краще скористатися рішенням s / w (яке ви зможете вибрати, оскільки ви єдиний, хто знає профіль завантаження) або для деяких накопичувачів PCI-карт високої ціни.


1

Ось деякі претензії від Dell:

Продуктивність зберігання - введення-вивід в секунду (IOPS):

  • CacheCade забезпечив збільшення в 3 рази більше IOPS, ніж лише накопичувач на жорсткому диску
  • SAS SSD-накопичувач досяг 8 разів більше IOPS, ніж накопичувач на жорсткому диску
  • Один експрес-флеш-привід призвів до 10,5 разів більше IOPS, ніж 16 жорстких дисків

Щодо IOPS, то їх кількість, схоже, нарівні. Я схильний зберігати звіти DiskSpd з різних серверів, і якщо я масштабую один з звітів, який я маю на рахунку шпинделя, який у мене є на сервері кеш-пам'яті, я повинен отримати лише близько 750k IOPS. Однак при тестуванні цього сервера я отримував понад 2М. Це дійсно єдиний раз, коли я бачив навантаження на процесор як фактор нитками diskspd, починаючи бути фактором. Зазвичай процесор все ще мінімальний, коли диск починає закривати, але це було не так. Я б'ю себе за те, що не запускаю diskspd з і без, але добре.

Інший фактор у тому, що він абсолютно прозорий ... витратьте кілька сотень баксів на менший корпоративний ssd-клас, додайте його як обсяг кешаду і все закінчено. Якщо у вас є гроші, щоб спалити на all-ss сховищі, то це не має значення, але для вдихання життя у фізичні шпинделі я вважаю, що це варто.


0

Я спробував це на Dell R515 з Dell PERC H700 Raid з 1 Гб пам'яті з парою 500 МБ / с SSD

Я робив розмітку своєї лавки через кілька годин після встановлення і через 48 годин

Я не побачив значного покращення швидкості запису, трохи покращення для Read, я зробив тест білий час тому, і у мене зараз немає чисел.

Але це було неважливо, і я в кінцевому підсумку використовував коробку пам’яті без цієї функції.

З мого досвіду, більшість із цих програм - лише жарт! якщо вам потрібно багаторівневе сховище, то створіть своє власне, отримайте надійне обладнання від Dell та заповніть коробку SSD-дисками

На моєму робочому місці багаторівнева робота дуже добре працює над додатком HP 3Par та адаптивною оптимізацією, працює як рекламується, але це рішення становить близько 100 К :)


11
Я не думаю, що поміщення кешу SSD перед SSD зовсім не допоможе :)
Майкл Хемптон
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.