Яка розподілена файлова система як резервний хмарний обчислення?


11

У мене є основна хмара, що працює на сервері Ubuntu (9.04) та евкаліпті. Морж (сумісна реалізація API Евкаліпта S3) зберігає файли на хмарному контролері. Однак кожен з інших 4-х серверів має 1 ТБ сховища, яке в основному не використовується. Я шукаю спосіб об'єднати всі сховища разом, щоб використати всі наявні ресурси. Я шукав різні варіанти, включаючи PVFS, Luster, HDFS (Hadoop).

Мої єдині вимоги - це те, що він повинен бути масштабованим і що він працює добре на Ubuntu. Я буду вдячний слухати всіх, хто має досвід таких технологій, і я з нетерпінням чекаю Ваших пропозицій.


Якби це не потрібно було Ubuntu, я б сказав ZFS.
Бред Гілберт

3
За винятком того, що ZFS не є кластерною файловою системою.
MarkR

Відповіді:


5

Хоча я особисто його не реалізував ніде в наших системах, я досить глибоко роздивився Gluster . Я знаю небагатьох людей на деяких великих сайтах, які використовують це, і це, мабуть, працює дуже добре. Вони використовують його у виробництві для деяких важких додатків HPC.


2

GlusterFS здавалося б ідеальним рішенням для мене. Хлопцеві, який стверджує, що Gluster вимагає великих зусиль, щоб налаштувати, я повинен сказати, що він, мабуть, ніколи не намагався. Станом на Gluster 3.2, утиліти конфігурації є досить приголомшливими, і для отримання гучного рівня та обміну в мережі потрібно 2 або 3 команди. Монтаж об'ємів глюстера однаково простий.

З іншого боку, це також дає вам набагато більшу гнучкість, ніж NFS. Це стриптизми, реліктації, геореплікації, звичайно сумісні з POSIX тощо. Існує розширення під назвою HekaFS, яке також додає SSL та більш досконалі механізми аутентифікації, що, мабуть, цікаво для хмарних обчислень. Також це ваги! Це F / OSS і розробляється RedHat, який нещодавно придбав Gluster.


1

Ви коли-небудь переглядали mogileFS? http://danga.com/mogilefs/

Це не файлова система в традиційному розумінні, але вона хороша для розповсюдження файлових даних по кластері (з урахуванням реплікації та надмірності).

Якщо ви розміщуєте файли для веб-додатків, вам знадобиться щось для обслуговування файлів. Я б запропонував сценарій PHP, який використовує HTTP-запит як ключ пошуку для пошуку потрібного файлу у мобільній FS. Потім ви можете прочитати вміст файлу в буфері та відлучити / роздрукувати його.

MogileFS вже досить швидкий, але ви можете комбінувати mogileFS з мемошами, щоб прискорити доступ до найчастіше використовуваних файлів.


Я, мабуть, згадую, що у MogileFS був єдиний момент відмови, у разі вузла метаданих. HDFS має подібну проблему.
Девід Пашлі

MogileFS здається досить цікавим, і його тиражування та надмірність є ідеальним, однак, здавалося б, він непридатний для загального використання, оскільки програми повинні знати, що вони працюють на ньому. Більш підходить традиційна файлова система, згідно з якою додатки можуть бути агностичними FS.
Jaunty

1
У MogileFS може працювати декілька трекерів, і ви можете мати перехід на підтримку mysql в бекенді. Таким чином ви зможете усунути всі одиничні точки відмови.
davidsheldon

1

З Luster у вас повинно бути спеціальне ядро ​​на серверах, а я б тільки сервери були сервери і більше нічого.

Як не дивно, найбільш розумною відповіддю є добре NFS. Ми використовували NFS на хмарі Amazon. Це може не мати масштабів, а також деякі файлові системи, але простота не повинна мене нехтувати. Простір одного імені, мабуть, не вартий зусиль, які знадобиться для його впровадження.


1

Ви все ще шукаєте в HDFS? Один з хлопців Cloudera цього року говорив у VelocityConf про Hadoop та HDFS, орієнтовані на управління великими кластерами даних, тому він досить багато говорив про HDFS. Слайди досить інформативні. Я не працював особисто з HDFS, але я спілкувався з випадковими людьми на швидкості, які використовують його в Ubuntu, щоб робити різні аналізи даних.


1

Поміщення якоїсь спільної файлової системи за середовищем віртуалізації є досить поширеним явищем. У вас є багато варіантів, залежно від того, що ви хочете досягти.

Найпростішим рішенням є, мабуть, NFS, тому що це буде підтримуватися на самому світі будь-яким дистрибутивом, який ви працюєте. NFS може працювати досить добре як файлова система віртуалізації, хоча це не буде найшвидшим.

Якщо ви використовуєте кластер RedHat (або похідний), ви матимете хорошу підтримку нестандартної підтримки GFS2, файлової системи кластерів RedHat. Це не масштабує до сотні вузлів, але це добре для менших кластерів.

Крім цього, ви починаєте вводити цілий ряд таких речей, як Luster, Glusterfs, GPFS тощо. Це всі високопродуктивні паралельні файлові системи, але для їх налаштування потрібна значно більша робота, ніж інші параметри. Якщо у вас є велике середовище, можливо, їх варто поглянути.


1

Я погодився б з @larsks в тому, що NFS - найкращий варіант; встановити деякі цілі iSCSI, NFS, виконано. це масштабується приблизно до 5-10 вузлів; YMMV на основі вводу-виводу, можливостей мережі тощо (як альтернатива, налаштувати iSCSI з підтримкою багатостороннього вводу / виводу).

Якщо вам потрібно щось про 20+ вузлів, ви можете дослідити Ceph . Блиск багатообіцяючий і стабільний, але це (F / OSS) продукт Oracle, і я маю неприязнь проти Oracle. :)

Сефі також досить активні; останній реліз був 5 днів тому.


Блиск вже не під парасолькою Oracle. Дивіться whamcloud.com
утопія

1

XtreemFS може бути рішенням для вас. Встановити та налаштувати досить просто, також є пакети для Ubuntu.



0

Не впевнений, що ви робите, але це звучить як потенційно цікавий додаток для CouchDB .


0

Ви можете спробувати PVFS2 . Налаштувати його набагато простіше, ніж Luster, і взагалі швидше, ніж Gluster.


швидше, ніж Gluster? Ви можете поділитися будь-якими даними щодо продуктивності?
John-ZFS

У мене немає останніх орієнтирів. Ще в 2008 році Gluster був набагато повільніше, ніж Luster, тоді як PVFS2 був лише трохи повільнішим. Зараз це може бути інакше, можливо, я порівняю це.
wazoox

дякую, якщо ви зробите тест, будь ласка, повідомте мене про це. maruti.j@gmail.com або ви можете зробити публікацію на сервері за замовчуванням для всіх вигод
John-ZFS
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.