хороші рішення про відмову / доступність для Linux? [зачинено]


9

У мене є кілька випадків, коли мені потрібно перенести програми з одного сервера на інший у разі відмови (зависання сервера або аварія).

У solaris ми робимо це за допомогою VCS (Veritas Cluster Server). Які варіанти доступні для Linux?

Будь ласка, вкажіть рівень зусиль для налаштування / обслуговування або вартість (якщо така є) для кожного.

- Докладніше додано -

Щоб дати уявлення про рівень складності:

  • сервер, який не працює, може зависнути або вийти з ладу без попереднього повідомлення, можливо, він все ще може працювати "ping"
  • серверу відновлення потрібно запустити програми з відмовою
  • як тільки сервер завантажується / циклів живлення, він стає пасивним, оскільки не заважає серверу відновлення.

Це вузол для збору даних або обчислення, а не база даних, тому більш прості рішення можуть працювати.

- ще більше деталей (вибачте) -

спільне зберігання не є можливим, але для переходу з одного сервера на інший потрібно не дуже багато стану (за наявності). Ми підтримуємо два сервери синхронізовано через rsync.

Дуже дякую за всі публікації.

Відповіді:


10

http://linux-ha.org/ для всіх ваших потреб у високій доступності. Як сказано в пісні, найкращі речі в житті - безкоштовні.


ви можете порекомендувати гарну книгу?
slf

4

Я використовував різноманітні кластерні рішення в Linux. Я також є прихильником управління конфігурацією, тому додам трохи про це в своїх описах (шеф-кухар чи лялька, тобто)

Veritas кластерний сервер (VCS). Минуло деякий час, але ми розгорнули кілька кластерів Linux VCS на RHEL 3.0. Я сподіваюся, що його доступні на RHEL 5.0. Вам слід ознайомитись із труднощами у встановленні цього, як його звичної території. Як вам відомо, VCS коштує дорого. Анекдотично, VCS не дуже підходить для встановлення в управлінні конфігурацією.

Якщо говорити про RHEL, то Red Hat Cluster Suite значно дозрів з моменту первинного випуску RHEL 2.1. Етап налаштування / конфігурації досить простий, а документація дуже повна і корисна, і, як VCS, ви можете придбати підтримку у постачальника. Що стосується комерційних продуктів HA, RHCS є за розумною ціною. Я б використовував лише керування конфігурацією для встановлення пакетів та підтримки їх "вручну" через веб-інтерфейс. Крім того, я чув, що деякі люди використовують його на не-Red Hat платформах, хоча я не маю досвіду з цим безпосередньо.

Linux-HA (drbd / heartbeat) також чудові, хоча конфігурація, що виходить від VCS, може здатися спрощеною, але при цьому нелегкою. Це досить легко автоматизувати за допомогою інструменту управління конфігурацією.

Як доказ концепції, я встановив кластер Linux з HACMP IBM - їх кластерним програмним забезпеченням AIX. Я б не рекомендував цього, наскільки я пам’ятаю, це дорожче, ніж навіть VCS. IBM має специфічні процедури встановлення та обслуговування HACMP, я не використовував би тут управління конфігурацією.


4

Майкл правдивий, що громада трохи розбита, а документація - дуже рідка.

Власне, це все є, зрозуміти це просто неможливо. Те, що ви дійсно хочете, - це електронна книга "Пояснення конфігурації пейсмейкера" ... ( Посилання на PDF ). Ви хочете прочитати його близько десятка разів, а потім спробуйте її реалізувати, а потім прочитати ще десяток разів, щоб ви могли насправді її виправити.

Найкраще підтримувана реалізація служб кластерів для Linux на даний момент, ймовірно, буде SLLS11 від Novell і це розширення з високою доступністю (HAE). Він ПОСЛІДНО вийшов місяць-два тому, і він оснащений гарним товстим посібником на 200 сторінок, який описує, як його налаштувати та запустити роботу. Novell також чудово підтримує конфігурації Pacemaker в різних формах.

Крім цього, є реалізація RHEL5, яка має той самий пакет і гідну документацію, але я думаю, що це дорожче, ніж SLES. Принаймні, це для нас.

Я б уникнув серцебиття прямо зараз і поїхав би з Pacekmaker / OpenAIS, тому що вони будуть набагато краще підтримуватись у майбутньому. ЯКЩО нинішній стан громади такий, що є кілька експертів, є кілька людей, які керують цим виробництвом, і є ціла тонна людей, які абсолютно незрозумілі. Приєднуйтесь до списку розсилки Pacemaker і зверніть увагу на людину на ім’я Ендрю Бекхоф.

Змініть, щоб надати запитувані дані:

Pacemaker / OpenAIS використовує операцію "монітор" на "примітивному ресурсі" (наприклад, nfs-сервері), щоб відслідковувати, що робить ресурс. Якщо приклад сервера NFS не реагує на решту кластера протягом X числа секунд, то кластер виконає операцію STONITH (Shoot the Other Node In The Head), щоб вимкнути первинний вузол, підвищивши вторинний вузол до активного. У конфігурації ви вирішите, що робити після цього та пов'язані з цим дії. Деталі про реалізацію звідти залежать від того, яку службу ви намагаєтеся відмовити, вікна виконання певних операцій (наприклад, просування основного вузла назад до майстра) та все, наскільки це можливо налаштовано.


1

На даний момент спільнота HA Linux дещо розділена.

Інструменти, відомі як Linux HA в даний час Pacemaker і OpenAIS , вони найчастіше запускаються в поєднанні з DRBD, коли архітектура спільного використання нічого не потрібна.

Я пропоную отримати гарну книгу на цю тему перед тим, як зануритися, оскільки це досить всеосяжна область, а стан проектів не обов'язково такий же зручний, як деякі рішення постачальників.

Є також Linux-рішення деяких постачальників програмного забезпечення кластеру, але я не можу вам сказати багато про них, оскільки я ніколи їх не використовував.


1
Чи можете ви запропонувати добру книгу чи дві на цю тему?
Метт Сіммонс

1

З Linux ми реалізували кластеризацію з серцебиттям та drbd. Серцебиття перевіряє стан сервера. DRBD використовується для синхронізації даних між серверами. У нас є сервіс Oracle, який працює на одному сервері та apache на іншому сервері. Коли сервер, що працює на сервері Oracle, не працює, серцебиття відчуває те саме і відновлює службу Oracle на сервері, що працює під управлінням apache. і навпаки. Використовували цю установку для багатьох інших цілей і були надійними на сьогоднішній день.


1

Red Hat Cluster Suite зробить все, що завгодно, майже для кожного можливого застосування. У поєднанні з GFS та Cluster LVM ви можете мати суцільне спільне зберігання.

Технічне обслуговування не набагато складніше, ніж утримання окремих коробок. Міграція додатків фактично полегшує виправлення окремих скриньок.

RHCS поставляється з веб-інтерфейсом (Luci) та GTK-фронтедом (system-config-cluster), щоб зробити конфігурацію та міграцію можливою. Це дозволить вам налаштувати домени відмовлення на додаток, політику відновлення, фехтування, все з однієї центральної веб-консолі управління.

Враховуючи той факт, що RHCS насправді має досить надійний варіант підтримки, я б пішов на RHCS.

Не впевнений, скільки це вам коштуватиме, але я вважаю, що це в межах декількох тисяч доларів.


1

UltraMonkey , її частково будується на основі Linux-HA рамки. Я завжди вважав це більше рішенням, що врівноважує навантаження, ніж справжній кластер, але він справляється непогано.


Це все ще оновлюється? на сайті написано:Copyright © 2000-2005, Horms Last Updated: Sat Mar 4 16:33:57 2006 +0900
NickW

0

Ми використовуємо віртуальний сервер Linux і зберігаємо їх для високої доступності. keepalived може або зробити VRRP на самих хостах (які, я вважаю, покладається на тому, що інший сервер помирає), або ви можете встановити його на окремому хості, щоб зробити балансування завантаження, яке може перевірити доступність сервісу. Можливо, можна налаштувати перевірки обслуговування в першій ситуації, але я не перевірив. Друга ситуація особливо хороша, якщо ви можете працювати на обох серверах одночасно, інакше ви можете зробити перемикання вручну.


0

Я написав програмний балансир навантаження для TCP, який не потребує окремої машини. Він ділиться однією IP-адресою, оголошуючи його за адресою на рівні багатоадресної зв'язку та ведучи переговори між машинами, щоб уникнути двох машин, що обслуговують одне і те ж з'єднання TCP.

Суть полягає в тому, що вона насправді не готова до виробництва - але якщо ви хочете протестувати її у вашій тестовій мережі, я буду радий.

Пухнастий кластер тут

Я не обов'язково виявляю "живу, але хвору" ситуацію, але роблю балансування навантаження між серверами-членами (якщо процес користувальницького простору гине, інші вузли помітять і видалять невдалий вузол)


0

Це не безкоштовно, але ті, хто не має часу та знань, щоб встановити власне рішення HA на Linux, відповідь знаходиться на веб-сайті www.rapidscaleclusters.com. За лічені хвилини ви працюєте, легкий в установці та запуску, він також підтримується.


не впевнений, чому хтось це відзначив ... це схоже на життєздатне рішення (хоча завжди є технічні проблеми ... принаймні, це не схоже на "послугу", яке було моїм першим враженням).
ericslaw

0

Я працюю над відкритим вихідним кодом менеджера кластерів з відмовою, написаним у сценарії оболонки. Це в хорошій формі, навіть якщо він може пропустити певну інтеграцію, яка вам знадобиться. Перевірте це і повідомте мені, чи є якась відсутня функція, яку ви хотіли б побачити та використовувати: https://github.com/nackstein/back-to-work/

якщо ви добре займаєтесь програмуванням оболонок (оболонка POSIX), ви можете приєднатися до розробки проекту: D

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.