Відмовостійкий кластер із двох серверів. Створення відмовостійкого кластера високої доступності Windows. Вимоги до мережних налаштувань

Вступ

Кластер серверів – це група незалежних серверів під керівництвом служби кластерів, які працюють як єдина система. Кластери серверів створюються шляхом об'єднання кількох серверів на базі Windows® 2000 Advanced Server та Windows 2000 Datacenter Server для спільної роботи, забезпечуючи тим самим високий рівень доступності, масштабованості та керованості для ресурсів та додатків.

Завданням кластера серверів є забезпечення безперервного доступу користувачів до додатків та ресурсів у випадках апаратних або програмних збоїв або планових зупинок обладнання. Якщо один із серверів кластера виявляється недоступним через збій або його зупинку для виконання технічне обслуговування, інформаційні ресурсита програми перерозподіляються між іншими доступними вузлами кластера.

Для кластерних системвикористання терміна « висока доступність»є кращим, ніж використання терміна « відмовостійкість», Оскільки технології забезпечення відмовостійкості припускають більш високий рівень стійкості обладнання до зовнішніх впливів та механізмів відновлення. Як правило, відмовостійкі сервери використовують високий ступінь апаратної надмірності плюс на додаток до цього спеціалізоване програмне забезпечення, що дозволяє практично негайно відновити роботу у разі будь-якого окремого збою програмного або апаратного забезпечення. Ці рішення коштують значно дорожче порівняно з використанням кластерних технологій, оскільки організації змушені переплачувати за додаткове. апаратне забезпечення, що простоює весь основний час, і використовується лише у разі виникнення збоїв. Відмовостійкі сервери використовуються для додатків, які обслуговують інтенсивний потік дорогих транзакцій у таких сферах діяльності, як центри обробки платіжних коштів, банкомати або фондові біржі.

Хоча служба кластерів і не гарантує безперервної роботи, вона надає високий рівень доступності, достатній для роботи більшості критично важливих додатків. Служба кластерів може відстежувати роботу додатків та ресурсів, автоматично розпізнаючи стан збоїв та відновлюючи роботу системи після їх усунення. Це забезпечує більше гнучке управлінняробочим навантаженням усередині кластера, і підвищує доступність системи загалом.

Основні переваги, які отримують при використанні служби кластерів:

  • Висока доступність.У разі відмови будь-якого вузла служба кластерів передає керування ресурсами, такими як, наприклад, жорсткі диски та мережні адреси, що діє вузлу кластера. Коли відбувається програмний або апаратний збій, програмне забезпечення кластера перезапускає додаток, що завершився з помилкою, на діючому вузлі, або переміщає все навантаження вузла, що відмовив на дії, що залишилися. Користувачі можуть помітити лише короткочасну затримку в обслуговуванні.
  • Повернення після відмови.Служба кластерів автоматично перерозподіляє робоче навантаження в кластері, коли вузол, що відмовив, знову стає доступним.
  • Керованість.Адміністратор кластера – це оснащення, яке Ви можете використовувати для управління кластером як єдиною системою, а також для управління програмами. Адміністратор кластера забезпечує прозоре представлення роботи додатків так, ніби вони виконувались на одному сервері. Ви можете переміщувати програми на різні сервери в межах кластера, перетягуючи об'єкти кластера мишею. Так само можна переміщати дані. Цей спосіб може використовуватися для ручного розподілу робочого навантаження серверів, а також для розвантаження сервера та його подальшої зупинки з метою проведення планового технічного обслуговування. Крім того, Адміністратор кластера дозволяє дистанційно проводити спостереження за станом кластера, всіх його вузлів та ресурсів.
  • Масштабованість.Для того щоб продуктивність кластера завжди могла відповідати зростаючим вимогам, служба кластерів має можливості масштабування. Якщо загальна продуктивність кластера стає недостатньою для обробки навантаження, створюваного кластерними додатками, до кластера можуть бути додані додаткові вузли.

Цей документ містить інструкції щодо встановлення кластерів на серверах, що працюють під керуванням Windows 2000 Advanced Server і Windows 2000 Datacenter Server, і описує процес встановлення служби кластерів на сервери кластерних вузлів. Даний посібник не описує встановлення та налаштування кластерних додатків, а лише допомагає Вам пройти через весь процес встановлення простого двовузлового кластера.

Системні вимоги до створення кластера серверів

Наступні контрольні списки допоможуть зробити підготовку до встановлення. Покрокові інструкції щодо встановлення будуть представлені далі після цих списків.

Вимоги до програмного забезпечення

  • Операційна система Microsoft Windows 2000 Advanced Server або Windows 2000 Datacenter Server, встановлений на всіх серверах кластера.
  • Встановлена ​​служба дозволу імен, така як Domain Naming System (DNS), Windows Internet Naming System (WINS), HOSTS і т.д.
  • Сервер терміналів для віддаленого адмініструваннякластерів. Ця вимогане є обов'язковим, а рекомендується лише задля забезпечення зручності управління кластером.

Вимоги до апаратного забезпечення

  • Вимоги до апаратного забезпечення вузла кластера аналогічні вимогам для встановлення операційних систем Windows 2000 Advanced Server або Windows 2000 Datacenter Server. Ці вимоги можна знайти на сторінці пошуку каталогу Microsoft.
  • Устаткування кластера має бути сертифіковано та вказано у списку сумісного апаратного забезпечення (HCL) каталогу Microsoft для служби кластерів. Останню версію цього списку можна знайти на сторінці пошуку Windows 2000 Hardware Compatibility Listкаталогу Microsoft, вибравши категорію пошуку "Cluster".

Два комп'ютери, які відповідають вимогам списку HCL, кожен з яких має:

  • Жорсткий диск із завантажувальним системним розділом та інстальованою операційною системою Windows 2000 Advanced Server або Windows 2000 Datacenter Server. Цей диск не повинен бути підключений до шини загального пристрою, розглянутого нижче.
  • Окремий PCI-контролер пристроїв оптичного каналу ( Fibre Channel) або SCSI для підключення зовнішнього загального пристрою. Цей контролер повинен бути присутнім на додаток до контролера завантажувального диска.
  • Два мережеві PCI адаптери, встановлені на кожному комп'ютері кластера.
  • Перелічений у списку HCL зовнішній дисковий пристрій, підключений до всіх вузлів кластера. Воно виступатиме як диск кластера. Рекомендується конфігурація за допомогою апаратних RAID-масивів.
  • Кабелі для підключення загального пристрою до всіх комп'ютерів. Щоб отримати інструкції щодо конфігурації пристроїв, зверніться до документації виробника. Якщо підключення здійснюється до шини SCSI, Ви можете звернутися до програми A для додаткової інформації.
  • Все обладнання на комп'ютерах кластера має бути повністю ідентичним. Це спростить процес конфігурування та позбавить Вас потенційних проблем із сумісністю.

Вимоги до налаштування конфігурації мережі

  • Унікальне NetBIOS ім'я кластера.
  • П'ять унікальних статичних IP-адрес: дві адреси для мережевих адаптерівприватної мережі, дві – для мережевих адаптерів публічної мережі, та одна адреса для кластера.
  • Доменний обліковий запис для служби кластерів (усі вузли кластера мають бути членами одного домену)
  • Кожен вузол повинен мати два мережеві адаптери – один для підключення до публічної мережі, один – для внутрішньокластерної взаємодії вузлів. Конфігурація з використанням одного мережного адаптера для одночасного підключеннядо публічної та приватної мережі не підтримується. Наявність окремого мережного адаптера для приватної мережі потрібна для відповідності вимогам HCL.

Вимоги до дисків загального пристрою.

  • Усі диски загального пристрою, включаючи диск кворуму, повинні бути фізично підключені до загальної шини.
  • Усі диски, підключені до загальної шини, мають бути доступні кожному вузла. Це можна перевірити на етапі встановлення та конфігурування хост-адаптера. Для отримання докладних інструкцій зверніться до документації виробника адаптера.
  • Пристрої SCSI повинні бути призначені цільові унікальні номери SCSI ID, крім цього, на шині SCSI повинні бути правильно встановлені термінатори, відповідно до інструкцій виробника. 1
  • Усі диски загального пам'яті повинні бути налаштовані як базові диски(не динамічні)
  • Усі розділи дисків загального пристрою мають бути відформатовані у файловій системі NTFS.

Вкрай рекомендується об'єднувати всі диски загального пристрою в апаратні RAID-масиви. Хоча це і не є обов'язковим, створення відмовостійких конфігурацій RAID є ключовим моментому забезпеченні захисту від дискових збоїв.

Встановлення кластера

Загальний огляд установки

Під час встановлення деякі вузли будуть вимкнені, а деякі перезавантажені. Це необхідно для того, щоб забезпечити цілісність даних, розташованих на дисках, підключених до загальної шини зовнішнього пристрою. Пошкодження даних може статися в той момент, коли кілька вузлів одночасно спробують зробити запис на той самий диск, не захищений програмним забезпеченням кластера.

Таблиця 1 допоможе Вам визначити, які вузли та пристрої, що запам'ятовують, повинні бути включені на кожному етапі установки.

Цей посібник описує створення двовузлового кластера. Тим не менш, якщо Ви встановлюєте кластер з більш ніж двома вузлами, Ви можете використовувати значення стовпця «Вузол 2»визначення стану інших вузлів.

Таблиця 1. Послідовність увімкнення пристроїв під час встановлення кластера

Крок Вузол 1 Вузол 2 Пристрій зберігання Коментар
Встановлення параметрів мережі Увімк. Увімк. Вимк. Переконайтеся, що всі пристрої зберігання даних, підключені до загальної шини, вимкнені. Увімкніть усі вузли.
Налаштування спільних дисків Увімк. Вимк. Увімк. Вимкніть усі вузли. Увімкніть спільний пристрій, а потім увімкніть перший вузол.
Перевірка конфігурації спільних дисків Вимк. Увімк. Увімк. Вимкніть перший вузол, увімкніть другий вузол. За необхідності повторіть вузли 3 і 4.
Конфігурування першого вузла Увімк. Вимк. Увімк. Вимкніть усі вузли; увімкніть перший вузол.
Конфігурування другого вузла Увімк. Увімк. Увімк. Після успішної конфігурації першого вузла увімкніть другий вузол. За необхідності повторіть вузли 3 і 4.
Завершення встановлення Увімк. Увімк. Увімк. До цього моменту всі вузли мають бути включені.

Перед встановленням програмного забезпечення кластерів необхідно виконати такі кроки:

  • Встановити на кожен комп'ютер кластера операційну систему Windows 2000 Advanced Server або Windows 2000 Datacenter Server.
  • Налаштувати параметри мережі.
  • Налаштувати диски загального пристрою.

Виконайте ці кроки на кожному вузлі кластера перед тим, як приступати до встановлення служби кластерів на першому вузлі.

Для конфігурування служби кластерів на сервері під керуванням Windows 2000 ваш обліковий запис повинен мати права адміністратора на кожному вузлі. Всі вузли кластера повинні бути одночасно рядовими серверами, або контролерами одного і того ж домену. Змішане використання рядових серверів та контролерів домену в кластері неприпустимо.

Встановлення операційної системи Windows 2000

Для установки Windows 2000 року на кожному вузлі кластера зверніться до документації, яку Ви отримали в комплекті з операційною системою.

У цьому документі використовується структура імен із керівництва "Step-by-Step Guide to Common Infrastructure for Windows 2000 Server Deployment". Однак Ви можете використовувати будь-які імена.

Перш ніж починати встановлення служби кластерів, Ви повинні виконати вхід системи під обліковим записом адміністратора

Налаштування параметрів мережі

Примітка:На цьому етапі установки вимкніть усі загальні пристрої, а потім увімкніть усі вузли. Ви повинні виключити можливість одночасного доступу декількох вузлів до спільного пристрою до того моменту, коли служба кластерів буде встановлена, Крайній мірі, на одному з вузлів, і цей вузол буде включено.

На кожному вузлі має бути встановлене як мінімум два мережеві адаптери – один для підключення до публічної мережі, і один для підключення до приватної мережі, що складається з вузлів кластера.

Мережевий адаптер приватної мережі забезпечує взаємодію між вузлами, передачу відомостей про поточному станікластера та управління кластером. Мережевий адаптер публічної мережі кожного вузла з'єднує кластер із громадською мережею, що з клієнтських комп'ютерів.

Переконайтеся, що всі адаптери адаптера правильно підключені фізично: адаптери приватної мережі підключені лише до інших адаптерів приватної мережі, і адаптери публічної мережі підключені до комутаторів публічної мережі. Схема підключення зображена на малюнку 1. Виконайте таку перевірку на кожному вузлі кластера, перш ніж переходити до налаштування дисків загального пристрою.

Рисунок 1: Приклад двовузлового кластера

Конфігурування мережного адаптера приватної мережі

Виконайте ці кроки на першому вузлі кластера.

  1. Моє мережеве оточення та виберіть команду Властивості.
  2. Клацніть правою кнопкою миші на значку .

Примітка:Який мережевий адаптер обслуговуватиме приватну мережу, а який публічну, залежить від фізичного підключеннямережевих кабелів. У даному документіми будемо припускати, що перший адаптер (Підключення через локальну мережу) підключений до публічної мережі, а другий адаптер (Підключення через локальну мережу 2) підключений до приватної мережі кластера. У Вашому випадку це може бути негаразд.

  1. Стан.Вікно Стан Підключення до локальної мережі 2показує стан підключення та його швидкість. Якщо підключення перебуває у вимкненому стані, перевірте кабелі та правильність з'єднання. Усунення проблеми, перш ніж продовжити. Натисніть кнопку Закрити.
  2. Знову клацніть правою кнопкою миші на значку Підключення через локальну мережу 2, виберіть команду Властивостіта натисніть кнопку Налаштувати.
  3. Виберіть вкладку Додатково.З'явиться вікно, зображене на малюнку 2.
  4. Для мережних адаптерів приватної мережі швидкість роботи повинна бути виставлена ​​вручну замість значення, яке використовується за замовчуванням. Вкажіть швидкість Вашої мережі в списку, що розкривається. Не використовуйте значення "Auto Sense"або "Auto Select"для вибору швидкості, оскільки деякі адаптери мережі можуть скидати пакети під час визначення швидкості з'єднання. Щоб задати швидкість мережного адаптера, вкажіть фактичне значення для параметра Тип підключенняабо Швидкість.

Рисунок 2: Додаткові налаштування мережного адаптера

Усі мережні адаптери кластера, підключені до однієї мережі, мають бути однаково налаштовані та використовувати однакові значення параметрів Дуплексний режим , Управління потоком, Тип підключення, і т. д. Навіть якщо на різних вузлах використовується різне мережне обладнання, значення цих параметрів мають бути однаковими.

  1. Виберіть Протокол Інтернету (TCP/IP)у списку компонентів, які використовуються підключенням.
  2. Натисніть кнопку Властивості.
  3. Встановіть перемикач у положення Використовувати наступну IP-адресута введіть адресу 10.1.1.1 . (Для другого вузла використовуйте адресу 10.1.1.2 ).
  4. Задайте маску підмережі: 255.0.0.0 .
  5. Натисніть кнопку Додатковота виберіть вкладку WINS.Встановіть значення перемикача у положення Вимкнути NetBIOS через TCP/IP. Натисніть OKдля повернення до попереднього меню. Виконуйте цей крок лише для адаптера приватної мережі.

Ваше діалогове вікно має виглядати, як зображено на малюнку 3.

Рисунок 3: IP-адреса підключення до приватної мережі

Конфігурування мережного адаптера мережі

Примітка:Якщо в публічній мережі працює DHCP-сервер, IP-адреса для мережного адаптера мережі може призначатися автоматично. Однак, для адаптерів вузлів кластера цей спосіб використовувати не рекомендується. Ми настійно рекомендуємо призначати постійні IP-адресидля всіх публічних та приватних мережевих адаптерів вузлів. В іншому випадку при відмові DHCP-сервера доступ до вузлів кластера може бути неможливим. Якщо Ви змушені використовувати DHCP для мережних адаптерів публічної мережі, використовуйте тривалі терміниоренда адрес – це дасть гарантію того, що динамічно призначена адреса залишиться дійсною, навіть якщо DHCP-сервер виявиться тимчасово недоступним. Адаптерам приватної мережі завжди призначайте постійні IP-адреси. Пам'ятайте, що служба кластерів може розпізнавати лише один інтерфейс мережі в кожній підмережі. Якщо Вам потрібна допомога у питаннях призначення мережевих адресу Windows 2000, зверніться до вбудованої довідки операційної системи.

Перейменування мережевих підключень

Для ясності ми рекомендуємо змінити назву мережевих підключень. Наприклад, Ви можете змінити назву підключення Підключення через локальну мережу 2на . Такий метод допоможе Вам простіше ідентифікувати мережі та правильно призначати їх ролі.

  1. Клацніть правою кнопкою миші на значку 2.
  2. У контекстному меню виберіть команду Перейменувати.
  3. Введіть Підключення до приватної мережі кластерау текстовому полі та натисніть клавішу ВВЕДЕННЯ.
  4. Повторіть кроки 1-3 та змініть назву підключення Підключення до локальної мережіна Підключення до мережі.

Рисунок 4: Перейменовані мережеві підключення

  1. Перейменовані підключення до мережі повинні виглядати, як показано на малюнку 4. Закрийте вікно Мережа та віддалений доступдо мережі. Нові назви мережних з'єднань автоматично реплікуються на інші вузли кластера при їх включенні.

Перевірка мережних з'єднань та дозволів імен

Щоб перевірити роботу налаштованого мережного обладнання, виконайте такі кроки для всіх мережних адаптерів кожного вузла. Для цього Ви повинні знати IP-адреси всіх мережевих адаптерів у кластері. Ви можете отримати цю інформацію, виконавши команду ipconfigна кожному вузлі:

  1. Натисніть кнопку Пуск,виберіть команду Виконатита наберіть команду cmdв текстовому вікні. Натисніть OK.
  2. Наберіть команду ipconfig /allта натисніть клавішу ВВЕДЕННЯ. Ви побачите інформацію про налаштування IP-протоколу для кожного мережевого адаптера на локальній машині.
  3. Якщо у Вас ще не відкрито вікно командного рядка, виконайте крок 1.
  4. Наберіть команду ping ipaddressде ipaddress– це IP-адреса відповідного мережного адаптера на іншому вузлі. Припустимо для прикладу, що мережні адаптери мають такі IP-адреси:
Номер вузла Ім'я мережного підключення IP-адреса мережевого адаптера
1 Підключення до публічної мережі 172.16.12.12
1 Підключення до приватної мережі кластера 10.1.1.1
2 Підключення до публічної мережі 172.16.12.14
2 Підключення до приватної мережі кластера 10.1.1.2

У цьому прикладі Вам потрібно виконати команди ping 172.16.12.14і ping 10.1.1.2з вузла 1, та виконати команди ping 172.16.12.12і ping 10.1.1.1 із вузла 2.

Щоб перевірити роздільну здатність імен, виконайте команду ping, використовуючи як аргумент ім'я комп'ютера замість його IP-адреси. Наприклад, щоб перевірити роздільну здатність імені для першого вузла кластера з ім'ям hq-res-dc01, виконайте команду ping hq-res-dc01з будь-якого клієнтського комп'ютера.

Перевірка приналежності до домену

Усі вузли кластера повинні бути членами одного домену та мати можливості мережевої взаємодіїз контролером домену та DNS-сервером. Вузли можуть бути налаштовані як рядові сервери домену або як контролери одного і того ж домену. Якщо Ви вирішите зробити один з вузлів контролером домену, всі інші вузли кластера також повинні бути налаштовані як контролери цього ж домену. У цьому посібнику передбачається, що це вузли є контролерами домену.

Примітка:Для отримання посилань на додаткову документацію щодо налаштування доменів, служб DNSта DHCP у Windows 2000 дивіться розділ Пов'язані ресурсинаприкінці цього документа.

  1. Клацніть правою кнопкою миші Мій комп'ютерта виберіть команду Властивості.
  2. Виберіть вкладку Мережева ідентифікація . У діалоговому вікні Властивості системиВи побачите повне ім'якомп'ютера та домену. У нашому прикладі домен називається reskit.com.
  3. Якщо Ви налаштували вузол як рядовий сервер, то на цьому етапі Ви можете приєднати його до домену. Натисніть кнопку Властивостіта дотримуйтесь вказівок, щоб приєднати комп'ютер до домену.
  4. Закрийте вікна Властивості системиі Мій комп'ютер.

створення облікового записуслужби кластерів

Для служби кластерів необхідно створити окремий доменний обліковий запис, від імені якого він запускатиметься. Програма встановлення потребує введення облікових даних для служби кластерів, тому обліковий запис повинен бути створений до початку встановлення служби. Обліковий запис не повинен належати будь-якому користувачеві домену, і повинен використовуватися виключно для роботи кластерів.

  1. Натисніть кнопку Пуск, виберіть команду Програми / Адміністрація, запустіть оснастку.
  2. Розгорніть категорію reskit.comякщо вона ще не розгорнута
  3. У списку виберіть Users.
  4. Клацніть правою кнопкою миші на Users, виберіть у контекстному меню Створити, Виберіть Користувач.
  5. Введіть ім'я для облікового запису кластера, як показано на малюнку 5, і натисніть кнопку Далі.

Рисунок 5: Додавання користувача Cluster

  1. Встановіть прапорці Заборонити зміну пароля користувачемі Термін дії пароля не обмежений. Натисніть кнопку Даліта кнопку Готово, щоб створити користувача.

Примітка:Якщо Ваша адміністративна політика безпеки не дозволяє використовувати паролі з необмеженим терміномВи повинні будете оновити пароль і зробити конфігурацію служби кластерів на кожному вузлі до закінчення терміну його дії.

  1. Клацніть правою клавішею миші на користувачеві Clusterв правої панеліоснащення Active Directory – користувачі та комп'ютери.
  2. У контекстному меню виберіть команду Додати учасників до групи.
  3. Виберіть групу Адміністраторита натисніть OK. Тепер новий обліковий запис має привілеї адміністратора на локальному комп'ютері.
  4. Закрийте оснащення Active Directory – користувачі та комп'ютери.

Налаштування дисків загального пристрою.

Попередження:Переконайтеся, що принаймні на одному з вузлів кластера встановлено операційну систему Windows 2000 Advanced Server або Windows 2000 Datacenter Server, а також настроєно та працює служба кластерів. Тільки після цього можна завантажувати операційну систему Windows 2000 інших вузлах. Якщо ці умови не виконуються, диски кластера можуть бути пошкоджені.

Щоб розпочати налаштування дисків загального пристрою, вимкніть усі вузли. Після цього увімкніть загальний пристрій, а потім увімкніть вузол 1.

Диск кворуму

Диск кворуму використовується для зберігання контрольних точок та файлів журналу відновлення бази даних кластера, забезпечуючи керування кластером. Ми надаємо такі рекомендації для створення диска кворуму:

  • Створіть невеликий розділ (щонайменше 50 Мб), щоб використовувати його як диск кворуму. Зазвичай ми рекомендуємо створювати диск кворуму розміром 500 Мб.
  • Виділіть окремий диск для ресурсу кворуму. Оскільки у випадку виходу з ладу диска кворуму відбудеться збій роботи всього кластера, ми рекомендуємо використовувати апаратний дисковий RAID-масив.

Під час встановлення кластерів Ви повинні призначити літеру диску кворуму. У нашому прикладі ми будемо використовувати букву Q.

Конфігурування дисків загального пристрою.

  1. Клацніть правою кнопкою миші Мій комп'ютер, виберіть команду Управління. У вікні розкрийте категорію Пристрої, що запам'ятовують.
  2. Виберіть команду Управління дисками.
  3. Переконайтеся, що всі диски загального пам'яті відформатовані в системі NTFS і мають статус Основний. Якщо Ви підключите новий диск, автоматично запуститься Майстер підписування та оновлення дисків. Коли майстер запуститься, натисніть кнопку Оновити,щоб продовжити його роботу, після цього диск буде визначено як Динамічний. Щоб перетворити диск на базовий, клацніть правою кнопкою миші на Диск #(де # – номер диска, з яким Ви працюєте) та виберіть команду Повернутися до базового диску.

Клацніть правою кнопкою миші область Не розподіленопоряд із відповідним диском.

  1. Виберіть команду Створити розділ
  2. Запуститься Майстер створення розділу. Двічі натисніть кнопку Далі.
  3. Введіть бажаний розмір розділу в мегабайтах та натисніть кнопку Далі.
  4. Натисніть кнопку Далі, прийнявши запропоновану за промовчанням букву диска
  5. Натисніть кнопку Далідля форматування та створення розділу.

Призначення букв дискам

Після того, як шина даних, диски та розділи загального пристрою запам'ятовується, необхідно призначити літери диска для всіх розділів всіх дисків кластера.

Примітка:Точки підключення – це функціональна можливість файлової системи, яка дозволяє Вам встановлювати файлову систему, використовуючи існуючі каталоги без призначення літери диска. Точки підключення не підтримуються кластерами. Будь-який зовнішній диск, що використовується як ресурс кластера, повинен бути розбитий на NTFS розділи, і цим розділам мають бути призначені букви диска.

  1. Клацніть правою кнопкою миші потрібний розділ та виберіть команду Зміна літери диска та шляху диска.
  2. Виберіть нову букву диска.
  3. Повторіть кроки 1 і 2 для всіх дисків загального пристрою.

Рисунок 6: Розділи дисків із призначеними літерами

  1. Після закінчення процедури вікно оснащення Керування комп'ютероммає виглядати, як зображено на малюнку 6. Закрийте оснащення Керування комп'ютером.
  1. Натисніть кнопку Пуск, Виберіть Програми / Стандартні, і запустіть програму « Блокнот».
  2. Наберіть кілька слів та збережіть файл під ім'ям test.txt, вибравши команду Зберегти якз меню Файл. Закрийте Блокнот.
  3. Двічі клацніть на значку Мої документи.
  4. Клацніть правою кнопкою миші на файлі test.txtта в контекстному меню виберіть команду Копіювати.
  5. Закрийте вікно.
  6. Відкрийте Мій комп'ютер.
  7. Двічі клацніть на розділі диска загального пристрою.
  8. Клацніть правою кнопкою миші та виберіть команду Вставити.
  9. На диску загального пристрою має з'явитися копія файлу test.txt.
  10. Двічі клацніть на файлі test.txt, щоб відкрити його з диска спільного пристрою. Закрийте файл.
  11. Виділіть файл та натисніть клавішу Delдля видалення файлу з диска кластера.

Повторіть процедуру для всіх кластерних дисків, щоб переконатися, що вони доступні з першого вузла.

Тепер вимкніть перший вузол, увімкніть другий вузол і повторіть кроки розділу Перевірка роботи та загального доступу до дисків. Виконайте ці кроки на всіх додаткових вузлах. Після того, як Ви переконаєтеся, що всі вузли можуть зчитувати та записувати інформацію на диски загального пристрою, вимкніть всі вузли, крім першого, і переходьте до наступного розділу.

Вже на етапі планування майбутнього віртуальної інфраструктурислід задуматися про забезпечення високої доступностіваші віртуальні машини. Якщо в звичайній ситуаціїтимчасова недоступність одного із серверів ще може бути прийнятна, то у разі зупинки хоста Hyper-V недоступною виявиться значна частина інфраструктури. У зв'язку з чим різко зростає складність адміністрування - зупинити або перезавантажити хост робочий часпрактично неможливо, а у разі відмови обладнання чи програмного збою отримаємо НП рівня підприємства.

Все це здатне серйозно охолодити інтерес щодо переваг віртуалізації, але вихід є і полягає він у створенні кластера високої доступності. Ми вже згадували про те, що термін "відмовостійкий" не зовсім коректний і тому сьогодні все частіше використовується інша характеристика, яка більш точно відображає стан справ - "високодоступний".

Для створення повноцінної відмови від стійкості системи потрібно виключити будь-які точки відмови, що в більшості випадків вимагає серйозних фінансових вкладень. У той же час більшість ситуацій допускає наявність деяких точок відмови, якщо усунення наслідків їхньої відмови обійдеться дешевше, ніж вкладення в інфраструктуру. Наприклад, можна відмовитися від недешевого відмовостійкого сховища на користь двох недорогих серверів з достатнім числом кошиків, один з яких налаштований на холодний резерв, у разі відмови першого сервера просто переставляємо диски і вмикаємо другий.

У цьому матеріалі ми будемо розглядати найпростішу конфігурацію стійкого до відмови кластера, що складається з двох вузлів (нід) SRV12R2-NODE1 і SRV12R2-NODE2, кожен з яких працює під керуванням Windows Server 2012 R2. Обов'язковою умовою для цих серверів є застосування процесорів одного виробника, тільки Intel або тільки AMD, інакше міграція віртуальних машин між вузлами буде неможлива. Кожен вузол має бути підключений до двох мереж: мережі підприємства LAN та мережі зберігання даних SAN.

Другою обов'язковою умовою для створення кластера є наявність розгорнутої Active Directory, у нашій схемі вона представлена ​​контролером домену SRV12R2-DC1.

Сховище виконане за технологією iSCSI і може бути реалізовано на будь-якій платформі, в даному випадку це ще один сервер на Windows Server 2012 R2 - SRV12R2-STOR. Сервер сховища може бути підключений до мережі підприємства та бути членом домену, але це необов'язкова умова. Пропускна здатністьмережі зберігання даних має бути не нижче 1 Гбіт/с.

Вважатимемо, що на обидва вузли вже встановлена ​​операційна система, вони введені в домен і мережні підключення налаштовані. Відкриємо Майстер додавання ролей та компонентіві додамо роль Hyper-V.

Наступним кроком додамо компоненту Відмовостійка кластеризація.

На сторінці налаштування віртуальних комутаторів вибираємо той адаптер мережі, який підключений до мережі підприємства.

Міграцію віртуальних машин залишаємо вимкненою.

Інші параметри залишаємо без зміни. Установка ролі Hyper-V вимагатиме перезавантаження, після чого аналогічним чином налаштовуємо другий вузол.

Потім перейдемо до сервера сховища, як налаштувати iSCSI-сховище на базі Windows Server 2012, ми розповідали в , але це неважливо, ви можете використовувати будь-який сервер мети iSCSI. Для нормальної роботи кластера нам потрібно створити щонайменше два віртуальні диски: диск свідка кворуму та диск для зберігання віртуальних машин. Диск-свідок - це службовий ресурс кластера, у рамках цієї статті ми не стосуватимемося його ролі та механізму роботи, для нього достатньо виділити мінімальний розмір, у нашому випадку 1ГБ.

Створіть нову мету iSCSI і дозвольте доступ до неї двом ініціаторам, якими будуть виступати вузли кластера.

І зіставте цієї мети створені віртуальні диски.

Налаштувавши сховище, повернемося на один із вузлів і підключимо диски зі сховища. Пам'ятайте, що якщо сервер сховища підключено також до локальної мережі, то при підключенні до мети iSCSI вкажіть для доступу мережу зберігання даних.

Підключені диски ініціалізуємо та форматуємо.

Потім переходимо на другий вузол і також підключаємо диски, форматувати їх вже не треба, просто привласнюємо їм такі ж літери та мітки тома. Це необов'язково, але бажано зробити з метою однаковості налаштувань, коли однакові диски всіх вузлах мають одні й ті ж позначення заплутатися і зробити помилку набагато важче.

Після чого відкриємо Диспетчер Hyper-Vі перейдемо до настроювання віртуальних комутаторів. Їхня назва на обох вузлах має повністю збігатися.

Тепер у нас все готове до створення кластеру. Запустимо оснащення Диспетчер відмовостійких кластеріві виберемо дію Перевірити конфігурацію.

У налаштуваннях майстра додамо налаштовані нами вузли та оберемо виконання всіх тестів.

Перевірки займають відчутний час, у разі виникнення будь-яких помилок їх необхідно виправити і повторити перевірку.

Якщо суттєвих помилок не виявлено робота майстра завершиться і він запропонує вам створити на вибраних вузлах кластер.

Однак, якщо перевірка видала попередження, ми радимо вивчити звіт та з'ясувати, на що впливає це попередженняі що потрібно зробити для його усунення. У нашому випадку майстер попереджав нас про відсутність надмірності в мережевих підключенняхкластера, за замовчуванням кластер не використовує мережі iSCSI, що неважко виправити пізніше.

При створенні кластера для нього створюється віртуальний об'єкт, що має мережне ім'я та адресу. Вкажемо їх у відкритому Майстри створення кластерів.

Більше питань не буде і майстер повідомить нам, що кластер створений, видавши при цьому попередження про відсутність диска-свідка.

Закриємо майстер і розгорнемо дерево зліва до рівня Сховище - Диски, в доступних діяхправоруч виберемо Додати дискі вкажемо диски, що підключаються в вікні, в нашому випадку їх два.

Потім клацніть правою кнопкою миші на об'єкті кластера в дереві зліва і виберемо Додаткові дії - Налаштувати параметри кворуму у кластері.

Далі послідовно вибираємо: Вибрати свідок кворуму - Налаштувати диск-свідокі вказуємо створений для цього диск.

Тепер налаштуємо диск сховища, з ним все набагато простіше, просто клацаємо на диску правою кнопкою та вказуємо: Додати до загальних сховищ кластера.

Для того, щоб диск міг використовуватися кількома учасниками кластера на ньому створюється CSVFS- реалізована поверх NTFS кластерна файлова система, яка вперше з'явилася в Windows Server 2008 R2 і дозволяє використовувати такі функції, як Динамічна (Жива) міграція, тобто. передачу віртуальної машини між вузлами кластера без зупинки роботи.

Загальні сховища стають доступними на всіх вузлах кластера в розташуванні C:\ClusterStorage\VolumeN. Зверніть увагу, що це не просто папки на системному дискуа точки монтування загальних томів кластера.

Закінчивши диски, перейдемо до налаштувань мережі, для цього перейдемо в розділ Мережі. Для мережі, яка підключена до мережі підприємства, вказуємо і Дозволити клієнтам підключатися через цю мережу. Для мережі зберігання даних просто залишимо Дозволити кластеру використовувати цю мережутаким чином забезпечивши необхідну надмірність мережних з'єднань.

На цьому налаштування кластера закінчено. Для роботи з кластеризованими віртуальними машинами слід використовувати Диспетчер відмовостійкості кластерів, а не Диспетчер Hyper-V, який призначений для керування віртуалками, розташованими локально.

Щоб створити віртуальну машину, перейдіть до розділу Роліу меню правої кнопки миші виберіть Віртуальні машини - Створити віртуальну машинуЦе ж можна зробити і через панель Діїправоруч.

Насамперед виберіть вузол, на якому буде створено віртуальну машину. Кожна віртуалка працює на певному вузлі кластера, мігруючи на інші вузли під час зупинки або відмови своєї ноди.

Після вибору вузла відкриється стандартний Майстер створення віртуальної машини, робота з ним не складна, тому зупинимося тільки на значущих моментах. Як розташування віртуальної машини обов'язкововкажіть один із загальних томів кластера C:\ClusterStorage\VolumeN.

Тут же має розташовуватися і віртуальний жорсткийВи також можете використовувати вже існуючі віртуальні жорсткі диски, попередньо скопіювавши їх у загальне сховище.

Після створення віртуальної машини перейдіть до неї Параметрита у пункті Процесори - Сумісністьвстановіть прапорець Виконати перенесення на фізичний комп'ютерз іншою версією процесора, це дозволить виконувати міграцію між вузлами з різними моделямипроцесорів одного виробника. Міграція з Intel на AMD чи навпаки неможлива.

Потім перейдіть до Мережевий адаптер - Апаратне прискорення і переконайтеся, що вибрані опції підтримуються мережевими картами всіх вузлів кластера або вимкніть їх.

Не забудьте налаштувати автоматичні дії під час запуску та завершення роботи вузла, при великій кількості віртуальних машин не забувайте встановлювати затримку запуску, щоб уникнути надмірного навантаження на систему.

Закінчивши з Параметрамиперейдіть до Властивостівіртуальної машини та вкажіть кращі вузли власників даної ролі в порядку спадання та пріоритет, машини мають більш високий пріоритет мігрують першими.

На закладці Обробка відмовизадайте кількість допустимих відмов для віртуальної машини за одиницю часу, пам'ятайте, що відмовою вважається не тільки відмова вузла, а й втрата пульсу віртуальної машини, наприклад, її зависання. На час налаштування та тестів є сенс вказати більше значення.

Також налаштуйте Відновлення розміщення, ця опція дозволяє передавати віртуальні машини назад найкращому власнику при відновленні його нормальної роботи. Щоб уникнути надмірних навантажень, скористайтеся опцією затримки відновлення.

На цьому налаштування віртуальної машини закінчено, можемо запускати та працювати з нею.

Тепер саме час перевірити міграцію, для цього клацніть правою кнопкою миші на машині і виберіть Перемістити - Динамічна міграція - Вибрати вузол. Віртуалка повинна переміститися на вибрану ноду, не завершуючи роботи.

Як відбувається міграція у робочій обстановці? Допустимо нам треба вимкнути або перезавантажити перший вузол, на якому зараз виконується віртуальна машина. Отримавши команду на завершення роботи, вузол ініціює передачу віртуальних машин:

Завершення роботи припиняється доти, доки не будуть передані всі віртуальні машини.

Коли робота вузла буде відновлена, кластер, якщо увімкнено відновлення розміщення, ініціює зворотний процес, передаючи віртуальну машину назад кращому власнику.

Що станеться, якщо вузол, на якому розміщені віртуальні машини, аварійно вимкнеться або перезавантажиться? Усі віртуалки також аварійно завершать свою роботу, але тут-таки будуть перезапущені на справних вузлах згідно зі списком кращих власників.

Як ми вже говорили, термін "відмовостійкий", що прижився у вітчизняній технічній літературі, невірний і більш правильно його було б перекладати як "з обробкою відмови", або використовувати поняття "висока доступність", яке відображає стан справ найбільш вірно.

Кластер Hyper-V не забезпечує відмовостійкості віртуальним машинам, відмова вузла призводить до відмови всіх розміщених на ньому машин, але він дозволяє забезпечити вашим службам високу доступність, автоматично відновлюючи їх роботу та забезпечуючи мінімально можливий час простою. Також він дозволяє значно полегшити адміністрування віртуальної інфраструктури, дозволяючи переміщувати віртуальні машини між вузлами без переривання їхньої роботи.

  • Теги:

Please enable JavaScript to view the

Застосовується до: Windows Server 2012 R2, Windows Server 2012

У цьому розділі наведено огляд функції кластеризації відмов у Windows Server 2012 R2 і Windows Server 2012. Відмовостійкі кластери забезпечують високий рівень доступності і масштабованості для багатьох робочих навантажень сервера. До таких навантажень відносяться серверні програми - Microsoft Exchange Server, Hyper-V, Microsoft SQL Serverта файлові сервери. Серверні програми можуть працювати на фізичних серверівабо віртуальних машин. У цьому розділі наведено опис компонента "Отказостійка кластеризація" та посилання на додаткові посібники зі створення, налаштування кластерів відмов та управління ними максимум на 64 фізичних вузлах і 8000 віртуальних машин.

Можливо, ви мали на увазі...

Опис компонента

Відмовостійкий кластер - це група незалежних комп'ютерів, які працюють спільно з метою підвищення доступності та масштабованості кластерних ролей (раніше званих кластерними додатками та службами). Кластерні сервери (звані "вузли") з'єднані фізичними кабелями та програмним забезпеченням. При збої одному з вузлів кластера його функції негайно передаються іншим вузлам (цей процес називається відпрацюванням відмови). Крім того, за кластерними ролями ведеться профілактичне спостереження, щоб забезпечити їх правильну роботу. Якщо вони не працюють, перезавантаження або переміщення на інший вузол. Відмовостійкі кластери також надають функції загального тому кластера (CSV), які утворюють узгоджений розподілений простір імен, використовуваний кластерними ролями для доступу до спільного сховища з усіх вузлів. Завдяки функції стійкої до відмови кластеризації користувачі стикаються з мінімальною кількістю проблем у роботі служби.

Відмовостійкими кластерами можна керувати за допомогою оснастки "Диспетчер кластерів від відмови та командлетів кластеризації Windows PowerShell. Для керування спільними папками на кластерах файлових серверівможна також використовувати кошти файлових службта служб сховища.

Практичне застосування

    Високодоступне або постійно доступне сховище файлових ресурсівзагального доступу до програм, таких як Microsoft SQL Server та віртуальні машини Hyper-V.

    Високодоступні кластерні ролі, які виконуються на фізичних серверах або віртуальних машинах, встановлених на серверах, на яких виконується Hyper-V.

Нові та змінені функції

Нові та змінені функціональні можливості відмовостійкої кластеризації забезпечують більш високу масштабованість, простіше управління, більш швидке відпрацювання відмови та гнучкіші архітектури для відмовостійких кластерів.

Щоб отримати додаткові відомості про функцію кластеризації відмов, яка є новою або зміненою у Windows Server 2012 R2, див.

Щоб отримати додаткові відомості про функцію кластеризації відмов, яка є новою або зміненою у Windows Server 2012, див.

Вимоги до обладнання

Рішення відмовостійкого кластера має відповідати таким вимогам до обладнання.

    Апаратні компоненти у відмовостійкому кластері мають бути сертифіковані для використання з емблемою Windows Server 2012.

    До вузлів у кластері має бути підключене сховище, якщо рішення використовує загальне сховище.

    Можна використовувати наступні контролери пристроїв або відповідні адаптери для сховища: послідовний SCSI (SAS), Fibre Channel, Fibre Channel через Ethernet (FcoE) або iSCSI.

    Повна конфігурація кластера (сервери, мережа та сховище) має пройти всі перевірки майстра перевірки конфігурації.

Примітка

Уникайте єдиних точок відмови у мережній інфраструктурі, що з'єднує вузли кластера.

Щоб отримати додаткові відомості про сумісність обладнання, див. Каталог Windows Server.

Щоб отримати додаткові відомості про правильну конфігурацію серверів, мережі та сховища для кластеру відмови, див. наступні розділи.

Вимоги до програмного забезпечення

    Функцію відмовостійкої кластеризації можна використовувати у випусках Standard та Datacenter Windows Server 2012 R2 та Windows Server 2012. Це стосується й установок основних серверних компонентів.

    Необхідно дотримуватись рекомендацій виробника обладнання щодо оновлень вбудованого та звичайного програмного забезпечення. Зазвичай це означає необхідність використання самих останніх оновленьвбудованого та звичайного програмного забезпечення. Іноді виробник може рекомендувати конкретні оновлення, що відрізняються від найновіших.

Відомості про диспетчера сервера

У диспетчері сервера використовуйте майстер додавання ролей і компонентів для додавання функції кластеризації відмов. У засоби відмовостійкої кластеризації входить оснащення диспетчера відмовостійкості кластерів, командлети Windows PowerShell відмовостійкої кластеризації, користувальницький інтерфейсоновлення з підтримкою кластера (CAU), командлети Windows PowerShell та пов'язані засоби. Загальну інформаціюпро встановлення компонентів див. у розділі Встановлення та видалення ролей, служб ролей або компонентів .

Щоб відкрити диспетчер відмовостійкості кластерів у диспетчері сервера, клацніть Сервіста виберіть Диспетчер відмовостійкості кластерів.

Див. також:

У наступній таблиці наведено додаткові ресурси щодо функції кластеризації відмови від кластеризації в Windows Server 2012 R2 і Windows Server 2012. Крім того, див. бібліотеці Windows Server 2008 R2.

Тип вмісту

Оцінка продукту

Розгортання

Прес-центр

Створення кластера з урахуванням Windows 2000/2003. Крок за кроком

Кластер - це група з двох або більше серверів, що діють спільно для забезпечення безвідмовної роботи набору додатків або служб, які клієнт сприймає як єдиний елемент. Вузли кластера об'єднуються між собою за допомогою апаратних мережевих засобів, спільно використовуваних ресурсів, що розділяються, і серверного програмного забезпечення.

Microsoft Windows 2000/2003 підтримує дві технології кластеризації: кластери з балансуванням навантаження (Network Load Balancing) та кластери серверів.

У першому випадку (кластери з балансуванням навантаження) служба Network Load Balancing надає службам та додаткам властивості високого рівня надійності та масштабованості за рахунок об'єднання до 32 серверів у єдиний кластер. Запити від клієнтів у разі розподіляються серед вузлів кластера прозорим чином. При відмові вузла кластер автоматично змінює свою конфігурацію та перемикає клієнта на будь-який з доступних вузлів. Цей режим конфігурації кластера також називається active-active режимом, коли одна програма працює на кількох вузлах.

Кластер серверів розподіляє своє навантаження серед серверів кластера, причому кожен сервер несе своє власне навантаження. Якщо відбувається відмова вузла в кластері, то програми та служби, налаштовані працювати в кластері, прозорим чином перезапускаються будь-якому з вільних вузлів. Кластери серверів використовують диски, що розділяються для обміну даними всередині кластера і для забезпечення прозорого доступудо додатків та служб кластера. Для них потрібне спеціальне обладнання, але дана технологіязабезпечує дуже високий рівень надійності, оскільки сам кластер не має жодної єдиної точки відмови. Цей режим конфігурації кластера також називається active-passive режимом. Додаток у кластері працює на одному вузлі із загальними даними, розташованими на зовнішньому сховищі.

Кластерний підхід до організації внутрішньої мережі дає такі переваги:

Високий рівень готовності Тобто, якщо відбувається збій служби або програми на якомусь вузлі кластера, налаштованого на спільну роботу в кластері, кластерне програмне забезпечення дозволяє перезапустити цю програму на іншому вузлі. Користувачі при цьому відчують короткочасну затримку під час проведення якоїсь операції або взагалі не помітять серверного збою. Масштабованість Для додатків, що працюють у кластері, додавання серверів до кластера означає збільшення можливостей: відмовостійкість, розподіл навантаження і т.д. кластера та знімати навантаження з вузлів для проведення профілактичних робіт.

У цій статті я спробую зібрати свій досвід зі створення кластерних систем на базі Windows і дати невеликий покроковий посібник зі створення двовузлового кластера серверів з сховищем даних, що розділяється.

Вимоги до програмного забезпечення

  • Microsoft Windows 2000 Advanced (Datacenter) Server або Microsoft Windows 2003 Server Enterprise Edition, встановлені на всіх серверах кластера.
  • Встановлена ​​служба DNS. Трохи поясню. Якщо ви будуєте кластер на основі двох контролерів домену, то набагато зручніше використовувати службу DNS, яку ви в будь-якому випадку встановлюєте при створення Active Directory. Якщо ви створюєте кластер на основі двох серверів, членів Windows NT домену, вам доведеться використовувати або службу WINS, або заносити відповідність імен і адрес машин у файл hosts.
  • Terminal Services для віддаленого керування серверами. Не обов'язково, але за наявності Terminal Services зручно керувати серверами зі свого робочого місця.

Вимоги до апаратного забезпечення

  • Апаратне забезпечення для вузла кластера краще підбирати, ґрунтуючись на Cluster Service Hardware Compatible List (HCL). за рекомендаціям Microsoftапаратне забезпечення має бути протестовано на сумісність із Cluster Services.
  • Відповідно вам знадобляться два сервери, що мають по два мережеві адаптери; SCSI-адаптер має зовнішній інтерфейс для підключення зовнішнього масиву даних.
  • Зовнішній масив, що має два зовнішні інтерфейси. Кожен із вузлів кластера підключається до одного з інтерфейсів.

Примітка:для створення двовузлового кластера зовсім не обов'язково мати два абсолютно однакові сервери. Після збою на першому сервері у вас буде небагато часу, щоб проаналізувати та відновити роботу основного вузла. Другий вузол працюватиме на безвідмовність системи в цілому. Однак це не означає, що другий сервер простоюватиме. Обидва вузли кластера можуть спокійно займатися своїми справами, вирішувати різні завдання. А ось якийсь критичний ресурс ми і можемо налаштувати на роботу в кластері, збільшивши його (цього ресурсу) стійкість до відмов.

Вимоги до мережних налаштувань

  • Унікальне NetBIOS ім'я кластера.
  • П'ять унікальних статичних IP-адрес. Два для мережних адаптерів на кластерну мережу, два для мережних адаптерів на загальну мережу та один для кластера.
  • Доменний обліковий запис для кластерного сервісу (Cluster Service).
  • Усі вузли кластера мають бути або member server в домені, або контролерами домену.
  • Кожен сервер повинен мати два мережеві адаптери. Один для підключення до спільної мережі (Public Network), другий для обміну даними між вузлами кластера (Private Network).

Примітка:за рекомендаціями Microsoft ваш сервер повинен мати два мережеві адаптери, один для спільної мережі, другий для обміну даними всередині кластера. Чи можна будувати кластер на одному інтерфейсі – напевно, так, але я не пробував.

Встановлення кластера

При проектуванні кластера ви повинні розуміти, що, використовуючи одну фізичну мережуяк для кластерного обміну, так і для локальної мережі ви збільшуєте відсоток відмови всієї системи. Тому вкрай бажано для кластерного обміну даними використовувати одну підмережу, виділену окремий фізичний елемент мережі. А для локальної мережі варто використовувати іншу підмережу. Тим самим ви збільшуєте надійність усієї системи в цілому.

У разі побудови двовузлового кластера один комутатор використовується спільною мережею. Два сервери кластера можна зв'язати між собою крос-кабелем безпосередньо, як показано на малюнку.

Установка двовузлового кластера може бути розділена на 5 кроків

  • Встановлення та налаштування вузлів у кластері.
  • Встановлення та налаштування ресурсу, що розділяється.
  • Перевірка дискової конфігурації.
  • Налаштування першого вузла кластера.
  • Конфігурування другого вузла у кластері.

Це покрокове керівництво дозволить вам уникнути помилок під час встановлення та заощадити масу часу. Тож почнемо.

Встановлення та налаштування вузлів

Ми трохи спростимо завдання. Оскільки всі вузли кластера повинні бути учасниками домену, або контролерами домену, то кореневим власником каталогу AD (Active Directory) зробимо 1-й вузол кластера, на ньому буде працювати DNS-служба. Другий вузол кластера буде повноправним контролером домену.

Встановлення операційної системи я готовий пропустити, вважаючи, що в цьому у вас не повинно бути якихось проблем. А ось конфігурацію мережевих пристроївхочеться пояснити.

Налаштування мережі

Перед встановленням кластера та Active Directory необхідно виконати мережні налаштування. Усі налаштування мережі хочеться розділити на 4 етапи. Для розпізнавання імен в мережі бажано мати DNS-сервер з уже існуючими записамипро сервери кластера.

Кожен сервер має дві мережні карти. Одна мережна карта буде служити для обміну даними між вузлами кластера, друга працюватиме на клієнтів у нашій мережі. Відповідно, перший назвемо Private Cluster Connection, другий назвемо Public Cluster Connection.

Налаштування мережних адаптерів для одного сервера і для іншого сервера ідентичні. Відповідно, я покажу, як налаштувати мережевий адаптер і дам табличку з мережевими налаштуваннями всіх 4 мережевих адаптерів на обох вузлах кластера. Для налаштування адаптера змінного струму необхідно виконати такі кроки:

  • My Network Places → Properties
  • Private Cluster Connection → Properties → Configure → Advanced

    Цей пункт вимагає пояснень. Справа в тому, що за наполегливими рекомендаціями Microsoft на всіх мережних адаптерах вузлів кластера повинна бути встановлена ​​оптимальна швидкість роботи адаптера, як показано на наступному малюнку.

  • Internet Protocol (TCP/IP) → Properties → Use the following IP: 192.168.30.1

    (Для другого вузла використовуйте адресу 192.168.30.2). Введіть маску підмережі 255.255.255.252. В якості адреси DNS-сервера для обох вузлів використовуйте адресу 192.168.100.1.

  • Додатково на вкладці Advanced → WINS виберіть Disabled NetBIOS over TCP/IP . Для налаштувань мережевих адаптерів загальної (Public) мережі цей пункт опустіть.
  • Виконайте те саме з мережевою карткою для локальної мережі Public Cluster Connection. Використовуйте адреси, наведені у таблиці. Єдина різниця в конфігурації двох мережних плат полягає в тому, що для Public Cluster Connection не потрібно вимкнення режиму WINS - NetBIOS over TCP/IP.

Для конфігурування всіх мережних адаптерів на вузлах кластера використовуйте таку табличку:

Вузол Мережеве ім'я IP address MASK DNS Server
1 Public Cluster Connection 192.168.100.1 255.255.255.0 192.168.100.1
1 Private Cluster Connection 192.168.30.1 255.255.255.252 192.168.100.1
2 Public Cluster Connection 192.168.100.2 255.255.255.0 192.168.100.1
3 Private Cluster Connection 192.168.30.2 255.255.255.252 192.168.100.1

Встановлення Active Directory

Оскільки моя стаття не має на меті розповісти про встановлення Active Directory, то цей пункт я опущу. Різних рекомендацій, книг про це написано чимало. Виберіть доменне ім'я, на зразок mycompany.ru, встановіть Active Directory на першому вузлі, додайте другий вузол в домен як контролер домену. Коли все зробите, перевірте конфігурацію серверів Active Directory.

Встановлення Cluster User Account

  • Start → Programs → Administrative Tools → Active Directory Users and Computers
  • Додайте нового користувача, наприклад, ClusterService.
  • Встановіть прапорці на: User Cannot Change Password та Password Never Expires .
  • Також додайте цього користувача до групи адміністраторів та дайте йому права Log on as a service (права призначаються в Local Security Policyі Domain Controller Security Policy).

Налаштування зовнішнього масиву даних

Для налаштування зовнішнього масиву даних у кластері необхідно пам'ятати, що перед встановленням Cluster Service на вузлах ви повинні спочатку налаштувати диски на зовнішньому масиві, лише потім установлювати службу кластера спочатку на першому вузлі, а потім на другому. У разі порушення порядку встановлення у вас станеться збій, і ви не досягнете мети. Чи можна буде виправити – мабуть, так. Коли з'явиться помилка, у вас буде час, щоб виправити налаштування. Але Microsoft така загадкова штука, що зовсім не знаєш, на які граблі наступиш. Простіше мати перед очима покрокову інструкцію та не забувати натискати на кнопки. За кроками конфігурування зовнішнього масиву виглядає так:

  1. Обидва сервери повинні бути вимкнені, зовнішній масив увімкнений, приєднаний до обох серверів.
  2. Вмикаємо перший сервер. Отримуємо доступ до дискового масиву.
  3. Перевіряємо, щоб зовнішній дисковий масив було створено як Basic. Якщо це не так, то переведемо диск за допомогою опції Revert to Basic Disk.
  4. Створюємо на зовнішньому дискучерез Computer Manage-ment → Disk Management невеликий розділ. За рекомендаціями Microsoft, він повинен бути не менше 50 Мб. Я рекомендую створити розділ на 500 Мб. чи трохи більше. Для розміщення кластерних даних цього цілком достатньо. Розділ має бути відформатований у NTFS.
  5. На обох вузлах кластера цей розділ буде названий однією літерою, наприклад Q. Відповідно при створенні розділу на першому сервері виберемо пункт Assign the following drive letter - Q.
  6. Решту диска ви можете розмітити за своїм бажанням. Звісно, ​​дуже бажано використовувати файлову систему NTFS. Наприклад, при налаштуванні служб DNS, WINS основні бази служб будуть перенесені на загальний диск (не системний том Q, а другий створений вами). І з міркувань безпеки вам буде зручніше використовувати саме NTFS-томи.
  7. Закриваємо Disk Management та перевіряємо доступ до новоствореного розділу. Наприклад, можна створити на ньому текстовий файл test.txt, записати та видалити. Якщо все пройшло нормально, то зі зміною зовнішнього масиву першому вузлі ми закінчили.
  8. Тепер вимикаємо перший сервер. Зовнішній масив має бути включений. Включаємо другий сервер та перевіряємо доступ до створеного розділу. Також перевіримо, щоб літера, призначена першому розділу, була ідентична обраної нами, тобто Q.

На цьому конфігурацію зовнішнього масиву завершено.

Встановлення Cluster Service Software

Конфігурація першого вузла кластера

Перед початком встановлення Cluster Service Software усі вузли кластера повинні бути вимкнені, всі зовнішні масиви мають бути увімкнені. Перейдемо конфігурації першого вузла. Зовнішній масив увімкнено, перший сервер увімкнено. Весь процес установки відбувається за допомогою Cluster Service Configuration Wizard:


Конфігурація другого вузла кластера

Для встановлення та конфігурування другого вузла кластера необхідно, щоб перший вузол був увімкнений, все мережеві дискибули включені. Процедура налаштування другого вузла дуже нагадує те, що я описав вище. Проте, є невеликі зміни. Для цього використовуйте таку інструкцію:

  1. У діалоговому вікні Create or Join a Cluster виберіть The second or next node у clusterта натисніть далі.
  2. Введіть ім'я кластера, яке ми задали раніше (наприклад, MyCluster), і натисніть далі.
  3. Після підключення другого вузла до кластера Cluster Service Configuration Wizard автоматично забере всі установки з основного вузла. Для запуску служби Cluster Service використовуйте ім'я, яке ми створювали раніше.
  4. Введіть пароль вашого облікового запису та натисніть далі.
  5. У наступному діалоговому вікні натисніть Finish, щоб завершити інсталяцію.
  6. Cluster service буде запущено на другому вузлі.
  7. Закрийте вікно Add/Remove Programs.

Для встановлення додаткових вузлів кластера використовуйте цю інструкцію.

Постскриптум, подяки

Щоб не заплутатися з усіма етапами установки кластера, наведу невелику табличку, у якій відбито всі основні етапи.

Крок Вузол 1 Вузол 2 Зовнішній масив
Після кількох років мовчання вирішив поділитися досвідом з розгортання відмовостійкого кластера на основі Windows Server 2012 року.
Постановка задачі:Розгорнути стійкий до відмови кластер для розміщення на ньому віртуальних машин, з можливістю виділення віртуальних машин в окремі віртуальні підмережі (VLAN), забезпечити високу надійність, можливість поперемінного обслуговування серверів, забезпечити доступність сервісів. Забезпечити спокійний сон відділу ІТ.

Для виконання вище поставленого завдання нам удалося вибити собі таке обладнання:

  1. Сервер HP ProLiant DL 560 Gen8 4x Xeon 8 core 64 GB RAM 2 шт.
  2. SAS Сховище HP P2000 на 24 2,5 дисків 1 шт.
  3. Диски для сховища 300 Gb 24 шт. //З обсягом не густо, але, на жаль, бюджети такі бюджети…
  4. Контролер для підключення SASвиробництва HP 2 шт.
  5. Мережевий адаптер на 4 1Gb порти 2 шт. //Можна було взяти модуль під 4 SFP, але ми не маємо обладнання з підтримкою 10 Gb, гігабітного з'єднання цілком достатньо.
Звичайно оновлюємо BIOS і Firmware з офіційного сайту.
Організація підключень:


У нас насправді підключено до 2 різних комутаторів. Можна підключити до 4 різних. Я вважаю, що достатньо 2-х.
На портах комутаторів, куди підключені сервери, необхідно змінити режим інтерфейсу з access на trunk, для можливості рознесення по віртуальних підмережах.

Поки качаються оновлення на нову Windows Server 2012, налаштуємо дискове сховище. Ми плануємо розгорнути сервер баз даних, тому вирішили 600 Гб використовувати під бази даних, інше під інші віртуальні машини, така ось тавтологія.

Створюємо віртуальні диски:

  • Диск raid10 на основі Raid 1+0 із 4 дисків +1 spare
  • Диск raid5 на основі Raid 5 із 16 дисків +1 spare
  • 2 диски - ЗІП
Раджу в імені диска вказувати модель масиву, відразу буде зрозумілий функціонал. Також HP рекомендує використовувати не велика кількістьвіртуальних дисків, у яких буде багато фізичних, тобто. не варто плодити купу дрібних віртуальних дисків.

Тепер потрібно створити розділи.

  • raid5_quorum – так званий диск-свідок (witness). Необхідний для організації кластера з 2 нід.
  • raid5_store - Тут ми зберігатимемо віртуальні машини та їх жорсткі диски
  • raid10_db - Тут зберігається жорсткий диск віртуальної машини MS SQL сервера
Призначаємо наші розділи на порти sas контролерів сховища.
Обов'язково необхідно включити feature Microsoft Multipath IO, інакше при сервері до обох контролерів сховища в системі буде 6 дисків, замість 3х, і кластер не збереться, видаючи помилку, мовляв, у вас присутні диски з однаковими серійними номерами, і цей візард буде правий, хочу я вам сказати.

Підключати сервери до сховища раджу по черзі:

  1. Підключили 1 сервер до 1 контролера сховища
  2. У сховищі з'явиться 1 підключений хост – дайте йому ім'я. Раджу називати так: ім'я сервера_номер контролера (A або B)
  3. І так, поки не підключіть обидва сервери до обох контролерів.

На комутаторах, до яких підключені сервери, необхідно створити 3 віртуальних підмережі (VLAN):

  1. ClusterNetwork - тут ходить службова інформація кластера (хертбіт, регулювання запису на сховище)
  2. LiveMigration - тут думаю все ясно
  3. Management - мережа для керування

На цьому підготовку інфраструктури закінчено. Переходимо до налаштування серверів та підняття кластера.

Заводимо сервер у домен. Встановлюємо роль Hyper-V, Failover Cluster.
У налаштуваннях Multipath IO включаємо підтримку SAS пристроїв.
Обов'язково перезавантажуємо.

Наступні параметри необхідно виконати на обох серверах.

Перейменуйте всі 4 мережевий інтерфейсвідповідно до їхніх фізичних портів (у нас це 1,2,3,4).
Налаштовуємо NIC Teaming - Додаємо всі 4 адаптери до команди, Режим (Teaming-Mode) - Switch Independent, Балансування навантаження (Load Balancing) - Hyper-V Port. Даємо ім'я команді, я назвав Team.
Тепер потрібно підняти віртуальний комутатор.
Відкриваємо powershell і пишемо:

New-VMSwitch "VSwitch" -MinimumBandwidthMode Weight -NetAdapterName "Team" -AllowManagementOS 0

Створюємо 3 віртуальних мережевих адаптери.
У тому ж PowerShell:
Add-VMNetworkAdapter -ManagementOS -Name "Management" Add-VMNetworkAdapter -ManagementOS -Name "ClusterNetwork"Add-VMNetworkAdapter -ManagementOS -Name "Live Migration"

Ці віртуальні комутаториз'являться в центрі управління мережами та загальним доступом, саме по них і ходитиме трафік наших серверів.

Налаштуйте адресацію відповідно до ваших планів.

Перекладаємо наші адапетри у відповідні VLAN'и.
У улюбленому powershell:

Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 2 -VMNetworkAdapterName "Management" -Confirm Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 3 -VMNetworkAdapterName "ClusterNetwork" -Confirm Set-VMNetworkAdapterVlan -ManagementOS -ManagementOS -Confirm

Тепер потрібно настроїти QoS.

При налаштуванні QoS by weight (за вагою), що є best practice, за заявою Microsoft, раджу розставити вагу так, щоб у загальній сумі вийшло 100, тоді можна вважати, що значення, зазначене в налаштуванні, є гарантований відсоток смуги пропускання. У будь-якому випадку вважається відсоток за формулою:

Відсоток смуги пропускання = встановлена ​​вага * 100 / сума всіх встановлених значень ваги
Set-VMSwitch “VSwitch” -DefaultFlowMinimumBandwidthWeight 15

Для службової інформації кластер.

Set-VMNetworkAdapter -ManagementOS -Name “Cluster” -MinimumBandwidthWeight 30

Для керування.
Set-VMNetworkAdapter -ManagementOS -Name "Management" -MinimumBandwidthWeight 5

Для Live Migration.
Set-VMNetworkAdapter -ManagementOS -Name “Live Migration” -MinimumBandwidthWeight 50

Щоб трафік ходив по мережах правильно, потрібно правильно розставити метрики.
Трафік службової інформації кластера буде ходити по мережі з найменшою метрикою. За наступною за величиною метрики мережі ходитиме Live Migration.

Давайте так і зробимо.
У нашому ненаглядному:

$n = Get-ClusterNetwork "ClusterNetwork" $n.Metric = 1000 $n = Get-ClusterNetwork "LiveMigration" $n.Metric = 1050$n = Get-ClusterNetwork "Management"

Монтуємо наш диск-свідок на ноді, з якої збиратимемо кластер, форматуємо в ntfs.

У оснастці Failover Clustering у розділі Networks перейменуйте мережі відповідно до наших адаптерів.

Все готове до збирання кластера.

У оснащенні Failover Clustering тиснемо validate. Проходимо перевірку. Після чого створюємо кластер (create cluster) і вибираємо конфігурацію кворуму (quorum configuration) Node and Disk majority, що також вважається найкращим вибором для кластерів з парною кількістю нід, а враховуючи, що у нас їх лише дві - це єдиний вибір.

У розділі Storage оснастки Failover Clustering, додайте диски. А потім по черзі додавайте їх як Cluster Shared Volume (правий клік на диску). Після додавання до папки C:\ClusterStorageз'явиться символічне посиланняна диск, перейменуйте його відповідно до назви диска, доданого як Cluster Shared Volume.

Тепер можна створювати віртуальні машини та зберігати їх на ці розділи. Сподіваюся, стаття була Вам корисна.

Прошу повідомляти про помилки у ПМ.

Раджу до прочитання: Microsoft Windows Server 2012 Повне керівництво. Ренд Морімото, Майкл Ноел, Гай Ярдені, Омар Драубі, Ендрю Аббейт, Кріс Амаріс.

PS: Окреме спасибі пану Салахову, Загорському та Розборнову, які ганебно були забуті мною при написанні цього посту. Каюсь >_< XD