Failover clustering - pangkalahatang impormasyon. Paggawa ng High Availability Failover Cluster sa Windows

Pindutin ang sentro

Paglikha ng isang cluster batay sa Windows 2000/2003. Hakbang-hakbang

Ang cluster ay isang pangkat ng dalawa o higit pang mga server na nagtutulungan upang magbigay ng walang problemang operasyon ng isang hanay ng mga application o serbisyo at nakikita ng kliyente bilang isang unit. Ang mga cluster node ay konektado sa isa't isa gamit ang hardware mga tool sa network, nakabahaging ibinahaging mapagkukunan at server software.

Ang Microsoft Windows 2000/2003 ay sumusuporta sa dalawang clustering na teknolohiya: Network Load Balancing clusters at server clusters.

Sa unang kaso (mga cluster na may balanseng pag-load), ginagawa ng serbisyo ng Network Load Balancing ang mga serbisyo at application na lubos na maaasahan at nasusukat sa pamamagitan ng pagsasama-sama ng hanggang 32 server sa iisang cluster. Sa kasong ito, ang mga kahilingan mula sa mga kliyente ay ipinamamahagi sa mga cluster node sa isang transparent na paraan. Kung nabigo ang isang node, awtomatikong binabago ng cluster ang configuration nito at inililipat ang client sa alinman sa mga available na node. Ang cluster configuration mode na ito ay tinatawag ding active-active mode, kung saan ang isang application ay tumatakbo sa maraming node.

Ang isang server cluster ay namamahagi ng load nito sa mga server sa cluster, na ang bawat server ay nagdadala ng sarili nitong load. Kung ang isang node sa cluster ay nabigo, ang mga application at serbisyo na na-configure upang tumakbo sa cluster ay malinaw na ire-restart sa alinman sa mga libreng node. Gumagamit ang mga cluster ng server ng mga shared disk upang makipagpalitan ng data sa loob ng cluster at magbigay transparent na pag-access sa mga cluster application at serbisyo. Nangangailangan sila ng mga espesyal na kagamitan, ngunit ang teknolohiyang ito ay nagbibigay ng napaka mataas na antas pagiging maaasahan, dahil ang kumpol mismo ay walang anumang punto ng pagkabigo. Ang cluster configuration mode na ito ay tinatawag ding active-passive mode. Ang isang application sa isang cluster ay tumatakbo sa isang node na may nakabahaging data na matatagpuan sa panlabas na storage.

Ang cluster approach sa pag-aayos ng isang panloob na network ay nagbibigay ng mga sumusunod na pakinabang:

Mataas na Availability Ibig sabihin, kung nabigo ang isang serbisyo o application sa isang cluster node na na-configure upang gumana nang magkasama sa isang cluster, pinapayagan ng cluster software ang application na mag-restart sa isa pang node. Ang mga gumagamit ay makakaranas ng maikling pagkaantala kapag nagsasagawa ng ilang operasyon o hindi mapapansin ang isang pagkabigo ng server.

Scalability Para sa mga application na tumatakbo sa isang cluster, ang pagdaragdag ng mga server sa isang cluster ay nangangahulugan ng pagtaas ng mga kakayahan: fault tolerance, load distribution, atbp. Manageability Administrators, gamit ang isang interface, ay maaaring pamahalaan ang mga application at serbisyo, magtakda ng reaksyon sa pagkabigo sa isang cluster node, mamahagi ang load sa mga node cluster at alisin ang load mula sa mga node upang maisagawa ang maintenance work. Sa artikulong ito susubukan kong kolektahin ang aking karanasan sa paggawa ng mga cluster system sa Nakabatay sa Windows at magbigay ng maliit hakbang-hakbang na gabay

upang lumikha ng dalawang-node na cluster ng server na may nakabahaging imbakan ng data.

mga server. Hindi kinakailangan, ngunit kung mayroon kang Mga Serbisyo ng Terminal, maginhawang pamahalaan ang mga server mula sa iyong lugar ng trabaho.

Isang panlabas na hanay na may dalawang panlabas na interface. Ang bawat cluster node ay konektado sa isa sa mga interface. Upang lumikha ng isang kumpol na may dalawang node, hindi kinakailangan na magkaroon ng dalawang ganap na magkaparehong mga server. Matapos ang isang pagkabigo sa unang server, magkakaroon ka ng ilang oras upang pag-aralan at ibalik ang pagpapatakbo ng pangunahing node. Ang pangalawang node ay gagana para sa pagiging maaasahan ng system sa kabuuan. Gayunpaman, hindi ito nangangahulugan na ang pangalawang server ay magiging idle. Ang parehong mga cluster node ay maaaring mahinahon na pumunta sa kanilang negosyo at malutas ang iba't ibang mga problema. Ngunit maaari naming i-configure ang isang partikular na kritikal na mapagkukunan upang gumana sa isang kumpol, na nagpapataas ng (pagkukunang ito) na pagpapahintulot sa kasalanan.

Mga kinakailangan sa mga setting ng network

  • Isang natatanging pangalan ng NetBIOS para sa cluster.
  • Limang natatanging static na IP address. Dalawa para sa mga network adapter sa bawat cluster network, dalawa para sa mga network adapter sa bawat shared network, at isa para sa cluster.
  • Domain account para sa serbisyo ng Cluster.
  • Ang lahat ng mga cluster node ay dapat na mga server ng miyembro sa domain o mga controller ng domain.
  • Ang bawat server ay dapat magkaroon ng dalawang network adapter. Isa para sa pagkonekta sa isang karaniwang network (Public Network), ang pangalawa para sa pagpapalitan ng data sa pagitan ng mga cluster node (Private Network).

Isang panlabas na hanay na may dalawang panlabas na interface. Ang bawat cluster node ay konektado sa isa sa mga interface. Ayon sa mga rekomendasyon ng Microsoft, ang iyong server ay dapat magkaroon ng dalawang network adapter, isa para sa pangkalahatang network, ang pangalawa para sa pagpapalitan ng data sa loob ng cluster. Posible bang bumuo ng isang kumpol sa isang interface - marahil oo, ngunit hindi ko pa ito sinubukan.

Pag-install ng cluster

Kapag nagdidisenyo ng isang kumpol, dapat mong maunawaan na ang paggamit ng isa pisikal na network para sa parehong clustered na komunikasyon at LAN, pinapataas mo ang rate ng pagkabigo ng buong system. Samakatuwid, ito ay lubos na kanais-nais para sa cluster data exchange na gumamit ng isang subnet, na inilalaan bilang isang hiwalay na pisikal na elemento ng network. Para sa isang lokal na network, dapat kang gumamit ng ibang subnet. Kaya, pinapataas mo ang pagiging maaasahan ng buong system sa kabuuan.

Sa kaso ng pagbuo ng dalawang-node cluster, isang switch ang ginagamit karaniwang network. Dalawang cluster server ay maaaring direktang konektado sa isa't isa gamit ang isang crossover cable, tulad ng ipinapakita sa figure.

Ang pag-install ng two-node cluster ay maaaring hatiin sa 5 hakbang

  • Pag-install at pag-configure ng mga node sa isang cluster.
  • Pag-install at pag-configure ng isang nakabahaging mapagkukunan.
  • Sinusuri ang pagsasaayos ng disk.
  • Pag-configure ng unang cluster node.
  • Pag-configure ng pangalawang node sa cluster.

Ang sunud-sunod na gabay na ito ay makakatulong sa iyo na maiwasan ang mga pagkakamali sa panahon ng pag-install at makatipid ng maraming oras. Kaya simulan na natin.

Pag-install at pagsasaayos ng mga node

Pasimplehin natin nang kaunti ang gawain. Dahil ang lahat ng cluster node ay dapat alinman sa mga miyembro ng domain o domain controller, gagawin namin ang unang cluster node na root holder ng AD (Active Directory) na direktoryo, at ang serbisyo ng DNS ay tatakbo dito. Ang 2nd node ng cluster ay magiging isang buong domain controller.

Handa akong laktawan ang pag-install ng operating system, sa paniniwalang hindi ka dapat magkaroon ng anumang mga problema dito. Ngunit nais kong linawin ang pagsasaayos ng mga aparato sa network.

Mga setting ng network

Bago mo simulan ang pag-install ng cluster at Active Directory, dapat mong kumpletuhin ang mga setting ng network. Gusto kong hatiin ang lahat ng setting ng network sa 4 na yugto. Upang malutas ang mga pangalan sa network, ipinapayong magkaroon ng DNS server na may mga umiiral nang talaan tungkol sa mga cluster server.

Ang bawat server ay may dalawang network card. Ang isang network card ay magsisilbi para sa pagpapalitan ng data sa pagitan ng mga cluster node, ang pangalawa ay gagana para sa mga kliyente sa aming network. Alinsunod dito, tatawagin natin ang unang Private Cluster Connection, ang pangalawa ay tatawagin nating Public Cluster Connection.

Ang mga setting ng network adapter para sa isa at sa isa pang server ay magkapareho. Alinsunod dito, ipapakita ko sa iyo kung paano i-configure ang isang network adapter at magbigay ng isang talahanayan na may mga setting ng network ng lahat ng 4 na adapter ng network sa parehong mga cluster node. Upang i-configure ang adapter ng network, dapat mong kumpletuhin ang mga sumusunod na hakbang:

  • My Network Places → Properties
  • Private Cluster Connection → Properties → Configure → Advanced

    Ang puntong ito ay nangangailangan ng ilang paglilinaw. Ang katotohanan ay, ayon sa malakas na rekomendasyon ng Microsoft, ang lahat ng mga adapter ng network ng mga cluster node ay dapat itakda sa pinakamainam na bilis ng adaptor, tulad ng ipinapakita sa sumusunod na figure.

  • Internet Protocol (TCP/IP) → Properties → Gamitin ang sumusunod na IP: 192.168.30.1

    (Para sa pangalawang node, gamitin ang address na 192.168.30.2). Ipasok ang subnet mask 255.255.255.252. Gamitin ang 192.168.100.1 bilang DNS server address para sa parehong node.

  • Bukod pa rito, sa tab na Advanced → WINS, piliin ang Disabled NetBIOS sa TCP/IP. Upang i-configure ang mga adapter ng network para sa pampublikong network, alisin ang item na ito.
  • Gawin ang parehong sa network card para sa lokal na network ng Public Cluster Connection. Gamitin ang mga address na ibinigay sa talahanayan. Ang pinagkaiba lang ay ang configuration ng dalawa mga network card na ang Public Cluster Connection ay hindi nangangailangan na patayin ang WINS - NetBIOS sa TCP/IP mode.

Para i-configure ang lahat ng network adapter sa mga cluster node, gamitin ang sumusunod na label:

Knot Pangalan ng network IP address MASKARA DNS Server
1 Public Cluster Connection 192.168.100.1 255.255.255.0 192.168.100.1
1 Pribadong Cluster na Koneksyon 192.168.30.1 255.255.255.252 192.168.100.1
2 Public Cluster Connection 192.168.100.2 255.255.255.0 192.168.100.1
3 Pribadong Cluster na Koneksyon 192.168.30.2 255.255.255.252 192.168.100.1

Pag-install ng Active Directory

Dahil ang aking artikulo ay hindi naglalayong pag-usapan pag-install Aktibo Direktoryo, pagkatapos ay aalisin ko ang item na ito. Mayroong lahat ng mga uri ng mga rekomendasyon, medyo maraming mga libro ang naisulat tungkol dito. Pumili domain name, tulad ng mycompany.ru, i-install ang Active Directory sa unang node, idagdag ang pangalawang node sa domain bilang isang domain controller. Kapag tapos ka na, suriin ang mga configuration ng server at Active Directory.

Pag-install ng Cluster User Account

  • Start → Programs → Administrative Tools → Mga User at Computer ng Active Directory
  • Magdagdag ng bagong user, halimbawa ClusterService.
  • Lagyan ng check ang mga kahon para sa: Hindi Mababago ng User ang Password at Hindi Mag-e-expire ang Password.
  • Idagdag din ang user na ito sa grupo ng mga administrator at bigyan siya ng Log on bilang mga karapatan sa serbisyo (nakatalaga ang mga karapatan sa Local Security Policy at Patakaran sa Seguridad ng Domain Controller).

Pagse-set up ng external na data array

Upang i-configure ang isang panlabas na array ng data sa isang cluster, dapat mong tandaan na bago i-install ang Cluster Service sa mga node, kailangan mo munang i-configure ang mga disk sa external array, pagkatapos ay i-install muna ang cluster service sa unang node, at pagkatapos lamang sa ang pangalawa. Kung hindi tama ang pagkakasunud-sunod ng pag-install, mabibigo ka at hindi mo makakamit ang iyong layunin. Posible bang ayusin ito - marahil oo. Kapag lumitaw ang isang error, magkakaroon ka ng oras upang ayusin ang iyong mga setting. Ngunit ang Microsoft ay isang misteryosong bagay na hindi mo talaga alam kung anong mga pagkakamali ang iyong tatapakan. Mas madaling magkaroon ng sunud-sunod na mga tagubilin sa harap ng iyong mga mata at tandaan na pindutin ang mga pindutan. Ang mga hakbang upang i-configure ang isang panlabas na array ay ganito ang hitsura:

  1. Ang parehong mga server ay dapat na naka-off, ang panlabas na array ay dapat na naka-on, konektado sa parehong mga server.
  2. Binuksan namin ang unang server. Nagkakaroon kami ng access sa disk array.
  3. Sinusuri namin na ang panlabas na disk array ay nilikha bilang Basic. Kung hindi ito ang kaso, pagkatapos ay i-convert ang disk gamit ang Revert to Basic Disk na opsyon.
  4. Lumikha sa isang panlabas na drive sa pamamagitan ng Computer Management → Pamamahala ng Disk maliit na seksyon. Ayon sa mga rekomendasyon ng Microsoft, dapat itong hindi bababa sa 50 MB. Inirerekomenda ko ang paglikha ng 500 MB partition. o kaunti pa. Ito ay sapat na upang mag-host ng clustered data. Ang partisyon ay dapat na naka-format sa NTFS.
  5. Sa parehong mga cluster node, ang partition na ito ay papangalanan ng parehong titik, halimbawa, Q. Alinsunod dito, kapag gumagawa ng partition sa unang server, piliin ang item Italaga ang sumusunod na drive letter - Q.
  6. Maaari mong markahan ang natitirang bahagi ng disk ayon sa gusto mo. Siyempre, lubos na kanais-nais na gamitin ang NTFS file system. Halimbawa, kapag nagse-set Mga serbisyo ng DNS, WINS ang pangunahing mga database ng serbisyo ay ililipat sa isang nakabahaging disk (hindi ang dami ng system na Q, ngunit ang pangalawang nilikha mo). At para sa mga kadahilanang pangseguridad, magiging mas maginhawa para sa iyo na gumamit ng mga volume ng NTFS.
  7. Isara ang Pamamahala ng Disk at suriin ang pag-access sa bagong likhang partisyon. Halimbawa, maaari kang lumikha ng isang text file na test.txt dito, isulat ito at tanggalin ito. Kung naging maayos ang lahat, tapos na tayo sa pagsasaayos ng panlabas na hanay sa unang node.
  8. Ngayon ay pinapatay namin ang unang server. Dapat na pinagana ang panlabas na array. Binuksan namin ang pangalawang server at suriin ang pag-access sa nilikha na partisyon. Susuriin din namin na ang liham na nakatalaga sa unang partisyon ay kapareho ng napili namin, iyon ay, Q.

Kinukumpleto nito ang pagsasaayos ng panlabas na hanay.

Pag-install ng Cluster Service Software

Configuration ng unang cluster node

Bago i-install ang Cluster Service Software, dapat i-off ang lahat ng cluster node at dapat na i-on ang lahat ng external arrays. Lumipat tayo sa pagsasaayos ng unang node. Naka-on ang external array, naka-on ang unang server. Ang buong proseso ng pag-install ay nangyayari gamit ang Cluster Service Configuration Wizard:


Configuration ng pangalawang cluster node

Upang i-install at i-configure ang pangalawang cluster node, dapat na naka-on ang unang node at dapat na naka-on ang lahat ng network drive. Ang pamamaraan para sa pag-set up ng pangalawang node ay halos kapareho sa inilarawan ko sa itaas. Gayunpaman, may ilang maliliit na pagbabago. Upang gawin ito, gamitin ang sumusunod na mga tagubilin:

  1. Sa dialog box na Lumikha o Sumali sa isang Cluster, piliin Ang pangalawa o susunod na node sa cluster at i-click ang susunod.
  2. Ipasok ang pangalan ng kumpol na itinakda namin kanina (sa halimbawa ito ay MyCluster) at i-click ang susunod.
  3. Pagkatapos ikonekta ang pangalawang node sa cluster, awtomatikong kukunin ng Cluster Service Configuration Wizard ang lahat ng mga setting mula sa pangunahing node. Para simulan ang Cluster Service, gamitin ang pangalan na ginawa namin kanina.
  4. Ipasok ang password ng iyong account at i-click ang susunod.
  5. Sa susunod na dialog box, i-click ang Tapusin upang makumpleto ang pag-install.
  6. Ilulunsad ang serbisyo ng cluster sa pangalawang node.
  7. Isara ang window ng Add/Remove Programs.

Upang mag-install ng mga karagdagang cluster node, gamitin ang parehong mga tagubilin.

Pahabol, salamat

Upang maiwasang malito sa lahat ng mga yugto ng pag-install ng isang kumpol, magbibigay ako ng isang maliit na talahanayan na sumasalamin sa lahat ng mga pangunahing yugto.

Hakbang Node 1 Node 2 Panlabas na hanay
Pagkatapos ng ilang taong pananahimik, nagpasya akong ibahagi ang aking karanasan sa pag-deploy failover cluster batay sa Windows Server 2012.
Pahayag ng problema: Mag-deploy ng failover cluster para mag-host mga virtual machine, na may kakayahang maglaan ng mga virtual machine sa magkahiwalay na mga virtual subnet (VLAN), tiyakin ang mataas na pagiging maaasahan, ang kakayahang magpalit ng pagpapanatili ng server, at tiyakin ang pagkakaroon ng mga serbisyo. Tiyaking natutulog nang mapayapa ang iyong departamento ng IT.

Upang magawa ang gawain sa itaas, nakuha namin sa aming sarili ang mga sumusunod na kagamitan:

  1. Server ng HP ProLiant DL 560 Gen8 4x Xeon 8 core 64 GB RAM 2 pcs.
  2. SAS Storage HP P2000 para sa 24 2.5" na disk 1 pc.
  3. Mga disk para sa imbakan 300 Gb 24 na mga PC. //Hindi maganda ang volume, ngunit sa kasamaang palad, ang mga badyet ay ganoong mga badyet...
  4. Controller para sa pagkonekta sa SAS na ginawa ng HP 2 pcs.
  5. Network adapter para sa 4 1Gb port 2 pcs. //Posibleng kumuha ng module para sa 4 SFP, ngunit wala kaming kagamitan na sumusuporta sa 10 Gb na koneksyon ay sapat na.
Naturally, ina-update namin ang BIOS at Firmware mula sa opisyal na website.
Organisasyon ng mga koneksyon:


Talagang nakakonekta ito sa 2 magkaibang switch. Maaaring konektado sa 4 na magkakaibang. Sa tingin ko, sapat na ang 2x.
Sa mga switch port kung saan nakakonekta ang mga server, kailangang baguhin ang interface mode mula sa access sa trunk upang maipamahagi sa mga virtual subnet.

Habang nagda-download ang mga update sa bagong naka-install na Windows Server 2012, mag-set up tayo ng disk storage. Nagpaplano kaming mag-deploy ng isang database server, kaya nagpasya kaming gumamit ng 600 GB para sa mga database, ang natitira para sa iba pang mga virtual machine, tulad ng isang tautolohiya.

Lumikha ng mga virtual na disk:

  • Raid10 disk batay sa Raid 1+0 ng 4 na disk +1 na ekstra
  • Raid5 disk batay sa Raid 5 ng 16 na disk +1 na ekstra
  • 2 disk - mga ekstrang bahagi
Ipinapayo ko sa iyo na ipahiwatig ang modelo ng array sa pangalan ng disk; ang pag-andar ay inirerekumenda din ng HP na gumamit ng isang maliit na bilang ng mga virtual na disk, na naglalaman ng isang malaking bilang ng mga pisikal, i.e. Hindi ka dapat lumikha ng isang bungkos ng maliliit na virtual disk.

Ngayon ay kailangan mong lumikha ng mga partisyon.

  • raid5_quorum - Ang tinatawag na witness disk (saksi). Kinakailangan upang ayusin ang isang kumpol ng 2 node.
  • raid5_store - Dito kami mag-iimbak ng mga virtual machine at ang kanilang mga hard drive
  • raid10_db - Ang hard disk ng MS SQL server virtual machine ay maiimbak dito
Itinatalaga namin (mapa) ang aming mga partisyon sa mga sas port ng mga controllers ng imbakan.
Kinakailangang paganahin ang tampok na Microsoft Multipath IO, kung hindi, kapag ang server ay konektado sa parehong mga controller ng imbakan, ang system ay magkakaroon ng 6 na disk, sa halip na 3, at ang kumpol ay hindi magsasama-sama, na nagbibigay ng isang error na nagsasabi na mayroon kang mga disk na may pareho mga serial number, at magiging tama ang wizard na ito, gusto kong sabihin sa iyo.

Inirerekomenda ko ang pagkonekta ng mga server sa imbakan nang paisa-isa:

  1. Nakakonekta ang 1 server sa 1 storage controller
  2. 1 nakakonektang host ang lalabas sa storage - bigyan ito ng pangalan. Pinapayuhan ko kayong tawagan ito sa ganitong paraan: server name_controller number (A o B)
  3. At iba pa hanggang sa ikonekta mo ang parehong mga server sa parehong mga controller.

Sa mga switch kung saan nakakonekta ang mga server, kailangan mong lumikha ng 3 virtual subnets (VLAN):

  1. ClusterNetwork - dito napupunta ang impormasyon ng serbisyo ng cluster (tibok ng puso, regulasyon sa pagsulat ng storage)
  2. LiveMigration - Sa tingin ko malinaw na ang lahat dito
  3. Pamamahala - network para sa pamamahala

Kinukumpleto nito ang paghahanda ng imprastraktura. Magpatuloy tayo sa pag-set up ng mga server at pagpapalaki ng cluster.

Ikinonekta namin ang mga server sa domain. I-install ang papel na Hyper-V, Failover Cluster.
Sa mga setting ng Multipath IO, paganahin ang suporta para sa mga SAS device.
Tiyaking mag-reboot.

Ang mga sumusunod na setting ay dapat makumpleto sa parehong mga server.

Palitan ang pangalan ng lahat ng 4 na interface ng network ayon sa kanilang mga pisikal na port (para sa amin ito ay 1,2,3,4).
I-configure ang NIC Teaming - Idagdag ang lahat ng 4 na adapter sa team, Teaming-Mode - Switch Independent, Load Balancing - Hyper-V Port. Binibigyan namin ng pangalan ang team, iyon ang tinawag kong Team.
Ngayon ay kailangan mong itaas ang virtual switch.
Buksan ang powershell at isulat:

New-VMSwitch "VSwitch" -MinimumBandwidthMode Weight -NetAdapterName "Team" -AllowManagementOS 0

Gumagawa kami ng 3 virtual network adapters.
Sa parehong powershell:
Add-VMNetworkAdapter –ManagementOS –Pangalan "Pamamahala" Add-VMNetworkAdapter –ManagementOS –Pangalan "ClusterNetwork" Add-VMNetworkAdapter –ManagementOS –Pangalan "Live Migration"

Lalabas ang mga virtual switch na ito sa network at sharing control center, at sa pamamagitan nila dadaloy ang trapiko ng aming mga server.

I-customize ang iyong addressing upang umangkop sa iyong mga plano.

Inilipat namin ang aming mga adaptor sa naaangkop na mga VLAN.
Sa iyong paboritong powershell:

Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 2 -VMNetworkAdapterName "Pamamahala" -Kumpirmahin ang Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 3 -VMNetworkAdapterName "ClusterNetwork" -Kumpirmahin ang Set-VMNetworkAdapterV "Live Migration" - Kumpirmahin

Ngayon ay kailangan mong i-configure ang QoS.

Sa Mga setting ng QoS ayon sa timbang (ayon sa timbang), na pinakamahusay na kasanayan, ayon sa Microsoft, ipinapayo ko sa iyo na ayusin ang timbang upang ang kabuuang halaga ay 100, pagkatapos ay maaari nating ipagpalagay na ang halaga na tinukoy sa setting ay isang garantisadong porsyento ng bandwidth. Sa anumang kaso, ang porsyento ay kinakalkula gamit ang formula:

Porsyento ng bandwidth = nakatakdang timbang * 100 / kabuuan ng lahat itakda ang mga halaga timbang
Set-VMSwitch “VSwitch” -DefaultFlowMinimumBandwidthWeight 15

Para sa impormasyon ng serbisyo ng cluster.

Set-VMNetworkAdapter -ManagementOS -Pangalan "Cluster" -MinimumBandwidthWeight 30

Para sa pamamahala.
Set-VMNetworkAdapter -ManagementOS -Pangalan "Pamamahala" -MinimumBandwidthWeight 5

Para sa Live Migration.
Set-VMNetworkAdapter -ManagementOS -Pangalan "Live Migration" -MinimumBandwidthWeight 50

Upang dumaloy nang tama ang trapiko sa mga network, kinakailangang itakda nang tama ang mga sukatan.
Ang trapiko ng impormasyon ng serbisyo ng cluster ay maglalakbay sa network na may pinakamababang sukatan ay maglalakbay sa susunod na pinakamataas na sukatan ng network.

Gawin natin yan.
Sa ating minamahal:

$n = Get-ClusterNetwork “ClusterNetwork” $n.Metric = 1000 $n = Get-ClusterNetwork “LiveMigration” $n.Metric = 1050 $n = Get-ClusterNetwork “Management” $n.Metric = 1100

Ini-mount namin ang aming witness disk sa node kung saan namin tipunin ang cluster, i-format ito sa ntfs.

Sa snap-in ng Failover Clustering, sa seksyong Mga Network, palitan ang pangalan ng mga network upang tumugma sa aming mga adapter.

Ang lahat ay handa na upang tipunin ang kumpol.

Sa snap-in ng Failover Clustering, i-click ang validate. Sinusuri namin. Pagkatapos ay lumikha kami ng isang cluster at piliin ang configuration ng quorum Node at Disk mayorya, na itinuturing din na pinakamahusay na pagpipilian para sa mga cluster na may pantay na bilang ng mga node, at dahil mayroon kaming dalawa lamang sa kanila, ito ang tanging pagpipilian.

Sa seksyong Storage ng Failover Clustering snap-in, idagdag ang iyong mga disk. At pagkatapos ay idagdag ang mga ito nang paisa-isa bilang Cluster Shared Volume (right click sa disk). Pagkatapos idagdag sa folder C:\ClusterStorage May lalabas na simbolikong link sa disk, palitan ang pangalan nito upang tumugma sa pangalan ng disk na idinagdag mo bilang Cluster Shared Volume.

Ngayon ay maaari kang lumikha ng mga virtual machine at i-save ang mga ito sa mga partisyon na ito. Umaasa ako na ang artikulo ay naging kapaki-pakinabang sa iyo.

Mangyaring iulat ang anumang mga error sa pamamagitan ng PM.

Inirerekomenda kong basahin ang: Microsoft Windows Server 2012 Complete Guide. Rand Morimoto, Michael Noel, Guy Yardeni, Omar Drouby, Andrew Abbate, Chris Amaris.

P.S.: Espesyal na pasasalamat kay G. Salakhov, Zagorsky at Razbornov, na kahiya-hiyang nakalimutan ko nang isulat ang post na ito. Nagsisisi ako >_< XD

Ipapakita sa iyo ng artikulong ito kung paano bumuo ng isang Server 2012 failover cluster na may dalawang node. Una, ililista ko ang mga kinakailangan at magbibigay ako ng pangkalahatang-ideya ng kapaligiran ng hardware, network, at mga setting ng storage. Pagkatapos ay idedetalye nito kung paano i-extend ang Server 2012 na may mga kakayahan sa failover clustering at gamitin ang Failover Cluster Manager upang i-configure ang isang two-node cluster.

Napakaraming bagong feature sa Windows Server 2012 na mahirap subaybayan ang lahat ng ito. Ang ilan sa mga pinakamahalagang bloke ng gusali ng bagong imprastraktura ng IT ay kinabibilangan ng mga pagpapabuti sa failover clustering. Ang failover clustering ay nagmula bilang isang teknolohiya para sa pagprotekta kritikal na mga aplikasyon kinakailangan para sa mga aktibidad sa produksyon tulad ng Microsoft SQL Server at Microsoft Exchange. Ngunit ang failover clustering ay naging isang mataas na availability platform para sa isang hanay ng mga serbisyo at application ng Windows. Ang failover clustering ay bahagi ng pundasyon ng Dynamic Datacenter at mga teknolohiya tulad ng live na paglipat. Sa Server 2012 at mga bagong pagpapahusay Protocol ng server Pinapalawak ng Message Block (SMB) 3.0 ang saklaw ng failover clustering upang magbigay ng patuloy na magagamit na nakabahaging mapagkukunan ng file. Ang isang pangkalahatang-ideya ng functionality ng failover clustering sa Server 2012 ay ibinibigay sa artikulong "Mga bagong feature ng failover clustering sa Windows Server 2012" na inilathala sa parehong isyu ng magazine.

Failover Clustering Prerequisites

Upang bumuo ng dalawang-node na Server 2012 failover cluster, kailangan mo ng dalawang computer na nagpapatakbo ng Server 2012 Datacenter o Standard na edisyon. Maaaring ito ay mga pisikal na kompyuter o mga virtual machine. Ang mga kumpol na may mga virtual na node ay maaaring itayo gamit ang gamit ang Microsoft Hyper-V o VMware vSphere. Gumagamit ang artikulong ito ng dalawa mga pisikal na server, ngunit ang mga hakbang para sa pag-set up ng isang cluster para sa pisikal at virtual na mga node ay pareho. Pangunahing Tampok ay ang mga node ay dapat na magkaparehong naka-configure upang ang backup na node ay makapagpatakbo ng mga workload sa kaganapan ng isang failover o live na paglipat. Ang mga sangkap na ginamit sa Server 2012 test failover cluster ay ipinapakita sa figure.

Ang isang Server 2012 failover cluster ay nangangailangan ng nakabahaging imbakan ng data gaya ng iSCSI, Serially Attached SCSI, o Fiber Channel SAN. Gumagamit ang aming halimbawa ng iSCSI SAN. Dapat mong tandaan ang mga sumusunod na katangian mga imbakan ng ganitong uri.

  • Dapat mayroon ang bawat server kahit man lang tatlo mga adaptor ng network: isa para ikonekta ang iSCSI storage, isa para makipag-usap sa cluster node, at isa para makipag-ugnayan sa external network. Kung plano mong gumamit ng cluster para sa live na paglipat, kung gayon ito ay kapaki-pakinabang na magkaroon ng pang-apat na network adapter. Gayunpaman, ang live na paglipat ay maaari ding gawin sa isang panlabas na koneksyon sa network - ito ay magiging mas mabagal. Kung ang mga server ay ginagamit para sa Hyper-V-based virtualization at server consolidation, kailangan ng karagdagang network adapters upang ilipat ang trapiko ng network sa mga virtual machine.
  • SA mabilis na mga network ang trabaho ay palaging mas mahusay, kaya ang bilis ng iSCSI link ay dapat na hindi bababa sa 1 GHz.
  • Ang target ng iSCSI ay dapat sumunod sa detalye ng iSCSI-3, partikular na nagbibigay ng patuloy na redundancy. Ito ay isang ipinag-uutos na kinakailangan ng live na paglipat. Halos lahat ng storage vendor ay may hardware na sumusunod sa iSCSI 3 Kung gusto mong mag-set up ng cluster sa isang lab environment sa murang halaga, tiyaking natutugunan ng iSCSI target na software ang iSCSI 3 at patuloy na mga kinakailangan sa redundancy. Hindi sinusuportahan ng mga lumang bersyon ng Openfiler ang pamantayang ito, hindi katulad ng bagong bersyon ng Openfiler na may Advanced na iSCSI Target Plugin (http://www.openfiler.com/products/advanced-iscsi-plugin). Bukod, libreng bersyon StarWind iSCSI SAN Libreng Edisyon Ang StarWind Software (http://www.starwindsoftware.com/starwind-free) ay ganap na katugma sa Hyper-V at live na paglipat. Ang ilang bersyon ng Microsoft Windows Server ay maaari ding gumana bilang target ng iSCSI na sumusunod sa mga pamantayan ng iSCSI 3 Server 2012 ay may kasamang target na iSCSI. Sinusuportahan ng Windows Storage Server 2008 R2 ang target na software ng iSCSI. Maaari mo ring i-download ang Microsoft iSCSI Software Target 3.3 (http://www.microsoft.com/en-us/download/details.aspx?id=19867), na gumagana sa Windows Server 2008 R2.

Para sa higit pang impormasyon tungkol sa pag-configure ng iSCSI storage para sa isang failover cluster, tingnan ang sidebar na "ISCSI Storage Configuration Example." Ang higit pang mga detalye tungkol sa mga kinakailangan para sa failover clustering ay inilalarawan sa artikulong “Failover Clustering Hardware Requirements and Storage Options” (http://technet.microsoft.com/en-us/library/jj612869.aspx).

Pagdaragdag ng Mga Feature ng Failover Clustering

Ang unang hakbang sa paggawa ng dalawang-node na Server 2012 failover cluster ay ang pagdagdag ng failover cluster component gamit ang Server Manager. Awtomatikong bubukas ang Server Manager kapag nag-log in ka sa Server 2012. Upang magdagdag ng tampok na failover cluster, piliin ang Lokal na Server at mag-scroll pababa sa seksyong MGA TUNGKOL AT MGA TAMPOK. Mula sa drop-down na listahan ng TASKS, piliin ang Magdagdag ng Mga Tungkulin at Mga Tampok, gaya ng ipinapakita ng Figure 1. Ilulunsad nito ang Add Role and Features Wizard.

Ang unang page na magbubukas pagkatapos ilunsad ang wizard ay ang Bago ka magsimulang welcome page. I-click ang Susunod upang pumunta sa pahina ng pagpili ng uri ng pag-install, na nagtatanong kung gusto mong i-install ang bahagi lokal na kompyuter o sa serbisyo ng Remote Desktop. Para sa halimbawang ito, piliin ang opsyon sa pag-install na batay sa tungkulin o batay sa tampok at i-click ang Susunod.

Sa pahina ng Piliin ang patutunguhang server, piliin ang server kung saan mo gustong i-install ang mga feature ng failover cluster. Sa aking kaso ito ay isang lokal na server na pinangalanang WS2012-N1. Kapag napili ang iyong lokal na server, i-click ang Susunod upang pumunta sa pahina ng Piliin ang mga tungkulin ng server. SA sa halimbawang ito Hindi naka-install ang tungkulin ng server, kaya i-click ang Susunod. O maaari mong i-click ang link na Mga Tampok sa kaliwang menu.

Sa pahina ng Piliin ang mga tampok, mag-scroll pababa sa listahan ng mga tampok sa Failover Clustering. Mag-click sa kahon sa harap ng Failover Clustering at makikita mo ang isang dialog box na naglilista ng iba't ibang mga bahagi na mai-install bilang bahagi ng bahaging iyon. Gaya ng ipinapakita ng Figure 2, bilang default, ii-install ng wizard ang mga tool sa pamamahala ng failover cluster at ang failover cluster module para sa Windows PowerShell. I-click ang button na Magdagdag ng Mga Tampok upang bumalik sa pahina ng pagpili ng tampok. I-click ang Susunod.

Ipapakita ng pahina ng Kumpirmahin ang mga pagpipilian sa pag-install ang tampok na failover cluster kasama ng mga tool sa pamamahala at isang PowerShell module. Maaari kang bumalik at gumawa ng anumang mga pagbabago mula sa pahinang ito. Kapag na-click mo ang pindutang I-install, magsisimula ang aktwal na pag-install ng mga bahagi. Kapag kumpleto na ang pag-install, makukumpleto ang wizard at lalabas ang tampok na Failover Cluster sa seksyong MGA TUNGKOL AT MGA TAMPOK ng Server Manager. Ang prosesong ito ay dapat makumpleto sa parehong mga node.

Pagsubok ng Failover Cluster

Ang susunod na hakbang pagkatapos idagdag ang tampok na failover cluster ay suriin ang mga setting ng kapaligiran kung saan nilikha ang cluster. Dito maaari mong gamitin ang Validate Settings Wizard sa Failover Cluster Manager. Sinusuri ng wizard na ito ang mga setting ng hardware at software ng lahat ng mga cluster node at nag-uulat ng anumang mga problema na maaaring makagambala sa cluster.

Upang buksan ang Failover Cluster Manager, piliin ang Failover Cluster Manager na opsyon mula sa Tools menu sa Server Manager. Sa lugar ng Pamamahala, i-click ang link na Validate Configuration, gaya ng ipinapakita ng Figure 3, upang ilunsad ang Validate Configuration Wizard.


Screen 3: Paglulunsad ng Verify Configuration Wizard

Una, lalabas ang welcome page ng wizard. I-click ang Susunod upang pumunta sa seleksyon ng server o pahina ng Cluster. Sa page na ito, ilagay ang mga pangalan ng node ng cluster na gusto mong suriin. Tinukoy ko ang WS2012-N1 at WS2012-N2. I-click ang Susunod upang ipakita ang pahina ng Mga Pagpipilian sa Pagsubok, kung saan maaari kang pumili ng mga partikular na suite ng pagsubok o patakbuhin ang lahat ng pagsubok. Hindi bababa sa sa unang pagkakataon, inirerekomenda kong patakbuhin ang lahat ng mga pagsubok. I-click ang Susunod upang pumunta sa isang pahina ng kumpirmasyon na nagpapakita ng mga pagsubok na pinapatakbo. I-click ang Susunod upang simulan ang proseso ng pagsubok ng cluster. Sa panahon ng pagsubok, sinusuri ang bersyon ng operating system, network at storage ng lahat ng cluster node. Ang isang buod ng mga resulta ay ipinapakita pagkatapos makumpleto ang pagsubok.

Kung matagumpay ang mga pagsubok sa pagpapatunay, maaari kang lumikha ng isang cluster. Ipinapakita ng Figure 4 ang screen ng buod para sa isang matagumpay na na-verify na cluster. Kung may nakitang mga error sa panahon ng pagsusuri, ang ulat ay mamarkahan ng isang dilaw na tatsulok (mga babala) o isang pulang "X" kung sakaling magkaroon ng malubhang mga error. Dapat basahin ang mga babala ngunit maaaring balewalain. Ang mga malubhang error ay dapat itama bago gumawa ng isang cluster.

Bilang resulta, ilulunsad ang cluster creation wizard, na magsisimula sa welcome page. I-click ang Susunod upang pumunta sa pahina ng Pagpili ng Server, na ipinapakita ng Figure 6 Sa pahinang ito, ilagay ang mga pangalan ng lahat ng node sa cluster, pagkatapos ay i-click ang Susunod.

Sa Access Point para sa Pangangasiwa ng Cluster na pahina, dapat mong tukuyin ang pangalan at IP address ng cluster, na dapat ay natatangi sa network. Tulad ng makikita mo sa Screen 7, ang aking cluster name ay WS2012-CL01 at ang IP address ay 192.168.100.200. Kapag gumagamit ng Server 2012, ang cluster IP address ay maaaring italaga sa pamamagitan ng DHCP, ngunit mas gusto ko ang isang statically assigned IP address para sa aking mga server.

Pagkatapos mong ipasok ang iyong pangalan at IP address, i-click ang Susunod upang makita ang pahina ng kumpirmasyon (Figure 8). Sa page na ito maaari mong i-verify ang mga setting na ginawa kapag gumagawa ng cluster. Maaari kang bumalik at gumawa ng mga pagbabago kung kinakailangan.

Pagkatapos i-click ang Susunod na button sa pahina ng kumpirmasyon, isang kumpol ay nabuo sa lahat ng mga napiling node. Ipinapakita ng pahina ng pag-unlad ang mga hakbang ng wizard sa proseso ng paglikha ng bagong cluster. Kapag nakumpleto, ang wizard ay magpapakita ng isang pahina ng buod na may mga setting para sa bagong cluster.

Awtomatikong pinipili ng Bagong Cluster Wizard ang imbakan ng korum, ngunit madalas itong pumipili ng ibang quorum disk kaysa sa gusto ng administrator. Para tingnan kung aling disk ang ginagamit para sa quorum, buksan ang Failover Cluster Manager at palawakin ang cluster. Pagkatapos ay buksan ang Storage node at i-click ang Disks node. Ang mga disk na magagamit sa kumpol ay ipapakita sa panel ng Mga Disk. Ang disk na pinili ng wizard para sa cluster quorum ay ililista sa seksyong Disk Witness sa Quorum.

Sa halimbawang ito, ginamit ang Cluster Disk 4 para sa quorum Ang laki nito ay 520 MB, higit pa pinakamababang halaga para sa isang korum na 512 MB. Kung gusto mong gumamit ng ibang disk para sa cluster quorum, maaari mong baguhin ang mga setting ng cluster sa pamamagitan ng pag-right click sa pangalan ng cluster sa Failover Cluster Manager, pagpili sa Higit pang Mga Pagkilos, at pagkatapos ay pagpili sa I-configure ang Mga Setting ng Cluster Quorum. Ipapakita nito ang Quorum Configuration Wizard, na nagbibigay-daan sa iyong baguhin ang mga setting ng cluster quorum.

Pag-configure ng Cluster Shared Volume at Virtual Machine Role

Ang parehong mga node sa aking cluster ay may papel na Hyper-V dahil ang cluster ay idinisenyo para sa mga magagamit na virtual machine na nagbibigay ng live na paglipat. Upang gawing mas madali ang live na paglipat, kailangan mong i-configure ang Cluster Shared Volumes (CSV). Hindi tulad ng Server 2008 R2, ang Cluster Shared Volumes ay pinagana bilang default sa Server 2012. Gayunpaman, kailangan mo pa ring tukuyin kung aling storage ang gagamitin para sa Cluster Shared Volumes. Upang paganahin ang CSV sa isang available na disk, palawakin ang Storage node at piliin ang Disks node. Susunod, piliin ang cluster disk na gusto mong gamitin bilang CSV at i-click ang link na Add to Cluster Shared Volumes sa Actions panel ng Failover Cluster Manager (Figure 9). Ang field na Nakatalaga kay para sa cluster disk na ito ay nagbabago mula sa Available na Storage sa Cluster Shared Volume, gaya ng ipinapakita ng Figure 9.

Sa oras na ito, kino-configure ng Failover Cluster Manager ang cluster disk storage para sa CSV, partikular na nagdaragdag ng mount point sa disk ng system. Sa halimbawang ito, pinagana ang Cluster Shared Volumes sa parehong Cluster Disk 1 at Cluster Disk 3 na may mga sumusunod na mount point na idinagdag:

* C:ClusterStorageVolume1 * C:ClusterStorageVolume2

Sa yugtong ito, isang dalawang-node na cluster ng Server 2012 ang binuo at pinagana ang Cluster Shared Volumes. Pagkatapos ay maaari kang mag-install ng mga clustered na application o magdagdag ng mga tungkulin sa cluster. Sa kasong ito, nilikha ang cluster para sa virtualization, kaya idinaragdag namin ang papel ng virtual machine sa cluster.

Upang magdagdag ng bagong tungkulin, piliin ang pangalan ng cluster sa navigation pane ng Failover Cluster Manager at i-click ang link na I-configure ang Mga Tungkulin sa pane ng Mga Pagkilos upang ilunsad ang High Availability Wizard. I-click ang Susunod sa Welcome page upang pumunta sa pahina ng pagpili ng tungkulin. Mag-scroll pababa sa listahan ng mga tungkulin hanggang sa makita mo ang papel ng virtual machine, tulad ng ipinapakita ng Figure 10 Piliin ang tungkulin at i-click ang Susunod.

Ililista ng pahina ng Select Virtual Machine ang lahat ng VM sa lahat ng node sa cluster, tulad ng ipinapakita sa Figure 11 Mag-scroll sa listahan at piliin ang mga virtual machine na gusto mong magbigay ng mataas na availability. I-click ang Susunod. Sa sandaling kumpirmahin mo ang iyong pagpili, i-click ang Susunod upang idagdag ang mga tungkulin ng virtual machine sa Failover Cluster Manager.

Halimbawa ng configuration ng storage ng iSCSI

Para sa fault tolerant Windows cluster Nangangailangan ang Server 2012 ng nakabahaging storage, na maaaring iSCSI, Serially Attached SCSI, o Fiber Channel SAN. Gumagamit ang failover cluster na ito ng Channel SAN.

Una, tatlong LUN ang nilikha sa iSCSI SAN. Isang LUN ang ginawa para sa cluster quorum disk (520 MB). Ang iba pang LUN ay para sa 10 virtual machine at 375 GB ang laki. Ang ikatlong LUN ay nakatuon sa isang maliit na pagsubok na virtual machine. Lahat ng tatlong LUN ay nasa NTFS na format.

Matapos magawa ang mga LUN, na-configure ang iSCSI Initiator sa pareho Mga node ng server 2012 Upang magdagdag ng mga target ng iSCSI, pinili ang iSCSI Initiator mula sa menu ng Mga Tool sa Server Manager. Sa tab na Discovery, na-click ko ang button na Discover Portal. Bilang resulta, lumitaw ang dialog box ng Discover Portal, kung saan ipinasok ang IP address (192.168.0.1) at iSCSI port (3260) ng SAN network.

Pagkatapos ay pumunta ako sa tab na Mga Target at nag-click sa pindutan ng Connect. Sa dialog box na Connect To Target, inilagay ko ang target na pangalan ng iSCSI SAN. Ito ay nakuha mula sa mga katangian ng SAN. Ang pangalan ay depende sa SAN provider, ang domain name, at ang mga pangalan ng LUN na ginawa. Bilang karagdagan sa target na pangalan, itinakda ko ang Idagdag ang koneksyon na ito sa listahan ng mode ng Mga Paboritong Target.

Kapag kumpleto na ang setup ng iSCSI, lalabas ang mga LUN na ito sa tab na Mga Target ng iSCSI Initiator. Upang awtomatikong i-mount ang mga LUN kapag nagsimula ang Server 2012, tiniyak kong nakalista ang mga ito sa tab na Mga Paboritong Target, tulad ng ipinapakita sa Screen A.

Screen A: Pag-configure ng iSCSI Initiator

Sa wakas, ang mga pangalan ng titik ay itinalaga sa mga LUN gamit ang snap-in ng Disk Management console Pamamahala ng Microsoft(MMC). Pinili ko ang Q para sa quorum disk at W para sa disk na ginagamit para sa mga virtual machine at Cluster Shared Volumes (CSV). Kapag nagtatalaga ng mga simbolo ng titik, dapat mo munang italaga ang mga ito sa parehong node. Pagkatapos ay kailangan mong i-convert ang mga disk sa offline mode at gumawa ng katulad na mga takdang-aralin sa pangalawang node. Ang mga resulta ng pagtatalaga ng mga drive letter para sa isang node ay ipinapakita sa Screen B. Kapag gumawa ka ng cluster, ang mga drive ay ipapakita bilang available na storage.



Sa kabila ng hindi maliwanag na saloobin patungo sa Microsoft, dapat tandaan na ginawa ng kumpanya ang mataas na teknolohiya na naa-access sa mga ordinaryong gumagamit. Isang paraan o iba pa, ngunit ang kasalukuyang posisyon ng globo teknolohiya ng impormasyon hindi bababa sa tinutukoy ng Microsoft.

Ang mga solusyon at produkto ay hindi palaging galing Microsoft agad na inookupahan ang mga posisyon sa antas ng mga dalubhasang solusyon, ngunit ang pinakamahalaga ay unti-unting naging pinuno sa mga tuntunin ng ratio ng presyo/pag-andar, gayundin sa kadalian ng pagpapatupad. Ang isang halimbawa ay ang mga kumpol.

Ang computing cluster development ay hindi malakas na suit ng Microsoft. Ito ay napatunayan, bukod sa iba pang mga bagay, sa pamamagitan ng katotohanan na ang mga pag-unlad ng kumpanya ay hindi kasama sa listahan ng Top-500 supercomputers. Samakatuwid, ito ay ganap na lohikal na sa linya ng Windows Walang HPC (High-performance computing) na edisyon ang Server 2012.

Bilang karagdagan, dahil sa mga katangian ng high-performance computing, ang Windows Azure platform ay tila mas promising. Samakatuwid, itinuon ng Microsoft ang pansin nito sa mga mataas na kumpol ng availability.

Mga kumpol sa Windows.

Ang suporta sa cluster ay unang ipinatupad ng Microsoft sa operating system sa Windows NT 4 Server Enterprise Edition sa form Mga teknolohiya ng Microsoft Cluster Service (MSCS). Sa Windows Server 2008, ito ay naging tampok na Failover Clustering. Sa pangkalahatan, ang mga ito ay mga failover cluster o mataas na magagamit na mga cluster, bagama't kung minsan ang mga ito ay hindi masyadong tama na tinatawag na fault-tolerant.

Sa pangkalahatang kaso, kung nabigo ang node kung saan ipinadala ang kahilingan, magkakaroon ng pagtanggi sa serbisyo, ngunit awtomatikong magre-restart ang mga clustered na serbisyo sa isa pang node, at dadalhin ang system sa isang handa na estado sa lalong madaling panahon.

Ang isang high availability cluster sa Windows ay may kasamang hindi bababa sa dalawang node na may mga naka-install na operating system at ang mga kaukulang tungkulin. Ang mga node ay dapat na konektado sa panlabas na network at ang panloob na network na kinakailangan para sa palitan mga opisyal na mensahe, sa isang nakabahaging imbakan ng mga mapagkukunan ng serbisyo (halimbawa, isang witness disk para sa korum). Bilang karagdagan, kasama rin sa system ang data mula sa mga clustered application. Sa isang sitwasyon kung saan ang mga serbisyo ay isinasagawa sa isa lamang sa mga node, ang Active-Passive scheme ay ipinatupad, iyon ay, ang mga serbisyo ay isinasagawa sa isang node, at ang pangalawa ay gumagana sa standby mode. Kapag ang parehong mga node ay nagdadala ng isang payload, isang Active-Active scheme ang ipinapatupad.

Mula noong unang pagpapatupad nito, malaki ang pagbabago sa suporta ng Windows para sa mga kumpol. Suporta para sa file at mga serbisyo sa network, mamaya SQL Server (sa Windows Server 2000 operating system), Exchange Server (sa Windows Server 2003 operating system), at iba pang karaniwang mga serbisyo at tungkulin, kabilang ang Hyper-V (sa Windows Server 2008 operating system). Ang scalability ay napabuti (hanggang sa 64 na node sa Windows Server 2012), at ang listahan ng mga clustered na serbisyo ay pinalawak.

Ang suporta para sa virtualization, pati na rin ang pagpoposisyon ng Windows Server bilang isang cloud operating system, ay naging dahilan para sa karagdagang pag-unlad ng cluster support, dahil mataas na density Ang pag-compute ay naglalagay ng mataas na pangangailangan sa pagiging maaasahan at pagkakaroon ng imprastraktura. Samakatuwid, simula sa Windows Server 2008 operating system, ang karamihan sa mga pagpapabuti ay puro sa lugar na ito.

Ang operating system ng Windows Server 2008 R2 ay nagpapakilala ng Hyper-V Cluster Shared Volumes (CSV), na nagpapahintulot sa mga node na ma-access ang isang NTFS file system sa isang pagkakataon. Bilang resulta, ang maraming clustered virtual machine ay maaaring magbahagi ng parehong LUN address at mag-migrate mula sa host patungo sa host nang hiwalay.

Sa Windows Server 2012, pinahusay ang suporta ng Hyper-V clustering. Ang kakayahang pamahalaan ang mga priyoridad ng virtual machine sa antas ng isang buong cluster ay idinagdag, na tumutukoy sa pagkakasunud-sunod ng muling pamamahagi ng memorya, pagbawi ng mga virtual machine sa kaganapan ng pagkabigo ng node o binalak na paglipat ng masa. Ang mga kakayahan sa pagsubaybay ay pinalawak - kung nabigo ang isang sinusubaybayang serbisyo, posible na ngayong i-restart hindi lamang ang serbisyo mismo, kundi pati na rin ang buong virtual machine. Posibleng lumipat sa isa pa, hindi gaanong abala na node. Iba pa, hindi gaanong kawili-wiling mga inobasyon na may kaugnayan sa clustering ay ipinatupad.

Mga Cluster sa Windows Server 2012.

Una, tingnan natin ang mga inobasyon sa mga pangunahing teknolohiya na ginagamit ng mga kumpol o tumutulong sa pagpapalawak ng kanilang mga kakayahan.

SMB 3.0

Ang bagong bersyon ng SMB 3.0 protocol ay ginagamit para sa network data exchange. Ang protocol na ito ay hinihiling kapag nagsasagawa ng pagbabasa, pagsusulat at iba pang mga operasyon ng file sa mga malalayong mapagkukunan. Ang bagong bersyon ay may kasamang malaking bilang ng mga pagpapahusay na nagbibigay-daan sa iyong mag-optimize gawaing SQL Server, Hyper-V at mga kumpol ng file. Pakitandaan ang mga sumusunod na update:

  • transparent fault tolerance. Tinitiyak ng pagbabagong ito ang pagpapatuloy ng mga operasyon. Kung ang isa sa mga file cluster node ay nabigo, ang mga patuloy na operasyon ay awtomatikong ililipat sa isa pang node. Salamat sa pagbabagong ito, naging posible na ipatupad Aktibo-Aktibong mga scheme sumusuporta ng hanggang 8 node.
  • scaling. Salamat sa bagong pagpapatupad Ang mga nakabahaging volume ng cluster (bersyon 2.0) ay nagbibigay-daan sa sabay-sabay na pag-access sa mga file sa lahat ng cluster node, sa gayon ay nakakamit ang throughput aggregation at load balancing.
  • SMB Direct. Naipatupad na ang suporta para sa mga network adapter na may teknolohiyang RDMA. Ang teknolohiya ng RDMA (Remote Direct Memory Access) ay nagpapahintulot sa data na mailipat nang direkta sa memorya ng application, na makabuluhang nagpapalaya sa CPU.
  • SMB Multichannel. Nagbibigay-daan para sa pagsasama-sama ng bandwidth at pinapataas ang fault tolerance sa pagkakaroon ng maramihang mga landas ng network sa pagitan ng isang SMB 3.0-enabled na server at isang kliyente.

Dapat sabihin na para magamit ang mga feature na ito, dapat na naroroon ang suporta ng SMB 3.0 sa magkabilang dulo ng koneksyon. Inirerekomenda ng Microsoft ang paggamit ng mga server at kliyente ng parehong henerasyon (sa kaso ng Windows Server 2012, ang platform ng kliyente na ito ay Windows 8). Sa kasamaang palad, ngayon ang Windows 7 ay sumusuporta lamang sa SMB na bersyon 2.1.

Mga puwang sa imbakan.

Ang teknolohiya ng Storage Spaces ay ipinatupad sa unang pagkakataon sa Windows Server 2012 at Windows 8 operating system ay ipinatupad na ang suporta para sa bagong ReFS file system, na nagbibigay ng mga function para sa pagtaas ng fault tolerance. Posibleng magtalaga ng mga disk sa pool para sa mainit na kapalit (sa kaso ng pagkabigo ng ibang media o para sa mabilis na kapalit SSD na naubos na ang mapagkukunan nito). Bilang karagdagan, ang mga kakayahan ay pinalawak fine tuning gamit ang PowerShell.

Mahalaga, ang teknolohiya ng Storage Spaces ay isang software na pagpapatupad ng RAID, na pinahusay na may malaking bilang ng mga karagdagang function. Una, dapat i-pool ang mga direktang access drive. Sa prinsipyo, ang mga drive ay maaaring maging anumang uri at kapasidad, gayunpaman, upang ayusin ang matatag na operasyon, isang malinaw na pag-unawa sa mga prinsipyo ng pagpapatakbo ng teknolohiya ay kinakailangan.

  • simple (katulad ng RAID 0);
  • salamin (ang isang two-way na salamin ay kahalintulad sa RAID1, isang tatlong-daan na salamin ay higit pa kumplikadong circuit tulad ng RAID 1E)
  • na may parity control (katulad sa RAID 5. Tinitiyak ng opsyong ito ang kaunting pag-aaksaya ng espasyo na may kaunting fault tolerance).

Ang teknolohiya ng Storage Spaces ay hindi ganap na bago. Ang mga katulad na kakayahan ay matagal nang ipinatupad sa Windows Server, halimbawa sa anyo ng mga dynamic na disk. Ginagawang mas maginhawa ng teknolohiya ng Storage Spaces ang lahat ng feature na ito at naghahatid ng bagong antas ng karanasan. Kabilang sa iba pang mga bentahe ng Storage Spaces, kinakailangang tandaan ang manipis na provisioning, na ginagawang posible na magtalaga ng mga laki sa mga virtual na disk na lampas sa magagamit sa katotohanan upang magdagdag ng mga bagong drive sa kaukulang pool sa ibang pagkakataon.

Isa sa mga pinaka-mapanghamong isyu sa teknolohiya ng Storage Spaces ay ang pagganap. Karaniwan, software Mga pagpapatupad ng RAID mas mababa sa pagganap kaysa sa mga opsyon sa hardware. Gayunpaman, kung pinag-uusapan natin ang tungkol sa isang file server, ang Storage Spaces ay mayroong malaking halaga ng RAM at malakas na processor, kaya kailangan ang pagsubok na isinasaalang-alang iba't ibang uri load. Mula sa puntong ito ng view, ang mga kakayahan sa fine-tuning gamit ang PowerShell ay may partikular na halaga.

Ang teknolohiya ng Storage Spaces ay nag-aalis ng mga RAID controller at mamahaling sistema imbakan, paglilipat ng lohika sa antas ng operating system. Ang ideyang ito ay nagpapakita ng lahat ng mga merito nito at lumalabas na medyo kaakit-akit kasama ng isa pang pagbabago.

Scale-Out File Server (SOFS).

Ang isa pang pagbabago ay ang clustered File Server role mode sa Windows Server 2012, na tinatawag na Scale-Out File Server. Ngayon ay ipinatupad na ang suporta para sa dalawang uri ng clustering, ang mga pangalan nito ay File Sever para sa Pangkalahatang Paggamit at Scale-Out File Server (SOFS) para sa data ng aplikasyon. Ang bawat teknolohiya ay may sariling mga lugar ng aplikasyon, pati na rin ang sarili nitong mga pakinabang at disadvantages.

Ang isang all-purpose file server ay isang kilalang Active-Passive cluster type. Sa turn, ang SOFS ay isang Active-Active cluster, na isang tunay na fault-tolerant na configuration. Upang magbahagi ng access sa kaukulang mga folder, gamitin ang opsyon na Patuloy na Magagamit.

tsaka mahusay na mga katangian fault tolerance, nagbibigay ito ng mas mataas na throughput, napapailalim sa makatwirang disenyo ng arkitektura ng network. Pag-proxy file system Binabawasan ng CSV 2.0 (CSVFS) ang epekto ng CHKDSK sa pamamagitan ng pagpayag sa utility na isagawa ang mga kinakailangang operasyon habang nagagawa pa ring gumana sa dami ng mga aktibong application. Ipinatupad ang read caching mula sa CSV. Ang paggamit ng CSV ay ginagawang simple at madaling i-deploy at pamahalaan. Ang gumagamit ay kailangang lumikha regular na kumpol, i-configure ang volume ng CSV at i-activate ang papel ng file server sa Scale-Out File Server para sa application data mode.

Dahil sa pagiging simple at functionality ng iminungkahing solusyon, nabuo ang isang bagong klase ng kagamitang "cluster-in-a-box" (CiB). Karaniwan, ito ay isang chassis na may dalawang blade server at isang SAS JBOD disk array na may suporta sa Storage Spaces. Mahalaga dito na ang mga SAS JBOD ay dual-port, at mayroong SAS HBA upang ipatupad ang cross-connection.

Ang organisasyong ito ng system ay partikular na naglalayong suportahan ang SOFS. Isinasaalang-alang na ang target ng iSCSI ay isinama bilang pamantayan sa Windows Server 2012 at maaari ding i-cluster, kaya nitong ipatupad ang isang "homemade" na storage system batay sa isang all-purpose na operating system.

Gayunpaman, tandaan na ang may-ari ng CSV ay isa pa rin sa mga node, na responsable para sa lahat ng pagpapatakbo ng metadata. Sa malalaking dami Ang metadata ay maaaring makaranas ng isang parusa sa pagganap, kaya ang senaryo ng Information Worker ay hindi inirerekomenda para sa SOFS, habang ang Hyper-V at SQL Server ay perpekto para dito, kabilang ang sa pamamagitan ng mga tampok ng pagsasama-sama ng bandwidth.

Iba pang mga inobasyon sa Windows clustering na teknolohiya.

Sa itaas ay inilista lamang namin ang pinakamahalaga at pangunahing mga inobasyon sa larangan ng clustering sa Windows Server 2012. Gayunpaman, ang iba pang mas maliliit na inobasyon, ay hindi rin nagkataon.

Ang suporta para sa virtualization ay pinalawak sa pamamagitan ng makabuluhang pagpapasimple sa paglikha ng mga guest cluster (mula sa mga virtual machine). Hindi tulad ng Windows Server 2008 R2, kung saan kailangan nitong magbigay ng iSCSI Target karaniwang gamit virtual machine, ipinakilala ng operating system ng Windows Server 2012 ang isang feature na nagbibigay-daan sa iyong i-virtualize ang FC controller (katulad ng mga network adapter), dahil sa kung saan ang mga virtual machine ay direktang naa-access ang LUN. Ang isang mas simpleng opsyon ay ipinatupad din gamit ang isang karaniwan folder ng network SMB 3.0 para sa Mga bisita sa Windows Server 2012.

Isa sa importante pero mga gawaing hindi mahalaga ay ang pag-install mga update sa software sa kumpol. Maaaring mangailangan ito ng pag-reboot ng mga node, kaya dapat na subaybayan ang pamamaraan. Nag-aalok ang operating system ng Windows Server 2012 ng Cluster-Aware Updating tool, na gumagana tulad ng sumusunod: ang isa sa mga node ay itinalaga bilang coordinator at sinusubaybayan ang mga update, dina-download ang mga ito sa natitirang mga node, at ina-update ang mga node nang paisa-isa, simula sa ang mga hindi gaanong na-load. Tinitiyak nito na ang pagkakaroon ng cluster ay pinananatili sa pinakamataas na posibleng antas sa buong proseso ng pag-upgrade.

Mayroon ding mga pagbabago sa pamamahala ng korum. Halimbawa, ang kakayahang magbigay ng mga karapatan sa pagboto sa ilang mga node lamang ay ipinatupad. Maaari itong maging kapaki-pakinabang kapag naglalagay ng mga indibidwal na node sa isang malayong site, ngunit pinakamahalaga kapag ipinapatupad ang bagong modelo ng dynamic na korum. Ang pangunahing ideya ng isang dinamikong korum ay ang isang node na huminto sa paggana at hindi magagamit para sa isang tiyak na tagal ng panahon para sa anumang kadahilanan ay nawawala ang mga karapatan sa pagboto hanggang sa ito ay muling maiugnay. Kaya, ang kabuuang bilang ng mga boto ay nabawasan at ang kumpol ay nananatiling magagamit hangga't maaari.

Ano ang bago sa Windows Server 2012 R2.

Ang Windows Server 2012 R2 operating system ay hindi simple Pag-update ng Windows Ang Server 2012 ay isang ganap na bagong operating system. Ang mga inobasyon na ipinatupad sa Windows Server 2012 R2 ay nagsasalin ng ilang feature platform ng server sa isang qualitatively bagong antas. Pangunahing may kinalaman ito sa SOFC at Hyper-V.

Mga magagamit na virtual machine.

Ang pamamaraan para sa paglikha ng mga cluster ng bisita ay pinasimple, dahil posible na ngayong gumamit ng mga regular na VHDX bilang shared storage, na ipapakita bilang mga Shared SAS disk sa loob ng virtual machine. Sa kasong ito, ang VHDX mismo ay dapat ilagay sa CSV o sa mga nakabahaging folder SMB 3.0. Sa kasong ito, parehong Windows Server 2012 R2 at Windows Server 2012 (na may na-update na mga bahagi ng pagsasama) ay maaaring gamitin sa mga virtual machine.

Ang opsyon na DrainOnShutdown ay idinisenyo upang i-save ang mga administrator ng system mula sa mga error at hindi kinakailangang gawain. Ang function ay na-activate bilang default at sa panahon ng mga naka-iskedyul na pag-reboot o pag-shutdown, proactive nitong inililipat ang node sa isang maintenance mode kung saan ang lahat ng mga clustered na tungkulin ay inililikas. Naglilipat ito ng mga aktibong virtual machine sa iba pang mga node sa Hyper-V cluster.

Gayundin sa bagong operating system ng Windows Server 2012 R2, sinusubaybayan ng Hyper-V ang mga interface ng network sa mga virtual machine at, kung may nangyaring problema, sisimulan ang proseso ng paglipat ng mga ito sa isang host kung saan available ang isang panlabas na network.

Korum.

Bilang karagdagan sa dynamic na korum, ang Windows Server 2012 R2 ay nagpapatupad din ng isang dynamic na disk witness (saksi). Kung ang bilang ng mga node ay nagbabago, ang kanyang boto ay maaaring awtomatikong bilangin upang ang kabuuang bilang ng mga boto ay mananatiling kakaiba. Kung ang disk mismo ay lumabas na hindi magagamit, ang boses nito ay ire-reset lamang sa zero. Ang scheme na ito ay nagbibigay-daan sa iyo na ganap na umasa sa mga awtomatikong mekanismo, pag-abandona sa mga modelo ng korum.

Ang pagiging maaasahan ng mga kumpol na matatagpuan sa dalawang site ay nadagdagan. Kadalasan, sa ganitong pagpapatupad, eksaktong kalahati ng mga node ang matatagpuan sa bawat site, kaya ang mga breakdown ng komunikasyon sa pagitan ng mga site ay maaaring magdulot ng mga problema sa pagbuo ng isang korum. Bagama't matagumpay na nakayanan ng dynamic na mekanismo ng korum ang karamihan sa mga sitwasyong ito, sa Windows Server 2012 R2 posibleng magtalaga ng mababang priyoridad sa isa sa mga site, upang sa kaganapan ng pagkabigo ang cluster ay palaging gumagana sa pangunahing site. Kung ang cluster ay sinimulan sa sapilitang korum, pagkatapos ay kapag ang komunikasyon sa malayong site ay naibalik, ang mga serbisyo ng cluster ay awtomatikong magre-restart at ang buong cluster ay muling magkakaisa.

CSV 2.1

Malaking pagbabago rin ang ginawa sa pagpapatupad ng CSV. Ngayon, ang mga tungkulin ng mga may-ari ng volume ay awtomatikong ipinamamahagi sa mga node, alinsunod sa mga pagbabago sa kanilang numero. Ang fault tolerance ng CSV ay nadagdagan dahil sa ang katunayan na ang dalawang pagkakataon ng serbisyo ng server ay inilunsad sa bawat cluster node. Ang isa ay ginagamit sa serbisyo sa trapiko ng SMB ng kliyente, ang isa ay nagbibigay ng komunikasyon sa pagitan ng mga node. Sa kasong ito, sinusubaybayan ang serbisyo at kung sakaling mabigo, ang tungkulin ng may-ari ng CSV ay ililipat sa ibang node.

Ang ilang mga inobasyon sa CSV ay nagbibigay-daan sa mas mahusay na paggamit ng SOFC at Storage Spaces. Nagdagdag ng suporta para sa ReFS file system, na may mas advanced na internal na organisasyon kaysa sa NTFS. Malamang, ang file system na ito ay unti-unting kukuha ng nangungunang posisyon sa mga produkto ng Microsoft. Ang Windows Server 2012 R2 ay nagpapakilala rin ng isang mekanismo ng deduplication, na dati ay pinangangalagaan ng isang all-purpose file server. Ang pagpapagana ng deduplication ay hindi pinapagana ang CSV Block Cache, ngunit sa ilang mga kaso maaari itong maging epektibo. Maaaring gawin ang mga volume ng CSV sa Storage Spaces na may parity.

Sa Windows Server 2012 R2, ang kakayahang pagsamahin ang iba't ibang uri ng mga drive ay may espesyal na kahulugan sa mga tiered na espasyo. Posible na ngayong lumikha ng dalawang antas: mabilis (batay sa SSD) at malawak (batay sa mga hard drive) at, kapag lumilikha ng isang virtual disk, maglaan ng isang tiyak na dami mula sa bawat isa sa kanila. Pagkatapos, alinsunod sa isang tiyak na iskedyul, ang mga nilalaman ng virtual disk ay susuriin at ilalagay sa 1 MB na mga bloke sa mas mabilis o mas mabagal na media, depende sa demand. Ang isa pang paggamit ng mga multi-level na espasyo ay ang pagpapatupad ng write-back cache sa mga SSD. Sa peak times, ang pagre-record ay ginagawa sa mabilis na solid-state drive, at mamaya ang malamig na data ay inililipat sa mas mabagal na hard drive.

Ang mga inobasyon na nauugnay sa CSV at Storage Spaces ang pinakamahalaga sa Windows Server 2012 R2. Batay sa kanila, maaari kang mag-deploy hindi lamang maaasahan mga file server, ngunit makapangyarihan at nababaluktot na mga system ng pag-iimbak ng data na may mahusay na scalability at mahusay na fault tolerance, na nagbibigay sa user ng malawak na hanay ng mga modernong tool.

Ang pangunahing layunin ng artikulo ay malinaw na ipakita kung paano mag-deploy ng failover cluster MS SQL Server 2012. Ang materyal ay nakasulat at magiging kawili-wili para sa mga nagsisimula. Ang mga nakaranasang guru at lahat na pamilyar na sa isyung ito ay malamang na hindi makakahanap ng bago at kapaki-pakinabang para sa kanilang sarili nang personal.

Ang gawaing kinakaharap natin ay tiyakin walang tigil na operasyon at mataas na pagkakaroon ng database sa bersyon ng client-server deployment.

Stage 1 - Paghahanda

Mga pangunahing kinakailangan sa hardware at software:

  • Availability ng hindi bababa sa 2 node (pisikal/virtual), storage system
  • MS Windows Server, MS SQL Server Storage
  • Sistema ng imbakan
    1. Magagamit na iSCSI disk para sa mga database
    2. Available ang iSCSI disk para sa MSDTC
    3. Quorum disk

Test stand:

  • Windows Server 2012R2 na may mga tungkulin sa AD DS, DNS, DHCP (WS2012R2AD)
  • iSCSI* storage
  • 2xWindows Server 2012R2 (para sa WS2012R2C1 at WS2012R2C2 cluster)
  • Windows Server 2012R2 na may nakataas na serbisyo ng 1C Server (WS2012R2AC)

*bilang isang opsyon maaari mong gamitin ang Storage Role sa Windows Server 2012R2, isang software solution mula sa StarWind o isang tunay na iSCSI network device

Sa teknikal na paraan, makakayanan mo ang 3 server sa pamamagitan ng pagsasama-sama ng lahat ng kinakailangang tungkulin sa isang domain controller, ngunit sa mga kundisyon sa field hindi ito inirerekomenda.

Una, ipinakilala namin ang mga server ng WS2012R2C1 at WS2012R2C2 sa domain at i-install ang papel na "Failover Clustering" sa bawat isa sa kanila.
Pagkatapos i-install ang tungkulin, ilunsad ang Failover Cluster Manager snap-in at pumunta sa Cluster Creation Wizard kung saan namin i-configure ang aming failover cluster: lumikha ng Quorum (shared resource) at MSDTC (iSCSI).

Stage 2 - Pag-install ng MS SQL Server

Para sa pag-install kailangan namin pamamahagi ng pag-install MS SQL Server. Ilunsad natin ang installation wizard at piliin ang opsyong mag-install ng bagong cluster instance:

Maingat naming binabasa at tinatanggap ang kasunduan sa lisensya:

Nakakakuha kami ng mga available na update:

Ipinapasa namin ang tseke ng pagsasaayos (nilaktawan namin ang Babala sa MSCS):

Piliin ang opsyong target ng pag-install:

Pinipili namin ang mga sangkap na kailangan namin (para sa gawain sa kamay, ang mga pangunahing ay sapat na):

Isa pang pagsusuri ng configuration ng pag-install:

Sinusuri ang magagamit na espasyo:

Pumili ng disk para sa lokasyon ng mga database ng cluster:

Cluster network interface configuration (inirerekumenda na manu-manong tukuyin ang address):

Ipinapahiwatig namin ang mga detalye ng administrator (maaari kang lumikha indibidwal na gumagamit para sa MSSQL):

Isa sa mahahalagang yugto- ang pagpipiliang ito ng pagkakasunud-sunod ng pag-uuri (Collation) pagkatapos ng pag-install ay lubhang problemadong baguhin:

Mga parameter ng pagpapatotoo sa server (sa aming kaso, isang halo-halong opsyon ang pinili, bagama't mas ligtas na gamitin lamang ang pagpapatotoo ng domain):

Pagpili ng mga direktoryo ng storage para sa mga shared cluster file (sa mga bersyon ng MS SQL Server 2012 at mas luma, ang TempDB ay maaaring iimbak sa bawat node at hindi ilipat sa shared storage):

Ilang tseke pa:



Sa wakas, sinisimulan namin ang pag-install (maaaring tumagal ang proseso):

Kumpleto na ang pag-setup at pag-install ng base node, gaya ng ipinahiwatig ng ulat na "berde".

Stage 3 - pagdaragdag ng pangalawang node sa MSSQL cluster

Susunod, kailangan mong magdagdag ng pangalawang node sa kumpol, dahil Kung wala ito, hindi na kailangang pag-usapan ang tungkol sa fault tolerance.
Ang pag-setup at pag-install ay mas madali. Sa pangalawang server (VM) inilunsad namin ang wizard ng pag-install ng MS SQL Server:

  • Nakapasa kami sa panimulang pagsusulit
  • Ipasok ang susi ng lisensya:
  • Basahin at tanggapin ang kasunduan sa lisensya:
  • Nakatanggap kami ng mga update:
  • Nagpapasa kami ng mga pagsubok upang matugunan ang mga kinakailangan para sa pag-install ng isang node (babala ng MSCS - laktawan):

Piliin kung aling cluster idaragdag ang node:

Tinitingnan at tinatanggap namin ang mga setting ng network ng instance ng cluster:

Tukuyin ang user at password (katulad ng sa unang yugto):

Muli ang mga pagsubok at proseso ng pag-install:

Sa pagkumpleto, dapat nating makuha ang sumusunod na larawan:

Binabati kita, kumpleto na ang pag-install.

Stage 4 - pagsusuri sa pagganap

Siguraduhin nating gumagana ang lahat ayon sa nararapat. Upang gawin ito, pumunta sa snap-in ng Failover Cluster Manager:

Sa sandaling ginagamit namin ang pangalawang node (WS2012R2C2); kung sakaling mabigo, lilipat kami sa unang node (WS2012R2C1).
Subukan nating direktang kumonekta sa MSSQL server cluster para dito kakailanganin natin ang anumang computer sa network ng domain na may naka-install na Management Studio MSSQL. Kapag nagsisimula, tinutukoy namin ang pangalan ng aming cluster at user (o umalis sa awtorisasyon ng domain).