Failoverclustering: algemene informatie. Een failovercluster met hoge beschikbaarheid maken op Windows

Druk op midden

Een cluster maken op basis van Windows 2000/2003. Stap voor stap

Een cluster is een groep van twee of meer servers die samenwerken om een ​​probleemloze werking van een reeks applicaties of services te bieden en die door de klant als één geheel worden gezien. Clusternodes zijn met elkaar verbonden via hardware netwerkhulpmiddelen, gedeelde gedeelde bronnen en server software.

Microsoft Windows 2000/2003 ondersteunt twee clustertechnologieën: netwerktaakverdelingsclusters en serverclusters.

In het eerste geval (load-balanced clusters) maakt de Network Load Balancing-service services en applicaties zeer betrouwbaar en schaalbaar door maximaal 32 servers in één cluster te combineren. In dit geval worden verzoeken van clients op een transparante manier over de clusterknooppunten verdeeld. Als een knooppunt uitvalt, wijzigt het cluster automatisch de configuratie en schakelt de client over naar een van de beschikbare knooppunten. Deze clusterconfiguratiemodus wordt ook wel actief-actieve modus genoemd, waarbij één applicatie op meerdere knooppunten draait.

Een servercluster verdeelt zijn belasting over de servers in het cluster, waarbij elke server zijn eigen belasting draagt. Als een knooppunt in het cluster uitvalt, worden applicaties en services die zijn geconfigureerd om in het cluster te worden uitgevoerd, transparant opnieuw gestart op een van de vrije knooppunten. Serverclusters maken gebruik van gedeelde schijven om gegevens binnen het cluster uit te wisselen en aan te bieden transparante toegang om applicaties en services te clusteren. Ze vereisen speciale apparatuur, maar deze technologie biedt zeer veel hoog niveau betrouwbaarheid, omdat het cluster zelf geen enkel storingspunt heeft. Deze clusterconfiguratiemodus wordt ook wel actief-passieve modus genoemd. Een applicatie in een cluster draait op één knooppunt met gedeelde gegevens op externe opslag.

De clusterbenadering voor het organiseren van een intern netwerk biedt de volgende voordelen:

Hoge beschikbaarheid Dat wil zeggen dat als een dienst of applicatie faalt op een clusterknooppunt dat is geconfigureerd om samen te werken in een cluster, de clustersoftware ervoor zorgt dat de applicatie opnieuw kan worden opgestart op een ander knooppunt. Gebruikers zullen een korte vertraging ervaren bij het uitvoeren van een bepaalde handeling of zullen helemaal geen serverstoring opmerken.

Schaalbaarheid Voor applicaties die in een cluster draaien, betekent het toevoegen van servers aan een cluster het vergroten van de mogelijkheden: fouttolerantie, verdeling van de belasting, enz. Beheerbaarheid Beheerders kunnen met behulp van een enkele interface applicaties en services beheren, een reactie instellen op storingen in een clusterknooppunt, distribueren de belasting tussen knooppuntencluster en verwijder de belasting van de knooppunten om onderhoudswerkzaamheden uit te voeren. In dit artikel zal ik proberen mijn ervaring met het maken van clustersystemen op te verzamelen Windows-gebaseerd en geef een kleintje stap voor stap handleiding

om een ​​servercluster met twee knooppunten en gedeelde gegevensopslag te creëren.

servers. Niet noodzakelijkerwijs, maar als u over Terminal Services beschikt, is het handig om servers vanaf uw werkplek te beheren.

Een externe array met twee externe interfaces. Elk van de clusterknooppunten is verbonden met een van de interfaces. Om een ​​cluster met twee knooppunten te creëren, is het helemaal niet nodig om twee absoluut identieke servers te hebben. Na een storing op de eerste server heeft u enige tijd om de werking van het hoofdknooppunt te analyseren en te herstellen. Het tweede knooppunt zal werken voor de betrouwbaarheid van het systeem als geheel. Dit betekent echter niet dat de tweede server inactief zal zijn. Beide clusterknooppunten kunnen rustig hun gang gaan en verschillende problemen oplossen. Maar we kunnen een bepaalde kritieke bron configureren om in een cluster te werken, waardoor de fouttolerantie (van deze bron) toeneemt.

Vereisten voor netwerkinstellingen

  • Een unieke NetBIOS-naam voor het cluster.
  • Vijf unieke statische IP-adressen. Twee voor netwerkadapters per clusternetwerk, twee voor netwerkadapters per gedeeld netwerk en één voor het cluster.
  • Domeinaccount voor de Cluster-service.
  • Alle clusterknooppunten moeten lidservers in het domein of domeincontrollers zijn.
  • Elke server moet twee netwerkadapters hebben. Eén voor verbinding met een gemeenschappelijk netwerk (Public Network), de tweede voor het uitwisselen van gegevens tussen clusterknooppunten (Private Network).

Een externe array met twee externe interfaces. Elk van de clusterknooppunten is verbonden met een van de interfaces. Volgens de aanbevelingen van Microsoft moet uw server twee netwerkadapters hebben, één voor het algemene netwerk en de tweede voor gegevensuitwisseling binnen het cluster. Is het mogelijk om een ​​cluster op één interface te bouwen - waarschijnlijk wel, maar ik heb het niet geprobeerd.

Clusterinstallatie

Wanneer u een cluster ontwerpt, moet u begrijpen dat u er een gebruikt fysiek netwerk voor zowel geclusterde communicatie als LAN verhoogt u het uitvalpercentage van het hele systeem. Daarom is het zeer wenselijk dat clustergegevensuitwisseling één subnet gebruikt, toegewezen als een afzonderlijk fysiek element van het netwerk. En voor een lokaal netwerk moet u een ander subnet gebruiken. Zo vergroot u de betrouwbaarheid van het gehele systeem als geheel.

Bij het bouwen van een cluster met twee knooppunten wordt één schakelaar gebruikt gemeenschappelijk netwerk. Twee clusterservers kunnen rechtstreeks met elkaar worden verbonden via een crossover-kabel, zoals weergegeven in de afbeelding.

Het installeren van een cluster met twee knooppunten kan in 5 stappen worden verdeeld

  • Het installeren en configureren van knooppunten in een cluster.
  • Een gedeelde bron installeren en configureren.
  • De schijfconfiguratie controleren.
  • Het eerste clusterknooppunt configureren.
  • Het tweede knooppunt in het cluster configureren.

Met deze stapsgewijze handleiding kunt u fouten tijdens de installatie voorkomen en veel tijd besparen. Dus laten we beginnen.

Installatie en configuratie van knooppunten

We zullen de taak een beetje vereenvoudigen. Omdat alle clusterknooppunten domeinleden of domeincontrollers moeten zijn, maken we van het eerste clusterknooppunt de hoofdhouder van de AD-map (Active Directory) en draait de DNS-service daarop. Het tweede knooppunt van het cluster zal een volledige domeincontroller zijn.

Ik ben bereid de installatie van het besturingssysteem over te slaan, in de overtuiging dat u hier geen problemen mee zou moeten hebben. Maar ik zou graag de configuratie van netwerkapparaten willen verduidelijken.

Netwerkinstellingen

Voordat u begint met het installeren van het cluster en Active Directory, moet u de netwerkinstellingen voltooien. Ik wil alle netwerkinstellingen in 4 fasen verdelen. Om namen op het netwerk om te zetten, is het raadzaam om een ​​DNS-server te hebben met bestaande records over de clusterservers.

Elke server heeft twee netwerkkaarten. Eén netwerkkaart zal dienen voor data-uitwisseling tussen clusternodes, de tweede zal werken voor klanten in ons netwerk. Dienovereenkomstig zullen we de eerste Private Cluster Connection noemen, de tweede zullen we Public Cluster Connection noemen.

De netwerkadapterinstellingen voor de ene en de andere server zijn identiek. Daarom zal ik u laten zien hoe u een netwerkadapter configureert en een tabel verstrekken met de netwerkinstellingen van alle vier de netwerkadapters op beide clusterknooppunten. Om de netwerkadapter te configureren, moet u de volgende stappen uitvoeren:

  • Mijn netwerklocaties → Eigenschappen
  • Privéclusterverbinding → Eigenschappen → Configureren → Geavanceerd

    Dit punt behoeft enige verduidelijking. Feit is dat, volgens de sterke aanbevelingen van Microsoft, alle netwerkadapters van clusterknooppunten moeten worden ingesteld op de optimale snelheid van de adapter, zoals weergegeven in de volgende afbeelding.

  • Internetprotocol (TCP/IP) → Eigenschappen → Gebruik het volgende IP-adres: 192.168.30.1

    (Gebruik voor het tweede knooppunt het adres 192.168.30.2). Voer het subnetmasker 255.255.255.252 in. Gebruik 192.168.100.1 als DNS-serveradres voor beide knooppunten.

  • Bovendien selecteert u op het tabblad Geavanceerd → WINS de optie NetBIOS via TCP/IP uitgeschakeld. Als u netwerkadapters voor het openbare netwerk wilt configureren, kunt u dit item weglaten.
  • Doe hetzelfde met de netwerkkaart voor het lokale netwerk Public Cluster Connection. Gebruik de adressen uit de tabel. Het enige verschil is de configuratie van de twee netwerkkaarten is dat Public Cluster Connection niet vereist dat de WINS - NetBIOS via TCP/IP-modus wordt uitgeschakeld.

Gebruik het volgende label om alle netwerkadapters op clusterknooppunten te configureren:

Knoop Netwerknaam IP-adres MASKER DNS-server
1 Openbare clusterverbinding 192.168.100.1 255.255.255.0 192.168.100.1
1 Privéclusterverbinding 192.168.30.1 255.255.255.252 192.168.100.1
2 Openbare clusterverbinding 192.168.100.2 255.255.255.0 192.168.100.1
3 Privéclusterverbinding 192.168.30.2 255.255.255.252 192.168.100.1

Active Directory installeren

Omdat mijn artikel niet bedoeld is om over te praten Actief installeren Directory, dan laat ik dit item achterwege. Er bestaan ​​allerlei aanbevelingen, er zijn al heel wat boeken over geschreven. Kiezen domeinnaam, zoals mycompany.ru, installeer Active Directory op het eerste knooppunt en voeg het tweede knooppunt toe aan het domein als domeincontroller. Als u klaar bent, controleert u de serverconfiguraties en Active Directory.

Clustergebruikersaccount installeren

  • Start → Programma's → Systeembeheer → Active Directory-gebruikers en computers
  • Voeg een nieuwe gebruiker toe, bijvoorbeeld ClusterService.
  • Vink de vakjes aan voor: Gebruiker kan wachtwoord niet wijzigen en Wachtwoord verloopt nooit.
  • Voeg deze gebruiker ook toe aan de beheerdersgroep en geef hem Inloggen als service-rechten (rechten worden toegewezen in Lokaal beveiligingsbeleid en Beveiligingsbeleid voor domeincontrollers).

Een externe data-array opzetten

Als u een externe data-array in een cluster wilt configureren, moet u er rekening mee houden dat voordat u de Cluster Service op de knooppunten installeert, u eerst de schijven op de externe array moet configureren, pas daarna de clusterservice eerst op het eerste knooppunt moet installeren en pas daarna op de tweede. Als de installatievolgorde niet klopt, faalt u en bereikt u uw doel niet. Zal het mogelijk zijn om het te repareren - waarschijnlijk wel. Wanneer er een foutmelding verschijnt, heeft u tijd om uw instellingen aan te passen. Maar Microsoft is zo mysterieus dat je niet weet welke fouten je zult begaan. Het is gemakkelijker om stapsgewijze instructies voor ogen te hebben en niet te vergeten op de knoppen te drukken. De stappen voor het configureren van een externe array zien er als volgt uit:

  1. Beide servers moeten zijn uitgeschakeld, de externe array moet zijn ingeschakeld en met beide servers zijn verbonden.
  2. We zetten de eerste server aan. We krijgen toegang tot de disk-array.
  3. We controleren of de externe schijfarray als Basic is gemaakt. Als dit niet het geval is, converteer dan de schijf met behulp van de optie Terugzetten naar basisschijf.
  4. Maak op een externe schijf via Computerbeheer → Schijfbeheer klein gedeelte. Volgens de aanbevelingen van Microsoft moet dit minimaal 50 MB zijn. Ik raad aan een partitie van 500 MB te maken. of een beetje meer. Dit is voldoende om geclusterde gegevens te hosten. De partitie moet in NTFS zijn geformatteerd.
  5. Op beide clusterknooppunten krijgt deze partitie de naam met dezelfde letter, bijvoorbeeld Q. Selecteer daarom bij het maken van een partitie op de eerste server het item Wijs de volgende stationsletter toe: Q.
  6. U kunt de rest van de schijf naar wens markeren. Het is uiteraard zeer wenselijk om het NTFS-bestandssysteem te gebruiken. Bijvoorbeeld bij het instellen DNS-diensten, WINS worden de belangrijkste servicedatabases overgebracht naar een gedeelde schijf (niet het systeemvolume Q, maar de tweede die u hebt gemaakt). En om veiligheidsredenen is het handiger om NTFS-volumes te gebruiken.
  7. Sluit Schijfbeheer en controleer de toegang tot de nieuw gemaakte partitie. U kunt er bijvoorbeeld een tekstbestand test.txt op maken, deze opschrijven en verwijderen. Als alles goed is gegaan, zijn we klaar met de configuratie van de externe array op het eerste knooppunt.
  8. Nu schakelen we de eerste server uit. De externe array moet zijn ingeschakeld. We zetten de tweede server aan en controleren de toegang tot de gemaakte partitie. We zullen ook controleren of de letter die aan de eerste partitie is toegewezen identiek is aan de letter die we hebben geselecteerd, namelijk Q.

Hiermee is de configuratie van de externe array voltooid.

Cluster Service-software installeren

Configuratie van het eerste clusterknooppunt

Voordat u Cluster Service Software installeert, moeten alle clusterknooppunten worden uitgeschakeld en moeten alle externe arrays worden ingeschakeld. Laten we verder gaan met de configuratie van het eerste knooppunt. De externe array is ingeschakeld, de eerste server is ingeschakeld. Het gehele installatieproces vindt plaats met behulp van de Cluster Service Configuratiewizard:


Configuratie van het tweede clusterknooppunt

Om het tweede clusterknooppunt te installeren en configureren, moet het eerste knooppunt zijn ingeschakeld en moeten alle netwerkschijven zijn ingeschakeld. De procedure voor het instellen van het tweede knooppunt lijkt sterk op wat ik hierboven heb beschreven. Er zijn echter kleine veranderingen. Gebruik hiervoor de volgende instructies:

  1. Selecteer in het dialoogvenster Een cluster maken of hieraan deelnemen Het tweede of volgende knooppunt in het cluster en klik op volgende.
  2. Voer de clusternaam in die we eerder hebben ingesteld (in het voorbeeld is dit MijnCluster) en klik op volgende.
  3. Nadat het tweede knooppunt met het cluster is verbonden, neemt de Cluster Service Configuration Wizard automatisch alle instellingen over van het hoofdknooppunt. Om de Cluster Service te starten, gebruikt u de naam die we eerder hebben gemaakt.
  4. Voer uw accountwachtwoord in en klik op Volgende.
  5. Klik in het volgende dialoogvenster op Voltooien om de installatie te voltooien.
  6. De clusterservice wordt gelanceerd op het tweede knooppunt.
  7. Sluit het venster Programma's toevoegen/verwijderen.

Gebruik dezelfde instructies om extra clusterknooppunten te installeren.

Naschrift, bedankt

Om te voorkomen dat u in de war raakt met alle fasen van het installeren van een cluster, zal ik een kleine tabel geven die alle hoofdfasen weergeeft.

Stap Knooppunt 1 Knooppunt 2 Externe array
Na een aantal jaren van stilte besloot ik mijn ervaring met inzetten te delen failover-cluster gebaseerd op Windows-server 2012.
Probleemstelling: Implementeer een failovercluster op de host virtuele machines, met de mogelijkheid om virtuele machines in afzonderlijke virtuele subnetten (VLAN's) toe te wijzen, zorgen voor een hoge betrouwbaarheid, de mogelijkheid om serveronderhoud af te wisselen en de beschikbaarheid van services te garanderen. Zorg ervoor dat uw IT-afdeling rustig slaapt.

Om de bovenstaande taak te volbrengen, zijn we erin geslaagd de volgende apparatuur te bemachtigen:

  1. Server HP ProLiant DL 560 Gen8 4x Xeon 8 core 64 GB RAM 2 st.
  2. SAS Storage HP P2000 voor 24 2,5"-schijven 1 st.
  3. Schijven voor opslag 300 Gb 24 st. //Het volume is niet geweldig, maar helaas zijn budgetten zulke budgetten...
  4. Controller voor het aansluiten van SAS vervaardigd door HP 2 stuks.
  5. Netwerkadapter voor 4 1Gb-poorten 2 st. //Het was mogelijk om een ​​module voor 4 SFP te nemen, maar we hebben geen apparatuur die 10 Gb ondersteunt; een Gigabit-verbinding is voldoende.
Uiteraard updaten we het BIOS en de firmware vanaf de officiële website.
Organisatie van verbindingen:


We hebben het eigenlijk op 2 verschillende schakelaars aangesloten. Kan op 4 verschillende aangesloten worden. Ik denk dat 2x genoeg is.
Op de switchpoorten waarop de servers zijn aangesloten, is het noodzakelijk om de interfacemodus te wijzigen van toegang naar trunk om over virtuele subnetten te kunnen distribueren.

Terwijl updates worden gedownload naar de vers geïnstalleerde Windows Server 2012, gaan we schijfopslag instellen. We zijn van plan een databaseserver in te zetten, dus besloten we 600 GB te gebruiken voor databases en de rest voor andere virtuele machines, zo'n tautologie.

Virtuele schijven maken:

  • Raid10-schijf gebaseerd op Raid 1+0 van 4 schijven +1 reserve
  • Raid5-schijf gebaseerd op Raid 5 van 16 schijven +1 reserve
  • 2 schijven - reserveonderdelen
Ik raad u aan om het arraymodel in de schijfnaam aan te geven; HP raadt ook aan een klein aantal virtuele schijven te gebruiken, die een groot aantal fysieke schijven zullen bevatten, d.w.z. Je moet geen stapel kleine virtuele schijven maken.

Nu moet je partities maken.

  • raid5_quorum - De zogenaamde getuigenschijf (getuige). Vereist om een ​​cluster van 2 knooppunten te organiseren.
  • raid5_store - Hier slaan we virtuele machines en hun harde schijven op
  • raid10_db - De harde schijf van de virtuele MS SQL-servermachine wordt hier opgeslagen
We wijzen onze partities toe (toewijzen) aan de sas-poorten van de opslagcontrollers.
Het is absoluut noodzakelijk om de Microsoft Multipath IO-functie in te schakelen, anders zal het systeem, wanneer de server met beide opslagcontrollers is verbonden, over 6 schijven beschikken in plaats van 3, en zal het cluster niet worden samengesteld, wat een foutmelding geeft dat u schijven hebt met de dezelfde serienummers, en deze tovenaar zal gelijk hebben, wil ik je vertellen.

Ik raad aan om servers één voor één met de opslag te verbinden:

  1. 1 server aangesloten op 1 opslagcontroller
  2. Er verschijnt 1 verbonden host in de opslag - geef deze een naam. Ik raad je aan om het zo te noemen: servernaam_controllernummer (A of B)
  3. En zo verder totdat u beide servers op beide controllers aansluit.

Op de switches waar de servers op zijn aangesloten, dien je 3 virtuele subnetten (VLAN) aan te maken:

  1. ClusterNetwork - dit is waar clusterservice-informatie naartoe gaat (hartslag, opslagschrijfregulatie)
  2. LiveMigration - Ik denk dat alles hier duidelijk is
  3. Beheer - netwerk voor management

Hiermee is de voorbereiding van de infrastructuur voltooid. Laten we verder gaan met het instellen van de servers en het uitbreiden van het cluster.

Wij verbinden de servers met het domein. Installeer de Hyper-V-rol, Failover Cluster.
Schakel in de Multipath IO-instellingen ondersteuning voor SAS-apparaten in.
Zorg ervoor dat u opnieuw opstart.

De volgende instellingen moeten op beide servers worden voltooid.

Hernoem alle vier de netwerkinterfaces op basis van hun fysieke poorten (voor ons is dit 1,2,3,4).
Configureer NIC Teaming - Voeg alle 4 de adapters toe aan het team, Teaming-modus - Switch-onafhankelijk, Load Balancing - Hyper-V-poort. We geven het team een ​​naam, zo noemde ik Team.
Nu moet je de virtuele schakelaar omhoog zetten.
Open powershell en schrijf:

Nieuw-VMSwitch "VSwitch" -MinimumBandwidthMode Weight -NetAdapterName "Team" -AllowManagementOS 0

We maken 3 virtuele netwerkadapters.
In dezelfde powershell:
Add-VMNetworkAdapter –ManagementOS –Naam "Beheer" Add-VMNetworkAdapter –ManagementOS –Naam "ClusterNetwork" Add-VMNetworkAdapter –ManagementOS –Naam "Live Migration"

Deze virtuele switches zullen in het netwerk verschijnen en het controlecentrum delen, en via hen zal het verkeer van onze servers stromen.

Pas uw adressering aan uw plannen aan.

Wij dragen onze adapters over naar de juiste VLAN's.
In je favoriete powershell:

Set-VMNetworkAdapterVlan -ManagementOS -Toegang -VlanId 2 -VMNetworkAdapterName "Beheer" -Bevestig Set-VMNetworkAdapterVlan -ManagementOS -Toegang -VlanId 3 -VMNetworkAdapterName "ClusterNetwork" -Bevestig Set-VMNetworkAdapterVlan -ManagementOS -Toegang -VlanId 4 -VMNetworkAdapterName "Live Migratie" -Bevestigen

Nu moet u QoS configureren.

Bij QoS-instellingen op gewicht (op gewicht), wat best practice is, volgens Microsoft raad ik je aan om het gewicht zo te rangschikken dat het totaalbedrag 100 is, dan kunnen we ervan uitgaan dat de waarde die in de instelling is opgegeven een gegarandeerd percentage van de bandbreedte is. Het percentage wordt in ieder geval berekend met de formule:

Bandbreedtepercentage = ingesteld gewicht * 100 / som van alles waarden instellen gewicht
Set-VMSwitch “VSwitch” -DefaultFlowMinimumBandbreedteGewicht 15

Voor informatie over clusterservices.

Set-VMNetworkAdapter -ManagementOS -Naam “Cluster” -MinimumBandwidthWeight 30

Voor beheer.
Set-VMNetworkAdapter -ManagementOS -Naam "Beheer" -MinimumBandwidthWeight 5

Voor livemigratie.
Set-VMNetworkAdapter -ManagementOS -Naam “Live Migration” -MinimumBandwidthWeight 50

Om het verkeer correct over netwerken te laten stromen, is het noodzakelijk om de statistieken correct in te stellen.
Clusterservice-informatieverkeer reist via het netwerk met de laagste statistiek. Live Migration reist via de eerstvolgende hoogste netwerkstatistiek.

Laten we dat doen.
In onze geliefde:

$n = Get-ClusterNetwork “ClusterNetwork” $n.Metric = 1000 $n = Get-ClusterNetwork “LiveMigration” $n.Metric = 1050 $n = Get-ClusterNetwork “Beheer” $n.Metric = 1100

We koppelen onze getuigenschijf op het knooppunt van waaruit we het cluster gaan samenstellen en formatteren het in ntfs.

In de module Failover Clustering, in de sectie Netwerken, hernoemt u de netwerken zodat deze overeenkomen met onze adapters.

Alles is klaar om het cluster te monteren.

Klik in de module Failover Clustering op valideren. Wij zijn aan het controleren. Vervolgens maken we een cluster en selecteren we de quorumconfiguratie Knooppunt- en Schijfmeerderheid, wat ook als de beste keuze wordt beschouwd voor clusters met een even aantal knooppunten, en aangezien we er maar twee hebben, is dit de enige keuze.

Voeg uw schijven toe in het gedeelte Opslag van de module Failover Clustering. En voeg ze vervolgens één voor één toe als Cluster Shared Volume (klik met de rechtermuisknop op de schijf). Na het toevoegen van de map C:\ClusterStorage Er verschijnt een symbolische link naar de schijf. Hernoem deze zodat deze overeenkomt met de naam van de schijf die u hebt toegevoegd als Cluster Shared Volume.

Nu kunt u virtuele machines maken en deze op deze partities opslaan. Ik hoop dat het artikel nuttig voor je was.

Meld eventuele fouten via PM.

Ik raad aan om te lezen: Microsoft Windows Server 2012 Complete Guide. Rand Morimoto, Michael Noel, Guy Yardeni, Omar Drouby, Andrew Abbate, Chris Amaris.

P.S.: Speciale dank aan de heer Salakhov, Zagorsky en Razbornov, die door mij schaamteloos werden vergeten toen ik dit bericht schreef. ik heb berouw >_< XD

In dit artikel wordt beschreven hoe u een Server 2012 failover-cluster met twee knooppunten bouwt. Eerst zal ik de vereisten opsommen en een overzicht geven van de hardwareomgeving, netwerk- en opslaginstellingen. Vervolgens wordt gedetailleerd beschreven hoe u Server 2012 kunt uitbreiden met failover-clustermogelijkheden en hoe u Failover Cluster Manager kunt gebruiken om een ​​cluster met twee knooppunten te configureren.

Er zijn zoveel nieuwe functies in Windows Server 2012 dat het moeilijk is om ze allemaal bij te houden. Enkele van de belangrijkste bouwstenen van de nieuwe IT-infrastructuur omvatten verbeteringen in failoverclustering. Failoverclustering is ontstaan ​​als een technologie om te beschermen kritische toepassingen vereist voor productie activiteiten zoals Microsoft SQL-server en Microsoft Exchange. Maar failoverclustering is sindsdien geëvolueerd naar een platform met hoge beschikbaarheid voor een reeks Windows-services en -applicaties. Failoverclustering maakt deel uit van de basis van Dynamic Datacenter en technologieën zoals livemigratie. Met Server 2012 en nieuwe verbeteringen Serverprotocol Message Block (SMB) 3.0 breidt de reikwijdte van failoverclustering uit om continu beschikbare gedeelde bestandsbronnen te bieden. Een overzicht van de functionaliteit van failover clustering in Server 2012 wordt gegeven in het artikel “New features of failover clustering in Windows Server 2012”, gepubliceerd in hetzelfde nummer van het tijdschrift.

Vereisten voor failoverclustering

Als u een Server 2012-failovercluster met twee knooppunten wilt bouwen, hebt u twee computers nodig met Server 2012 Datacenter of Standard-edities. Het zou kunnen fysieke computers of virtuele machines. Er kunnen clusters met virtuele knooppunten worden gebouwd met behulp van Microsoft Hyper-V of VMware vSphere. In dit artikel worden er twee gebruikt fysieke servers, maar de stappen voor het opzetten van een cluster voor fysieke en virtuele knooppunten zijn hetzelfde. Belangrijkste kenmerk is dat de knooppunten identiek moeten worden geconfigureerd, zodat het back-upknooppunt werklasten kan uitvoeren in het geval van een failover of live migratie. De componenten die worden gebruikt in het Server 2012-testfailovercluster worden weergegeven in de afbeelding.

Voor een Server 2012 failover-cluster is gedeelde gegevensopslag vereist, zoals iSCSI, Serial Attached SCSI of Fibre-kanaal SAN. In ons voorbeeld wordt een iSCSI SAN gebruikt. Je zou het moeten onthouden de volgende kenmerken dit soort opslagruimtes.

  • Elke server moet dit hebben ten minste drie netwerkadapters: één om de iSCSI-opslag aan te sluiten, één om te communiceren met het clusterknooppunt en één om te communiceren met het externe netwerk. Als je van plan bent een cluster te gebruiken voor livemigratie, dan is het handig om een ​​vierde netwerkadapter te hebben. Livemigratie kan echter ook via een externe netwerkverbinding worden uitgevoerd; het zal alleen langzamer zijn. Als servers worden gebruikt voor op Hyper-V gebaseerde virtualisatie en serverconsolidatie, zijn extra netwerkadapters nodig om netwerkverkeer naar virtuele machines te verzenden.
  • IN snelle netwerken werk is altijd beter, dus de snelheid van de iSCSI-link moet minimaal 1 GHz zijn.
  • Het iSCSI-doel moet voldoen aan de iSCSI-3-specificatie en met name persistente redundantie bieden. Dit is een verplichte vereiste voor livemigratie. Bijna alle opslagleveranciers hebben hardware die iSCSI 3-compatibel is. Als u tegen lage kosten een cluster in een laboratoriumomgeving wilt opzetten, zorg er dan voor dat de iSCSI-doelsoftware voldoet aan iSCSI 3 en aanhoudende redundantievereisten. Oudere versies van Openfiler ondersteunen deze standaard niet, in tegenstelling tot de nieuwe versie van Openfiler met de Advanced iSCSI Target Plugin (http://www.openfiler.com/products/advanced-iscsi-plugin). Daarnaast, gratis versie StarWind iSCSI SAN Gratis editie StarWind Software (http://www.starwindsoftware.com/starwind-free) is volledig compatibel met Hyper-V en livemigratie. Sommige versies van Microsoft Windows Server kunnen ook functioneren als een iSCSI-doel dat voldoet aan de iSCSI 3-standaarden. Server 2012 bevat een iSCSI-doel. Windows Storage Server 2008 R2 ondersteunt iSCSI-doelsoftware. U kunt ook Microsoft iSCSI Software Target 3.3 downloaden (http://www.microsoft.com/en-us/download/details.aspx?id=19867), dat werkt met Windows Server 2008 R2.

Voor meer informatie over het configureren van iSCSI-opslag voor een failovercluster, zie de zijbalk 'ISCSI Storage Configuration Preview' (Voorbeeld van ISCSI-opslagconfiguratie). Meer details over de vereisten voor failoverclustering worden beschreven in het artikel “Hardwarevereisten en opslagopties voor failoverclustering” (http://technet.microsoft.com/en-us/library/jj612869.aspx).

Failoverclusterfuncties toevoegen

De eerste stap bij het maken van een Server 2012-failovercluster met twee knooppunten is het toevoegen van de failoverclustercomponent met behulp van Serverbeheer. Serverbeheer wordt automatisch geopend wanneer u zich aanmeldt bij Server 2012. Als u een failoverclusterfunctie wilt toevoegen, selecteert u Lokale server en bladert u omlaag naar de sectie ROLLEN EN FUNCTIES. Selecteer in de vervolgkeuzelijst TAKEN Rollen en functies toevoegen, zoals Figuur 1 laat zien. Hierdoor wordt de wizard Rollen en functies toevoegen gestart.

De eerste pagina die wordt geopend nadat de wizard is gestart, is de welkomstpagina Voordat u begint. Klik op Volgende om naar de selectiepagina voor het installatietype te gaan, waar u wordt gevraagd of u de component wilt installeren lokale computer of in de Remote Desktop-service. Voor dit voorbeeld selecteert u de op rollen gebaseerde of functiegebaseerde installatieoptie en klikt u op Volgende.

Selecteer op de pagina Doelserver selecteren de server waarop u de failoverclusterfuncties wilt installeren. In mijn geval is het een lokale server genaamd WS2012-N1. Terwijl uw lokale server is geselecteerd, klikt u op Volgende om naar de pagina Serverrollen selecteren te gaan. IN in dit voorbeeld De serverrol is niet geïnstalleerd, dus klik op Volgende. Of u kunt op de link Functies in het linkermenu klikken.

Blader op de pagina Functies selecteren omlaag in de lijst met functies naar Failover Clustering. Klik in het vak vóór Failover Clustering en u ziet een dialoogvenster met de verschillende componenten die als onderdeel van dat onderdeel worden geïnstalleerd. Zoals Figuur 2 laat zien, installeert de wizard standaard failoverclusterbeheertools en de failoverclustermodule voor Windows PowerShell. Klik op de knop Functies toevoegen om terug te keren naar de pagina voor het selecteren van functies. Klik op Volgende.

Op de pagina Installatieselecties bevestigen wordt de failoverclusterfunctie weergegeven, samen met beheertools en een PowerShell-module. U kunt vanaf deze pagina teruggaan en eventuele wijzigingen aanbrengen. Wanneer u op de knop Installeren klikt, begint de daadwerkelijke installatie van de componenten. Zodra de installatie is voltooid, wordt de wizard voltooid en verschijnt de Failover Cluster-functie in het gedeelte ROLLEN EN FUNCTIES van Server Manager. Dit proces moet op beide knooppunten worden voltooid.

Een failovercluster testen

De volgende stap na het toevoegen van de failoverclusterfunctie is het controleren van de instellingen van de omgeving waarin het cluster is gemaakt. Hier kunt u de wizard Instellingen valideren in Failover Cluster Manager gebruiken. Deze wizard controleert de hardware- en software-instellingen van alle clusterknooppunten en rapporteert eventuele problemen die het cluster kunnen verstoren.

Om Failover Cluster Manager te openen, selecteert u de optie Failover Cluster Manager in het menu Extra in Serverbeheer. Klik in het gebied Beheer op de link Configuratie valideren, zoals Figuur 3 laat zien, om de wizard Configuratie valideren te starten.


Scherm 3: Starten van de configuratiewizard verifiëren

Eerst wordt de welkomstpagina van de wizard weergegeven. Klik op Volgende om naar de serverselectie- of Clusterpagina te gaan. Voer op deze pagina de knooppuntnamen in van het cluster dat u wilt controleren. Ik heb WS2012-N1 en WS2012-N2 opgegeven. Klik op Volgende om de pagina Testopties weer te geven, waar u specifieke testsuites kunt selecteren of alle tests kunt uitvoeren. In ieder geval voor de eerste keer raad ik aan om alle tests uit te voeren. Klik op Volgende om naar een bevestigingspagina te gaan waarop de lopende tests worden weergegeven. Klik op Volgende om het clustertestproces te starten. Tijdens het testen worden de besturingssysteemversie, netwerk- en opslaginstellingen van alle clusternodes gecontroleerd. Nadat de test is voltooid, wordt een samenvatting van de resultaten weergegeven.

Als de validatietests succesvol zijn, kunt u een cluster aanmaken. Figuur 4 toont het overzichtsscherm voor een succesvol geverifieerd cluster. Als er tijdens de controle fouten worden geconstateerd, wordt de melding gemarkeerd met een gele driehoek (waarschuwing) of een rode "X" bij ernstige fouten. Waarschuwingen moeten worden gelezen, maar kunnen worden genegeerd. Ernstige fouten moeten worden gecorrigeerd voordat een cluster wordt gemaakt.

Als gevolg hiervan wordt de wizard voor het maken van clusters gestart, die begint vanaf de welkomstpagina. Klik op Volgende om naar de pagina Serverselectie te gaan, zoals weergegeven in Figuur 6. Voer op deze pagina de namen in van alle knooppunten in het cluster en klik vervolgens op Volgende.

Op de pagina Toegangspunt voor het beheren van het cluster moet u de naam en het IP-adres van het cluster opgeven, die uniek moeten zijn op het netwerk. Zoals u in scherm 7 kunt zien, is mijn clusternaam WS2012-CL01 en is het IP-adres 192.168.100.200. Bij gebruik van Server 2012 kan het cluster-IP-adres worden toegewezen via DHCP, maar ik geef de voorkeur aan een statisch toegewezen IP-adres voor mijn servers.

Nadat u uw naam en IP-adres hebt ingevoerd, klikt u op Volgende om een ​​bevestigingspagina te zien (Figuur 8). Op deze pagina kunt u de instellingen verifiëren die zijn gemaakt bij het maken van het cluster. U kunt teruggaan en indien nodig wijzigingen aanbrengen.

Nadat u op de bevestigingspagina op de knop Volgende hebt geklikt, wordt er een cluster gevormd op alle geselecteerde knooppunten. Op de voortgangspagina worden de stappen van de wizard weergegeven tijdens het maken van een nieuw cluster. Wanneer dit voltooid is, zal de wizard een overzichtspagina weergeven met de instellingen voor het nieuwe cluster.

De wizard Nieuw cluster selecteert automatisch de quorumopslag, maar selecteert vaak een andere quorumschijf dan de beheerder zou willen. Om te controleren welke schijf wordt gebruikt voor het quorum, opent u Failover Cluster Manager en vouwt u het cluster uit. Open vervolgens het knooppunt Opslag en klik op het knooppunt Schijven. De schijven die beschikbaar zijn in het cluster worden weergegeven in het deelvenster Schijven. De schijf die door de wizard voor clusterquorum is geselecteerd, wordt vermeld in de sectie Schijfwitness in Quorum.

In dit voorbeeld werd Clusterschijf 4 gebruikt voor het quorum. De grootte is 520 MB, iets meer minimale waarde voor een quorum van 512 MB. Als u een andere schijf wilt gebruiken voor het clusterquorum, kunt u de clusterinstellingen wijzigen door met de rechtermuisknop op de clusternaam te klikken in Failover Cluster Manager, Meer acties te selecteren en vervolgens Clusterquoruminstellingen configureren te selecteren. Hierdoor wordt de wizard Quorumconfiguratie weergegeven, waarmee u de clusterquoruminstellingen kunt wijzigen.

Cluster gedeelde volumes en virtuele machinerollen configureren

Beide knooppunten in mijn cluster hebben de Hyper-V-rol omdat het cluster is ontworpen voor maximaal beschikbare virtuele machines die livemigratie mogelijk maken. Om livemigratie eenvoudiger te maken, moet u vervolgens Cluster Shared Volumes (CSV) configureren. In tegenstelling tot Server 2008 R2 zijn gedeelde clustervolumes standaard ingeschakeld in Server 2012. U moet echter nog steeds opgeven welke opslag u wilt gebruiken voor gedeelde clustervolumes. Om CSV op een beschikbare schijf in te schakelen, vouwt u het knooppunt Opslag uit en selecteert u het knooppunt Schijven. Selecteer vervolgens de clusterschijf die u als CSV wilt gebruiken en klik op de koppeling Toevoegen aan gedeelde clustervolumes in het paneel Acties van Failover Cluster Manager (Afbeelding 9). Het veld Toegewezen aan voor deze clusterschijf verandert van Beschikbare opslag in Cluster gedeeld volume, zoals Figuur 9 laat zien.

Op dit moment configureert de Failover Cluster Manager de clusterschijfopslag voor de CSV, waarbij specifiek een koppelpunt wordt toegevoegd systeem schijf. In dit voorbeeld zijn gedeelde clustervolumes ingeschakeld op zowel clusterschijf 1 als clusterschijf 3, waarbij de volgende koppelpunten zijn toegevoegd:

* C:Clusteropslagvolume1 * C:Clusteropslagvolume2

In dit stadium is een Server 2012-cluster met twee knooppunten gebouwd en zijn gedeelde clustervolumes ingeschakeld. Vervolgens kunt u geclusterde applicaties installeren of rollen aan het cluster toevoegen. In dit geval is het cluster gemaakt voor virtualisatie, dus voegen we de rol van de virtuele machine toe aan het cluster.

Als u een nieuwe rol wilt toevoegen, selecteert u de clusternaam in het navigatievenster Failover Cluster Manager en klikt u op de koppeling Rollen configureren in het venster Acties om de wizard Hoge beschikbaarheid te starten. Klik op Volgende op de welkomstpagina om naar de rolselectiepagina te gaan. Blader door de lijst met rollen totdat u de rol van de virtuele machine ziet, zoals Figuur 10 laat zien. Selecteer de rol en klik op Volgende.

Op de pagina Virtuele machine selecteren worden alle VM's op alle knooppunten in het cluster weergegeven, zoals Figuur 11 laat zien. Blader door de lijst en selecteer de virtuele machines die u hoge beschikbaarheid wilt bieden. Klik op Volgende. Nadat u uw selectie hebt bevestigd, klikt u op Volgende om de rollen van de virtuele machine toe te voegen aan de Failover Cluster Manager.

Voorbeeld van iSCSI-opslagconfiguratie

Voor fouttolerantie Windows-cluster Server 2012 vereist gedeelde opslag, dit kan iSCSI, Serial Attached SCSI of Fibre Channel SAN zijn. Dit failovercluster maakt gebruik van een kanaal-SAN.

Eerst werden er drie LUN's gemaakt op het iSCSI SAN. Er is één LUN gemaakt voor de clusterquorumschijf (520 MB). De andere LUN is voor 10 virtuele machines en is 375 GB groot. De derde LUN is bestemd voor een kleine virtuele testmachine. Alle drie de LUN's zijn in NTFS-indeling.

Nadat de LUN's waren gemaakt, werd iSCSI Initiator op beide geconfigureerd Serverknooppunten 2012 Om iSCSI-doelen toe te voegen, werd iSCSI Initiator geselecteerd in het menu Extra in Serverbeheer. Op het tabblad Ontdekken klikte ik op de knop Ontdekportaal. Als gevolg hiervan verscheen het dialoogvenster Discover Portal, waarin het IP-adres (192.168.0.1) en de iSCSI-poort (3260) van het SAN-netwerk werden ingevoerd.

Vervolgens ging ik naar het tabblad Doelen en klikte op de knop Verbinden. In het dialoogvenster Connect To Target heb ik de doel-iSCSI SAN-naam ingevoerd. Het is verkregen uit de SAN-eigenschappen. De naam is afhankelijk van de SAN-provider, de domeinnaam en de namen van de gemaakte LUN's. Naast de doelnaam heb ik de modus Deze verbinding toevoegen aan de lijst met favoriete doelen ingesteld.

Zodra de iSCSI-installatie is voltooid, verschijnen deze LUN's op het tabblad Doelen van de iSCSI-initiator. Om LUN's automatisch te koppelen wanneer Server 2012 start, heb ik ervoor gezorgd dat ze worden vermeld op het tabblad Favoriete doelen, zoals weergegeven in scherm A.

Scherm A: iSCSI Initiator configureren

Ten slotte werden letternamen aan de LUN's toegewezen met behulp van de consolemodule Schijfbeheer Microsoft-beheer(MMC). Ik heb Q geselecteerd voor de quorumschijf en W voor de schijf die wordt gebruikt voor virtuele machines en Cluster Shared Volumes (CSV). Wanneer u lettersymbolen toewijst, moet u deze eerst aan hetzelfde knooppunt toewijzen. Vervolgens moet u de schijven converteren naar offline-modus en maak soortgelijke toewijzingen op het tweede knooppunt. De resultaten van het toewijzen van stationsletters voor een enkel knooppunt worden weergegeven in Scherm B. Wanneer u een cluster maakt, worden de schijven weergegeven als beschikbare opslag.



Ondanks de dubbelzinnige houding tegenover Microsoft moet worden opgemerkt dat het bedrijf hoogwaardige technologie toegankelijk heeft gemaakt voor gewone gebruikers. Hoe dan ook, maar de huidige positie van de bol informatietechnologie niet in de laatste plaats bepaald door Microsoft.

Oplossingen en producten komen niet altijd van Microsoft bezetten onmiddellijk posities op het niveau van gespecialiseerde oplossingen, maar de belangrijkste werden toch geleidelijk leider in termen van prijs/functionaliteitsverhouding, maar ook wat betreft implementatiegemak. Een voorbeeld hiervan zijn clusters.

De ontwikkeling van computerclusters is niet de sterkste kant van Microsoft. Dat blijkt onder meer uit het feit dat de ontwikkelingen van het bedrijf niet in de lijst van Top-500 supercomputers stonden. Daarom is het volkomen logisch dat in Windows-lijn Server 2012 heeft niet de HPC-editie (High-performance computing).

Bovendien lijkt het Windows Azure-platform, gezien de kenmerken van high-performance computing, veelbelovender. Daarom heeft Microsoft zijn aandacht gericht op clusters met hoge beschikbaarheid.

Clusters in Windows.

Clusterondersteuning werd voor het eerst door Microsoft geïmplementeerd in het besturingssysteem in Windows NT 4 Server Enterprise Edition in de vorm Microsoft-technologieën Clusterservice (MSCS). In Windows Server 2008 werd het een Failover Clustering-functie. In wezen zijn dit failoverclusters of clusters met hoge beschikbaarheid, hoewel ze soms niet helemaal correct fouttolerant worden genoemd.

In het algemene geval zal er, als het knooppunt waarnaar het verzoek wordt verzonden, mislukt, een Denial of Service plaatsvinden, maar zullen de geclusterde services automatisch opnieuw opstarten op een ander knooppunt en zal het systeem zo snel mogelijk in de gereedheidsstatus worden gebracht.

Een cluster met hoge beschikbaarheid op Windows omvat minimaal twee knooppunten met geïnstalleerde besturingssystemen en de bijbehorende rollen. Knooppunten moeten verbonden zijn extern netwerk en het interne netwerk dat nodig is voor de uitwisseling officiële berichten, naar een gedeelde opslag van servicebronnen (bijvoorbeeld een getuigenschijf voor quorum). Daarnaast bevat het systeem ook gegevens uit geclusterde applicaties. In een situatie waarin services op slechts één van de knooppunten worden uitgevoerd, wordt het actief-passieve schema geïmplementeerd, dat wil zeggen dat de services op één knooppunt worden uitgevoerd en het tweede in de standby-modus werkt. Wanneer beide knooppunten een payload dragen, wordt een Active-Active-schema geïmplementeerd.

Sinds de eerste implementatie is de ondersteuning voor clusters in Windows aanzienlijk veranderd. Ondersteuning voor bestanden en netwerkdiensten, later SQL Server (in het Windows Server 2000-besturingssysteem), Exchange Server (in het Windows Server 2003-besturingssysteem) en andere standaardservices en -rollen, waaronder Hyper-V (in het Windows Server 2008-besturingssysteem). De schaalbaarheid is verbeterd (tot 64 knooppunten in Windows Server 2012) en de lijst met geclusterde services is uitgebreid.

Ondersteuning voor virtualisatie, evenals de positionering van Windows Server als cloudbesturingssysteem, werden de reden voor de verdere ontwikkeling van clusterondersteuning, aangezien hoge dichtheid computing stelt hoge eisen aan de betrouwbaarheid en beschikbaarheid van de infrastructuur. Daarom concentreert het grootste deel van de verbeteringen zich op dit gebied, te beginnen met het Windows Server 2008-besturingssysteem.

Het Windows Server 2008 R2-besturingssysteem introduceert Hyper-V Cluster Shared Volumes (CSV), waarmee knooppunten tegelijkertijd toegang hebben tot één NTFS-bestandssysteem. Als gevolg hiervan kunnen meerdere geclusterde virtuele machines hetzelfde LUN-adres delen en onafhankelijk van host naar host migreren.

In Windows Server 2012 is de ondersteuning voor Hyper-V-clustering verbeterd. Er is de mogelijkheid toegevoegd om de prioriteiten van virtuele machines op het niveau van een heel cluster te beheren, die de volgorde bepalen van de herverdeling van het geheugen, het herstel van virtuele machines in het geval van een knooppuntstoring of een geplande massamigratie. De monitoringmogelijkheden zijn uitgebreid: als een bewaakte service uitvalt, is het nu mogelijk om niet alleen de service zelf, maar ook de gehele virtuele machine opnieuw te starten. Het is mogelijk om te migreren naar een ander, minder druk knooppunt. Andere, niet minder interessante innovaties met betrekking tot clustering zijn geïmplementeerd.

Clusters in Windows Server 2012.

Laten we eerst eens kijken naar innovaties in basistechnologieën die door clusters worden gebruikt of die helpen hun mogelijkheden uit te breiden.

MKB 3.0

Voor de uitwisseling van netwerkgegevens wordt de nieuwe versie van het SMB 3.0-protocol gebruikt. Er is veel vraag naar dit protocol bij het uitvoeren van lees-, schrijf- en andere bestandsbewerkingen op externe bronnen. De nieuwe versie bevat een groot aantal verbeteringen waarmee u kunt optimaliseren SQL-werk Server-, Hyper-V- en bestandsclusters. Houd rekening met de volgende updates:

  • transparante fouttolerantie. Deze innovatie waarborgt de continuïteit van de bedrijfsvoering. Als een van de bestandsclusterknooppunten uitvalt, worden lopende bewerkingen automatisch overgebracht naar een ander knooppunt. Dankzij deze innovatie werd het mogelijk om te implementeren Actief-actief schema's ondersteunt maximaal 8 knooppunten.
  • schaalvergroting. Dankzij nieuwe implementatie Gedeelde clustervolumes (versie 2.0) maken gelijktijdige toegang tot bestanden mogelijk via alle clusterknooppunten, waardoor doorvoeraggregatie en taakverdeling worden bereikt.
  • MKB Direct. Ondersteuning voor netwerkadapters met RDMA-technologie is geïmplementeerd. Met RDMA-technologie (Remote Direct Memory Access) kunnen gegevens rechtstreeks naar het applicatiegeheugen worden overgebracht, waardoor de CPU aanzienlijk wordt vrijgemaakt.
  • MKB-meerkanaals. Maakt aggregatie van bandbreedte mogelijk en verhoogt de fouttolerantie in de aanwezigheid van meerdere netwerk paden tussen een SMB 3.0-compatibele server en een client.

Het moet gezegd worden dat om deze functies te kunnen gebruiken, SMB 3.0-ondersteuning aan beide uiteinden van de verbinding aanwezig moet zijn. Microsoft raadt aan om servers en clients van dezelfde generatie te gebruiken (in het geval van Windows Server 2012 is dit clientplatform Windows 8). Helaas ondersteunt Windows 7 momenteel alleen SMB-versie 2.1.

Opslagruimten.

Storage Spaces-technologie werd voor het eerst geïmplementeerd in de besturingssystemen Windows Server 2012 en Windows 8. Er is ondersteuning voor het nieuwe ReFS-bestandssysteem geïmplementeerd, dat functies biedt voor het vergroten van de fouttolerantie. Het is mogelijk om schijven in de pool aan te wijzen voor 'hot replacement' (in geval van storing van andere media of voor snelle vervanging SSD die zijn bronnen heeft uitgeput). Bovendien zijn de mogelijkheden uitgebreid fijnafstemming met behulp van PowerShell.

In wezen is de Storage Spaces-technologie een software-implementatie van RAID, uitgebreid met een groot aantal extra functies. Ten eerste moeten schijven met directe toegang worden samengevoegd. In principe kunnen schijven van elk type en capaciteit zijn, maar om een ​​stabiele werking te organiseren is een duidelijk begrip van de werkingsprincipes van de technologie noodzakelijk.

  • eenvoudig (vergelijkbaar met RAID 0);
  • spiegel (een tweewegspiegel is analoog aan RAID1, een driewegspiegel is meer complexe schakeling zoals RAID 1E)
  • met pariteit (analoog aan RAID 5. Deze optie zorgt voor minimale ruimteverspilling met minimale fouttolerantie).

Storage Spaces-technologie is niet geheel nieuw. Soortgelijke mogelijkheden zijn al lang geïmplementeerd in Windows Server, bijvoorbeeld in de vorm van dynamische schijven. Storage Spaces-technologie maakt al deze functies handiger en zorgt voor een nieuw ervaringsniveau. Naast andere voordelen van Storage Spaces is het noodzakelijk om rekening te houden met thin provisioning, wat het mogelijk maakt om aan virtuele schijven grotere afmetingen toe te wijzen dan die in werkelijkheid beschikbaar zijn, om later nieuwe schijven aan de overeenkomstige pool toe te voegen.

Een van de meest uitdagende problemen met Storage Spaces-technologie zijn de prestaties. Meestal softwarematig RAID-implementaties qua prestaties inferieur aan hardwareopties. Als we het echter over een bestandsserver hebben, beschikt Storage Spaces over een grote hoeveelheid RAM en krachtige processor, dus testen is noodzakelijk, rekening houdend met verschillende soorten ladingen. Vanuit dit oogpunt zijn de mogelijkheden voor fijnafstemming met behulp van PowerShell van bijzondere waarde.

Storage Spaces-technologie elimineert RAID-controllers en dure systemen opslag, waarbij de logica naar het besturingssysteemniveau wordt overgebracht. Dit idee onthult al zijn voordelen en blijkt samen met een andere innovatie behoorlijk aantrekkelijk te zijn.

Scale-out bestandsserver (SOFS).

Een andere innovatie is de geclusterde File Server-rolmodus in Windows Server 2012, die Scale-Out File Server wordt genoemd. Nu is ondersteuning voor twee soorten clustering geïmplementeerd, waarvan de namen File Sever voor algemeen gebruik en Scale-Out File Server (SOFS) voor applicatiegegevens zijn. Elke technologie heeft zijn eigen toepassingsgebieden, maar ook zijn eigen voor- en nadelen.

Een bestandsserver voor alle doeleinden is een bekend actief-passief clustertype. SOFS is op zijn beurt een Active-Active-cluster, een werkelijk fouttolerante configuratie. Gebruik de optie Continu beschikbaar om de toegang tot de bijbehorende mappen te delen.

Daarnaast uitstekende eigenschappen fouttolerantie, dit zorgt voor een hogere doorvoer, afhankelijk van een rationeel ontwerp van de netwerkarchitectuur. Volmacht bestandssysteem CSV 2.0 (CSVFS) vermindert de impact van CHKDSK door het hulpprogramma in staat te stellen de noodzakelijke bewerkingen uit te voeren terwijl het nog steeds met het volume aan actieve applicaties kan werken. Leescaching vanuit CSV geïmplementeerd. Het gebruik van CSV maakt het eenvoudig en gemakkelijk te implementeren en te beheren. De gebruiker moet creëren reguliere cluster, configureer het CSV-volume en activeer de rol van de bestandsserver in Scale-Out File Server voor de applicatiegegevensmodus.

Dankzij de eenvoud en functionaliteit van de voorgestelde oplossing is er een nieuwe klasse van “cluster-in-a-box” (CiB) apparatuur ontstaan. Meestal is dit een chassis met twee bladeservers en een SAS JBOD-schijfarray met ondersteuning voor opslagruimtes. Het is hierbij belangrijk dat de SAS JBOD's dual-port zijn en dat er een SAS HBA is om cross-connection te implementeren.

Deze inrichting van het systeem is specifiek gericht op het ondersteunen van SOFS. Aangezien iSCSI target standaard in Windows Server 2012 is geïntegreerd en ook kan worden geclusterd, kan het dus een “zelfgemaakt” opslagsysteem implementeren op basis van een universeel besturingssysteem.

Houd er echter rekening mee dat de eigenaar van het CSV nog steeds een van de knooppunten is, die verantwoordelijk is voor alle metadatabewerkingen. Bij grote hoeveelheden Metagegevens kunnen een prestatieverlies ondervinden, dus het Information Worker-scenario wordt niet aanbevolen voor SOFS, terwijl Hyper-V en SQL Server hier ideaal voor zijn, onder meer vanwege de bandbreedteaggregatiefuncties.

Andere innovaties in Windows-clustertechnologieën.

Hierboven hebben we alleen de belangrijkste en grootste innovaties op het gebied van clustering in Windows Server 2012 op een rij gezet. Ook andere kleinere innovaties zijn echter niet toevallig ontstaan.

De ondersteuning voor virtualisatie is uitgebreid door het maken van gastclusters (vanaf virtuele machines) aanzienlijk te vereenvoudigen. In tegenstelling tot Windows Server 2008 R2, waar hiervoor een iSCSI Target moest worden opgegeven gemeenschappelijk gebruik virtuele machines introduceerde het Windows Server 2012-besturingssysteem een ​​functie waarmee u de FC-controller kunt virtualiseren (vergelijkbaar met netwerkadapters), waardoor virtuele machines rechtstreeks toegang kunnen krijgen tot de LUN. Er is ook een eenvoudiger optie geïmplementeerd met behulp van een common netwerkmap MKB 3.0 voor Windows-gasten Server 2012.

Een van de belangrijke maar niet-triviale taken is de installatie software-updates in het cluster. Hiervoor moet mogelijk de knooppunten opnieuw worden opgestart, dus de procedure moet worden gecontroleerd. Het Windows Server 2012-besturingssysteem biedt een Cluster-Aware Update-tool, die als volgt werkt: een van de knooppunten wordt aangewezen als coördinator en controleert op updates, downloadt deze naar de overige knooppunten en werkt de knooppunten één voor één bij, te beginnen met degenen die het minst geladen zijn. Dit zorgt ervoor dat de clusterbeschikbaarheid tijdens het upgradeproces op het hoogst mogelijke niveau wordt gehouden.

Er zijn ook innovaties op het gebied van quorumbeheer. Zo is bijvoorbeeld de mogelijkheid geïmplementeerd om stemrecht aan slechts enkele knooppunten te geven. Dit kan handig zijn bij het plaatsen van individuele knooppunten op een externe locatie, maar is het meest waardevol bij het implementeren van het nieuwe dynamische quorummodel. Het basisidee van een dynamisch quorum is dat een knooppunt dat niet meer werkt en om welke reden dan ook gedurende een bepaalde periode niet beschikbaar is, zijn stemrecht verliest totdat het opnieuw wordt verbonden. Zo wordt het totaal aantal stemmen verminderd en blijft het cluster zo lang mogelijk beschikbaar.

Wat is er nieuw in Windows Server 2012 R2.

Het Windows Server 2012 R2-besturingssysteem is niet eenvoudig Windows-update Server 2012 is een volwaardig nieuw besturingssysteem. De innovaties die in Windows Server 2012 R2 zijn geïmplementeerd, vertalen een aantal functies serverplatform naar een kwalitatief nieuw niveau. Dit geldt vooral voor SOFC en Hyper-V.

Maximaal beschikbare virtuele machines.

De procedure voor het maken van gastclusters is vereenvoudigd, omdat het nu mogelijk is om gewone VHDX's te gebruiken als gedeelde opslag, die wordt gepresenteerd als gedeelde SAS-schijven in de virtuele machine. In dit geval moet de VHDX zelf op CSV of in gedeelde mappen MKB 3.0. In dit geval kunnen zowel Windows Server 2012 R2 als Windows Server 2012 (met bijgewerkte integratiecomponenten) worden gebruikt in virtuele machines.

De optie DrainOnShutdown is ontworpen om systeembeheerders te behoeden voor fouten en onnodig werk. De functie is standaard geactiveerd en tijdens geplande reboots of shutdowns wordt het knooppunt proactief overgezet naar een onderhoudsmodus waarin alle geclusterde rollen worden geëvacueerd. Hierdoor worden actieve virtuele machines gemigreerd naar andere knooppunten in het Hyper-V-cluster.

Ook in het nieuwe besturingssysteem Windows Server 2012 R2 bewaakt Hyper-V netwerkinterfaces in virtuele machines en start, als er een probleem optreedt, het proces van het migreren ervan naar een host waar een extern netwerk beschikbaar is.

Quorum.

Naast dynamisch quorum implementeert Windows Server 2012 R2 ook een dynamische schijfwitness (witness). Als het aantal knooppunten verandert, kan zijn stem automatisch worden geteld, zodat het totaal aantal stemmen oneven blijft. Als de schijf zelf niet beschikbaar blijkt te zijn, wordt de stem eenvoudigweg op nul gezet. Met dit schema kunt u volledig vertrouwen op automatische mechanismen, waarbij u quorummodellen achterwege laat.

De betrouwbaarheid van clusters op twee locaties is vergroot. Bij een dergelijke implementatie bevindt zich vaak precies de helft van de knooppunten op elke locatie, zodat communicatiestoringen tussen locaties problemen kunnen veroorzaken bij het vormen van een quorum. Hoewel het dynamische quorummechanisme de meeste van deze situaties met succes afhandelt, is het in Windows Server 2012 R2 mogelijk om een ​​lage prioriteit aan een van de sites toe te wijzen, zodat bij een storing het cluster altijd op de hoofdsite blijft functioneren. Als het cluster is gestart met een geforceerd quorum, worden de clusterservices automatisch opnieuw gestart wanneer de communicatie met de externe site is hersteld en wordt het hele cluster weer verenigd.

CSV-bestand 2.1

Er zijn ook belangrijke wijzigingen aangebracht in de implementatie van CSV. Nu worden de rollen van volume-eigenaren automatisch gelijkmatig verdeeld over knooppunten, in overeenstemming met veranderingen in hun aantal. De fouttolerantie van CSV is verhoogd doordat op elk clusterknooppunt twee exemplaren van de serverservice worden gestart. De ene wordt gebruikt om het SMB-verkeer van klanten te bedienen, de andere zorgt voor communicatie tussen knooppunten. In dit geval wordt de service gemonitord en in geval van een storing wordt de rol van CSV-eigenaar gemigreerd naar een ander knooppunt.

Een aantal innovaties in CSV maken een efficiënter gebruik van SOFC en opslagruimtes mogelijk. Ondersteuning toegevoegd voor het ReFS-bestandssysteem, dat een geavanceerdere interne organisatie heeft dan NTFS. Hoogstwaarschijnlijk zal dit bestandssysteem geleidelijk een leidende positie innemen in Microsoft-producten. Windows Server 2012 R2 introduceert ook een deduplicatiemechanisme, dat voorheen voorbehouden was aan een bestandsserver voor alle doeleinden. Als u deduplicatie inschakelt, wordt CSV Block Cache uitgeschakeld, maar in sommige gevallen kan dit behoorlijk effectief zijn. CSV-volumes kunnen met pariteit worden aangemaakt op opslagruimten.

In Windows Server 2012 R2 is de mogelijkheid om verschillende typen schijven te combineren bijzonder zinvol bij gelaagde ruimtes. Het is nu mogelijk om twee niveaus te creëren: snel (gebaseerd op SSD) en ruim (gebaseerd op harde schijven) en, bij het maken van een virtuele schijf, van elk een bepaald volume toe te wijzen. Vervolgens wordt volgens een bepaald schema de inhoud van de virtuele schijf geanalyseerd en in blokken van 1 MB op snellere of langzamere media geplaatst, afhankelijk van de vraag. Een ander gebruik van ruimtes met meerdere niveaus is het implementeren van terugschrijfcache op SSD's. Op piekmomenten worden de opnames gemaakt op snelle SSD's, en later worden koude gegevens verplaatst naar langzamere harde schijven.

De innovaties met betrekking tot CSV en opslagruimtes zijn het meest significant in Windows Server 2012 R2. Op basis daarvan kunt u niet alleen betrouwbaar inzetten bestandsservers, maar krachtige en flexibele dataopslagsystemen met uitstekende schaalbaarheid en uitstekende fouttolerantie, waardoor de gebruiker beschikt over een breed scala aan moderne tools.

Het hoofddoel van het artikel is om duidelijk te laten zien hoe u een failovercluster implementeert MSSQLServer 2012. Het materiaal is geschreven en zal interessant zijn voor beginners. Ervaren goeroes en iedereen die al bekend is met dit probleem, zullen waarschijnlijk niets nieuws en nuttigs voor zichzelf persoonlijk vinden.

De taak waarvoor wij staan ​​is het waarborgen ervan ononderbroken werking en hoge databasebeschikbaarheid in client-serverversie inzet.

Fase 1 - Voorbereiding

Basis hardware- en softwarevereisten:

  • Beschikbaarheid van minimaal 2 knooppunten (fysiek/virtueel), opslagsystemen
  • MS Windows Server, MS SQL Server-opslag
  • Opbergsysteem
    1. Beschikbare iSCSI-schijf voor databases
    2. Beschikbare iSCSI-schijf voor MSDTC
    3. Quorum-schijf

Testbank:

  • Windows Server 2012R2 met AD DS, DNS, DHCP-rollen (WS2012R2AD)
  • iSCSI*-opslag
  • 2xWindows Server 2012R2 (voor WS2012R2C1- en WS2012R2C2-cluster)
  • Windows Server 2012R2 met de 1C-serverservice verhoogd (WS2012R2AC)

*als optie kunt u Opslagrol gebruiken Windows Server 2012R2, een softwareoplossing van StarWind of een echt iSCSI-netwerkapparaat

Technisch gezien kun je met 3 servers rondkomen door alle benodigde rollen op een domeincontroller te combineren, maar in veldomstandigheden wordt dit niet aanbevolen.

Eerst introduceren we de WS2012R2C1- en WS2012R2C2-servers in het domein en installeren we de rol “Failover Clustering” op elk ervan.
Na het installeren van de rol start u de module Failover Cluster Manager en gaat u naar de Cluster Creation Wizard waar we ons failover-cluster configureren: creëer Quorum (gedeelde bron) en MSDTC (iSCSI).

Fase 2 - MS SQL Server installeren

Voor installatie hebben we nodig installatie distributie MS SQL-server. Laten we de installatiewizard starten en de optie selecteren om een ​​nieuw clusterexemplaar te installeren:

We hebben de licentieovereenkomst aandachtig gelezen en geaccepteerd:

We ontvangen beschikbare updates:

We slagen voor de configuratiecontrole (we slaan waarschuwing MSCS over):

Selecteer de installatiedoeloptie:

We selecteren de componenten die we nodig hebben (voor de taak die voorhanden is, zijn de basiscomponenten voldoende):

Nog een controle van de installatieconfiguratie:

Beschikbare ruimte controleren:

Selecteer een schijf voor de locatie van de clusterdatabases:

Clu(het wordt aanbevolen om het adres handmatig op te geven):

Wij geven de beheerdersgegevens aan (u kunt een individuele gebruiker voor MSSQL):

Een van belangrijke fasen- deze keuze van de sorteervolgorde (Collatie) na installatie is uiterst problematisch om te wijzigen:

Authenticatieparameters op de server (in ons geval is een gemengde optie geselecteerd, hoewel het veiliger is om alleen domeinauthenticatie te gebruiken):

Mappen selecteren voor het opslaan van algemene clusterbestanden (in versies van MS SQL Server 2012 en ouder kan TempDB op elk knooppunt worden opgeslagen en niet worden overgebracht naar gedeelde opslag):

Nog een paar controles:



Ten slotte beginnen we met de installatie (het proces kan lang duren):

De installatie en installatie van het basisknooppunt is voltooid, zoals aangegeven in het “groene” rapport

Fase 3: een tweede knooppunt toevoegen aan het MSSQL-cluster

Vervolgens moet u een tweede knooppunt aan het cluster toevoegen, omdat Zonder dit is het niet nodig om over fouttolerantie te praten.
Installatie en installatie zijn veel eenvoudiger. Op de tweede server (VM) starten we de MS SQL Server-installatiewizard:

  • We slagen voor de starttest
  • Voer de licentiesleutel in:
  • Lees en accepteer de licentieovereenkomst:
  • We ontvangen updates:
  • We slagen voor tests om te voldoen aan de vereisten voor het installeren van een knooppunt (MSCS-waarschuwing - overslaan):

Selecteer aan welk cluster u het knooppunt wilt toevoegen:

We bekijken en accepteren de netwerkinstellingen van de clusterinstantie:

Geef de gebruiker en het wachtwoord op (hetzelfde als in de eerste fase):

Opnieuw tests en installatieproces:

Na voltooiing zouden we het volgende beeld moeten krijgen:

Gefeliciteerd, de installatie is voltooid.

Fase 4 - prestatiecontrole

Laten we ervoor zorgen dat alles werkt zoals het hoort. Ga hiervoor naar de module Failover Cluster Manager:

Op dit moment gebruiken we het tweede knooppunt (WS2012R2C2); in geval van storing zullen we overschakelen naar het eerste knooppunt (WS2012R2C1).
Laten we proberen rechtstreeks verbinding te maken met het MSSQL-servercluster. Hiervoor hebben we elke computer in het domeinnetwerk nodig waarop Management Studio MSSQL is geïnstalleerd. Bij het starten specificeren we de naam van ons cluster en de gebruiker (of laten we domeinautorisatie achter).