Vigtigt: noid-cluster-notify kan også findes som zeninotify. Se venligst: https://www.relianoid.com/resources/knowledge-base/enterprise-edition-v8-administration-guide/whats-new-in-relianoid-ee-v8/
Hvad er RELIANOID Load Balancer Cluster Community Edition? #
Den høje tilgængelighedsservice leveret af RELIANOID Load Balancer Community Edition er en statsløs klynge, automatisk inkluderet i standard Community Edition-versionen. Denne service replikerer dygtigt konfigurationsfiler på tværs af noder, ved at anvende VRRP-protokollen til at overvåge nodes sundhed, alt sammen i et ligetil design. For dem, der søger en mere avanceret, funktionsrig stateful cluster-service, er Enterprise Edition er tilgængelig.
De følgende trin skitserer installations- og konfigurationsprocessen for RELIANOID Klynge, når høj tilgængelighed er afgørende for din Load Balancer.
begreber #
Cluster Node #
A klynge node er en enkelt computerenhed i en klynge, som er en gruppe af indbyrdes forbundne computere eller servere, der arbejder sammen for at udføre opgaver, som om de var et enkelt system. Hver node i en klynge har typisk sin egen processorkraft, hukommelse og lagring, og de kommunikerer med hinanden over et netværk for at dele ressourcer og koordinere deres aktiviteter. Klyngeknuderne består af forekomster af belastningsbalancere, der er konfigureret til at fungere inden for en klyngetjeneste.
Flydende grænseflader #
A flydende IP adresse er en IP-adresse, der hurtigt kan omtildeles fra en node i en klynge til en anden. Dette bruges almindeligvis i højtilgængelige opsætninger, hvor flere servere eller noder kører identiske tjenester, og hvis en fejler, "flyder" IP-adressen til en anden node, så tjenesten kan fortsætte uafbrudt.
Hjerteslag #
Hjerteslag refererer til en mekanisme, der bruges af noder i klyngen til at kommunikere deres status og helbred til hinanden. Dette hjerteslagssignal indikerer, at en knude er operationel og fungerer korrekt. Fraværet af et hjerteslag fra en knude kan indikere en fejl eller et problem med den knude.
Synkronisering #
Synkronisering af konfiguration refererer til processen med at sikre, at konfigurationsindstillingerne på tværs af alle noder i klyngen er konsistente og opdaterede. Dette er essentielt for at bevare klyngens integritet og korrekte funktion, især når flere noder er involveret i at levere en tjeneste eller applikation.
Failover #
Failover refererer til processen med automatisk omdirigering eller omdirigering af arbejdsbelastninger, tjenester eller ressourcer fra en mislykket eller utilgængelig node til en sund og tilgængelig node i klyngen.
Klyngeopsætning #
Krav #
For at begynde skal du installere to forekomster af RELIANOID CE, hvilket sikrer, at begge kører den samme version.
Derefter skal du kontrollere, at NTP-tjeneste er korrekt konfigureret på begge noder, og at de er tilgængelige fra belastningsbalancerne. Synkronisering af systemtiden er afgørende for den korrekte funktion af VRRP-protokollen.
For at automatisere synkronisering er det desuden vigtigt at konfigurere SSH-login uden adgangskoder mellem belastningsbalancere. Konfigurer fjernadgangsnøgler, for eksempel ved at bruge ssh-copy-id kommando.
root@noid-ce-01:~# ssh-keygen -t rsa # uden adgangssætning, tryk bare på Enter root@noid-ce-01:~# ssh-copy-id root@noid-ce-02
Derefter, i den sekundære node:
root@noid-ce-02:~# ssh-keygen -t rsa # uden adgangssætning, tryk bare på Enter root@noid-ce-02:~# ssh-copy-id root@noid-ce-01
Konfiguration #
For at konfigurere klyngekonfigurationsfilen skal du først kopiere skabelonen /usr/local/relianoid/app/ucarp/etc/cluster.conf.example til /usr/local/relianoid/app/ucarp/etc/cluster.conf.
cp /usr/local/relianoid/app/ucarp/etc/cluster.conf.example /usr/local/relianoid/app/ucarp/etc/cluster.conf
Rediger derefter konfigurationsfilen på /usr/local/relianoid/app/ucarp/etc/cluster.conf. De væsentlige parametre er skitseret nedenfor:
#interface bruges til klyngen hvor er konfigureret local_ip og remote_ip $interface="eth0"; #local IP, der skal overvåges, dvs. 192.168.0.101 $local_ip="192.168.101.242"; #remote IP, der skal overvåges, dvs. 192.168.0.102 $remote_ip="192.168.101.243"; #brugt adgangskode til vrrp-protokolkommunikation $password="hemmelig"; #unik værdi for vrrp-klynge i netværket $cluster_id="1"; #brugt virtuel IP i klyngen, vil denne IP altid køre i masterknudepunktet $cluster_ip="192.168.101.244"; # hvis det nic, der bruges til klynge, er anderledes end eth0, så skift venligst exclude conf-filen i følgende linje ######## $exclude="--exclude if_eth0_conf";
Bemærk det kun virtuelle grænseflader gennemgår replikering. Hvis dine belastningsbalanceringstjenester involverer flere NIC'er eller VLAN'er, skal de ekskluderes i klyngekonfigurationsfilen. For eksempel, hvis eth0 er udpeget til klyngeformål og vlan100 (eth0.100) for belastningsbalancering skal konfigurationen justeres som følger:
$exclude="--exclude if_eth0_conf --exclude if_eth0.100_conf";
Vær opmærksom på at RELIANOID CE-klyngen administreres af root-brugeren, og den anvender rsync via ssh for at replikere konfigurationen fra masterknudepunktet til sikkerhedskopien. For at lette dette er det afgørende at konfigurere adgangskodefri SSH-adgang mellem noderne.
Sørg for, at den angivne $cluster_ip er konfigureret og aktiv på én RELIANOID virtuel load balancer, som bliver den fremtidige master. Når tjenesten er startet på denne node, vil konfigurationsfilen for $cluster_ip vil automatisk replikere til backup-serveren.
Start og stop en klynge node #
Følg disse trin for at aktivere klyngetjenesten:
1. Dette trin er kun nødvendigt for RELIANOID Community Edition 7.1 eller tidligere versioner: Du skal indstille variablen $enable_cluster i filen /etc/init.d/relianoid-ce-cluster til værdien:
$enable_cluster="sand";
2. Tjenesten relianoid-ce-cluster er deaktiveret som standard ved opstart. Udfør følgende kommando for at aktivere relianoid-ce-cluster for automatisk aktivering efter en genstart:
[] root@noid-ce-01:~# systemctl aktiver relianoid-ce-cluster
Husk, at enhver ændring af konfigurationsfilen /usr/local/relianoid/app/ucarp/etc/cluster.conf kræver en genstart af klyngetjenesten. Derfor, efter at have afsluttet konfigurationsparametrene, skal du genstarte klyngen på begge noder ved at bruge følgende trin:
[] root@noid-ce-01:~# /etc/init.d/relianoid-ce-cluster stop [] root@noid-ce-01:~# /etc/init.d/relianoid-ce-cluster start
Ved initieringen af klyngetjenesten er det vigtigt at observere, at prompten på belastningsbalanceren undergår ændring for at vise den aktuelle status for klyngen for hver tjeneste:
Mestre:
[master] root@noid-ce-01:~#
Backup:
[backup] root@noid-ce-02:~#
Opdater konfiguration #
Efter konfiguration af klyngetjenesten bliver alle konfigurationsindstillinger vedrørende virtuelle tjenester og virtuelle/flydende IP'er automatisk replikeret på tværs af klyngeknuderne.
I en statsløs klynge er brugersessioner og forbindelser ikke synkroniserede, hvilket nødvendiggør brugen af en tilstandsfuld klynge, som er inkluderet i vores Enterprise Load Balancer.
Opgradering af klynge noder #
Opgradering af klynge noder med en RELIANOID load balancer involverer opdatering af hver node i klyngen med den seneste RELIANOID load balancer software eller firmware. Det er tilrådeligt at opgradere backup-noden, før du fortsætter med opgraderingen af master-noden under opgraderingsprocessen for klynging af knudepunkter.
Logfiler og fejlfinding af Cluster Service #
1. Passwordless SSH er en forudsætning mellem begge klynge noder.
2. Begge klynge noder skal have NTP konfigureret.
3. noid-cluster-notify tjenesten vil udelukkende fungere på masterknudepunktet. Bekræft det noid-cluster-notify kører ved at udføre følgende kommando. På masterknudepunktet bør du modtage output svarende til dette:
[master] root@noid-ce-01:~# ps -ef | grep noid-cluster-notify root 16912 1 0 03:20 ? 00:00:00 /usr/bin/perl /usr/local/relianoid/bin/noid-cluster-notify.pl
På backup-noden bør der ikke være noget output relateret til noid-cluster-notify når du kører kommandoen.
[backup] root@noid-ce-02:~# ps -ef | grep noid-cluster-notify [backup] root@noid-ce-02:~#
4. Logfilerne til ucarp service er rettet til syslog at / Var / log / syslog .
5. Logs for noid-cluster-notify replikeringstjenesten overføres til /var/log/noid-cluster-notify.log .
6. Klyngestatussen er synlig i prompten og opdateres dynamisk efter hver kommandoudførelse. Desuden registreres klyngestatus i konfigurationsfilen: /etc/relianoid-ce-cluster.status . Hvis denne fil er fraværende, vil klyngetjenesten blive standset.
7. Når klyngeknudepunktet forfremmes til MASTER, udføres følgende script: /usr/local/relianoid/app/ucarp/sbin/relianoid-ce-cluster-start .
8. Når klyngeknudepunktet forfremmes til BACKUP, udføres følgende script: /usr/local/relianoid/app/ucarp/sbin/relianoid-ce-cluster-stop .
9. Når klynge noden kræver kørende annoncer, udføres følgende script: /usr/local/relianoid/app/ucarp/sbin/relianoid-ce-cluster-advertisement .
10. Hvis der er behov for at ændre en parameter i ucarp udførelse, kan du foretage justeringer inden for run_cluster() subrutine i scriptet /etc/init.d/relianoid-ce-cluster .
11. Klyngetjenesten benytter VRRP implementering, hvilket nødvendiggør tilladelsen af multicast-pakker i switchene.