Hej der
flyttet fra zevenet (sidste tilgængelige CE-udgivelse, fuldt opdateret) til relianoid 7.1 ved hjælp af scriptet
Alt ser ud til at være ok, men gårdens status er altid "nede", selvom alt er ok.
Er der en log jeg kan dykke ned i for at forstå hvorfor?
TIA
Stefano
Ciao Stefano, hvilke slags gårde bruger du?
Farmens status styres af en PID-fil oprettet under /var/run path. Du kan tjekke loggene i /var/log/syslog og søge efter fejl.
Du kan også oprette en support-gemt fil via System > Support-gem og sende den via support@relianoid.com
Med venlig hilsen.
Hej, tak for dit svar
Jeg bruger http-farme (det er en ret simpel situation), 2 virtuelle IP-adresser, 2 certifikater, omkring 10 tjenester.
Vil tjekke loggene og vende tilbage
Tak
her er jeg, igen
Jeg oprettede en ny VM fra Relianoid ce iso og gendannede den sikkerhedskopi, jeg tog, på produktionsmaskinen.
Jeg oplever sabe-problemet:
I webgrænsefladen ser jeg farms i kritisk status, men der er ingen fejl i syslog, og jeg ser, at alt fungerer som forventet.
Jeg har ledt overalt, og der er ingen fejl overhovedet i nogen logfiler på maskinen.
Kan nogen give et hint til at forstå hvorfor?
Og mere til, må jeg foreslå for at gøre det lettere at forstå? Jeg mener, hvis jeg ser en kritisk tilstand på en tjeneste, vil jeg gerne vide præcis, hvad jeg skal kontrollere, og/eller hvorfor jeg har sådan en tilstand.
Tak
Ciao Stefano,
Se venligst dokumentationen, der forklarer farvekoderne for både HTTP- og L4-farme.
Statussen "kritisk" ville betyde, at der ikke er nogen backends tilgængelige til at levere trafikken. Du kan midlertidigt deaktivere farm guardians avancerede kontroller for blot at bekræfte, at sundhedsskriptene ikke påvirker backends status.
Håber det hjælper,
Regards.
Hej, den status jeg ser er
Sort: Indikerer en KRITISK skade. Farmen er OP, men der er ingen backend tilgængelig, eller de er i vedligeholdelsestilstand.
Men alle gårde fungerer som forventet, backends er oppe og kører, og selv farmguardian fortæller mig, at alt er ok
2024-02-27T15:41:26.055263+01:00 svlinproxy farmguardian[243748]: (INFO) Farm Filasolutions8443 – Tjeneste pss – timetocheck 15 – portadmin /tmp/Filasolutions8443_proxy.socket – kommando check_ping -H HOST -w 2,100
2024-02-27T15:41:26.084935+01:00 svlinproxy farmguardian[243757]: (INFO) Farm FilasolutionsSSL – Servicehelpdesk – timetocheck 15 – portadmin /tmp/FilasolutionsSSL_proxy.socket – kommando check_ping -H HOST -w 2,100
2024-02-27T15:41:26.220633+01:00 svlinproxy farmguardian[243756]: (INFO) Farm FilasolutionsSSL – Servicehvælving – timetocheck 15 – portadmin /tmp/FilasolutionsSSL_proxy.socket – kommando check_ping -H HOST -w 2,100
2024-02-27T15:41:26.243783+01:00 svlinproxy farmguardian[243754]: (INFO) Farm FilasolutionsSSL – Tjeneste zucchetti – timetocheck 15 – portadmin /tmp/FilasolutionsSSL_proxy.socket – kommando check_ping -H HOST -w 2,100
2024-02-27T15:41:27.059237+01:00 svlinproxy farmguardian[243748]: (INFO) Farm Filasolutions8443 – Tjeneste pss – server[0] 192.168.0.63:8443 – status aktiv – timeout 0 – fejlkode 0
2024-02-27T15:41:27.089533+01:00 svlinproxy farmguardian[243757]: (INFO) Farm FilasolutionsSSL – Servicehelpdesk – server[0] 192.168.0.26:443 – status aktiv – timeout 0 – fejlkode 0
2024-02-27T15:41:27.224939+01:00 svlinproxy farmguardian[243756]: (INFO) Farm FilasolutionsSSL – Servicehvælving – server[0] 192.168.0.26:443 – status aktiv – timeout 0 – fejlkode 0
2024-02-27T15:41:27.246284+01:00 svlinproxy farmguardian[243754]: (INFO) Farm FilasolutionsSSL – Service zucchetti – server[0] 192.168.0.53:443 – status aktiv – timeout 0 – fejlkode 0
Prøvede at deaktivere farmguardian i 10 minutter, men intet ændrede sig.
Hvis farmguardian ikke registrerer backends, er det sandsynligvis den omvendte proxy. Kontroller status for backends med kommandoen:
root@noid-ce:~# /usr/local/relianoid/app/pound/sbin/poundctl -c /tmp/ _proxy.socket
Cheers.
Foreslår du, at jeg udfører den kommando?
Jeg har ingen _proxy.socket-fil i /tmp/
drwxr-xr-x 18 root root 4096 27. feb. 11:32 ..
-rw-r—– 1 rod rod 257 27. feb. 15:41 cgisess_8acf41d0126e16025b8e9a4e1e7b65ed
drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXB3dCwQ
drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXeCrs2m
drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXiGNzgR
drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXlo8cwj
drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXOhLVuo
drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXYQraxU
-rw-r–r– 1 root root 0 27. feb. 15:55 err.log
-rw-r–r– 1 root root 0 27. feb. 15:30 Filasolutions8443.lock
-rw-r–r– 1 root root 0 13. feb. 14:45 Filasolutions.lock
-rw-r–r– 1 root root 0 27. feb. 15:30 FilasolutionsSSL.lock
drwxrwxrwt 2 root root 4096 13. feb. 14:45 .font-unix
drwxrwxrwt 2 root root 4096 13. feb. 14:45 .ICE-unix
drwx—— 3 root root 4096 13. feb. 14:45 systemd-private-1934d9d6cd3240bdb4bb58b5145b9b06-systemd-logind.service-wsM0ZT
drwx—— 3 root root 4096 13. feb. 14:45 systemd-private-1934d9d6cd3240bdb4bb58b5145b9b06-systemd-timesyncd.service-Iuq6QT
drwxrwxrwt 2 root root 4096 13. feb. 14:45 .X11-unix
drwxrwxrwt 2 root root 4096 13. feb 14:45 .XIM-unix
Hvis det drejer sig om en HTTP-farm, skal du have en "pound"-proces kørende, der skal åbne en kontrolsocket defineret i direktivet "Control" i farmkonfigurationsfilen "/usr/local/relianoid/config/FARM-NAME_proxy.cfg". Derefter kan du udføre ctl-kommandoen over den socket, der er defineret i farmkonfigurationen.
root@noid-ce:~# /usr/local/relianoid/app/pound/sbin/poundctl -c /tmp/ _proxy.socket
Hvis socket'en er defineret, men ikke findes, kan det være statusproblemet. Genstart af farmen burde generere socket-filen.
Cheers.
root@svlinproxy:/usr/local/relianoid/config# ls -la *_proxy.cfg
-rw-r–r– 1 rod rod 1863 27. feb. 16:26 Filasolutions8443_proxy.cfg
-rw-r–r– 1 rod rod 1878 13. feb. 14:45 Filasolutions_proxy.cfg
-rw-r–r– 1 rod rod 2586 27. feb. 15:30 FilasolutionsSSL_proxy.cfg
ingen kontroldirektiv i mine _proxy.cfg-filer
root@svlinproxy:/usr/local/relianoid/config# grep -i control *_proxy.cfg
root@svlinproxy:/usr/local/relianoid/config#
root@svlinproxy:/usr/local/relianoid/config# ps aux | grep pund
rod 901 0.0 0.0 61548 2180 ? Ss Feb13 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions_proxy.cfg -p /var/run/Filasolutions_proxy.pid
rod 902 0.0 0.0 193140 3420 ? Sl Feb13 0:29 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions_proxy.cfg -p /var/run/Filasolutions_proxy.pid
rod 243330 0.0 0.0 61672 2380 ? Ss 15:30 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/FilasolutionsSSL_proxy.cfg -p /var/run/FilasolutionsSSL_proxy.pid
rod 243331 0.0 0.2 1049524 9632 ? Sl 15:30 0:01 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/FilasolutionsSSL_proxy.cfg -p /var/run/FilasolutionsSSL_proxy.pid
rod 246138 0.0 0.0 61672 2364 ? Ss 16:26 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions8443_proxy.cfg -p /var/run/Filasolutions8443_proxy.pid
rod 246139 0.0 0.1 127728 6480 ? Sl 16:26 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions8443_proxy.cfg -p /var/run/Filasolutions8443_proxy.pid
rod 246758 0.0 0.0 6332 2132 point/0 S+ 16:40 0:00 grep pund
root@svlinproxy:/usr/local/relianoid/config#
root@svlinproxy:/usr/local/relianoid/config# netstat -napt | grep pund
tcp 0 0 10.10.10.2:443 0.0.0.0:* LYT 243330/pund
tcp 0 0 10.10.10.2:8443 0.0.0.0:* LYT 246138/pund
tcp 0 0 10.10.10.2:80 0.0.0.0:* LYT 901/pund
Tak
Genstartede alle gårde mange, mange gange
okay, måske fandt jeg problemet
Da jeg opgraderede min zevenet til Relinoid, blev _proxy.cfg-filerne ikke genskabt.
Jeg kan se kontroldirektivet i mine skabeloner
root@svlinproxy:/usr/local/relianoid/share# grep -i kontrol *.cfg
poundtpl.cfg:Kontrol “/tmp/[DESC]_proxy.socket”
proxytpl.cfg:Kontrol “/tmp/[DESC]_proxy.socket”
men intet i importerede/gendannede/migrerede profiler/farme
Hvordan kan jeg regenerere mine cfg-filer uden at genstarte forfra?
Tak
Skabelonen til proxykonfigurationen findes under /usr/local/relianoid/share/poundtpl.cfg og bør indeholde en sådan direktiv. Hvordan oprettede du sådanne farms? Importerede du en sikkerhedskopi?
Tak,
Du kan redigere farmkonfigurationsfilen for hver proxy-farm og tilføje Control-direktivet i formen:
Kontrol “/tmp/FARMNAME_proxy.socket”
Lige før ListenHTTP(S)-direktivet. Genstart derefter farmene, og de burde oprette kontrolsockelen.
Cheers.
Okay, lad os opsummere historien
Jeg havde en Zevenet 5 CE og migrerede den til Relianoid 7 med dit script.
Alt gik glat, men den kritiske gårdstatus
Derefter installerede jeg, til testformål, en ny VM direkte fra Relinoid 7 CE iso og gendannede en backup taget fra produktionsmaskinen.
I begge ser jeg den kritiske status, selvom alt på produktionsmodellen, som sagt, fungerer ok (tilsyneladende)
Hvordan kan jeg regenerere/mitere mine konfigurationsfiler?
Det ser ud til, at der mangler noget i migrationen fra Zevenet
Tak
Fulgte du denne vejledning?
Migrerer fra Zevenet CE til RELIANOID ADC Load Balancer Community Edition
Eller hvilket script brugte du?
Tak.