Farms status efter opgradering fra Zevenet CE 5 til Relianoid CE 7.1

  • Dette emne har 18 svar, 2 stemmer og blev sidst opdateret 2 år siden af nevola.
Visning 15 indlæg - 1 gennem 15 (af 19 alt)
  • Forfatter
    Indlæg
  • #52503 Svar
    s.zamboni
    Medlem

      Hej der

      flyttet fra zevenet (sidste tilgængelige CE-udgivelse, fuldt opdateret) til relianoid 7.1 ved hjælp af scriptet

      Alt ser ud til at være ok, men gårdens status er altid "nede", selvom alt er ok.
      Er der en log jeg kan dykke ned i for at forstå hvorfor?

      TIA
      Stefano

      #52504 Svar
      sne
      Moderator

        Ciao Stefano, hvilke slags gårde bruger du?

        Farmens status styres af en PID-fil oprettet under /var/run path. Du kan tjekke loggene i /var/log/syslog og søge efter fejl.
        Du kan også oprette en support-gemt fil via System > Support-gem og sende den via support@relianoid.com

        Med venlig hilsen.

        #52505 Svar
        s.zamboni
        Medlem

          Hej, tak for dit svar

          Jeg bruger http-farme (det er en ret simpel situation), 2 virtuelle IP-adresser, 2 certifikater, omkring 10 tjenester.

          Vil tjekke loggene og vende tilbage

          Tak

          #52577 Svar
          s.zamboni
          Medlem

            her er jeg, igen

            Jeg oprettede en ny VM fra Relianoid ce iso og gendannede den sikkerhedskopi, jeg tog, på produktionsmaskinen.

            Jeg oplever sabe-problemet:
            I webgrænsefladen ser jeg farms i kritisk status, men der er ingen fejl i syslog, og jeg ser, at alt fungerer som forventet.

            Jeg har ledt overalt, og der er ingen fejl overhovedet i nogen logfiler på maskinen.

            Kan nogen give et hint til at forstå hvorfor?

            Og mere til, må jeg foreslå for at gøre det lettere at forstå? Jeg mener, hvis jeg ser en kritisk tilstand på en tjeneste, vil jeg gerne vide præcis, hvad jeg skal kontrollere, og/eller hvorfor jeg har sådan en tilstand.

            Tak

            #52578 Svar
            sne
            Moderator

              Ciao Stefano,

              Se venligst dokumentationen, der forklarer farvekoderne for både HTTP- og L4-farme.

              LSLB | Gårde | Opdatering | HTTP-profil

              LSLB | Gårde | Opdatering | L4xNAT-profil

              Statussen "kritisk" ville betyde, at der ikke er nogen backends tilgængelige til at levere trafikken. Du kan midlertidigt deaktivere farm guardians avancerede kontroller for blot at bekræfte, at sundhedsskriptene ikke påvirker backends status.

              Håber det hjælper,
              Regards.

              #52584 Svar
              s.zamboni
              Medlem

                Hej, den status jeg ser er
                Sort: Indikerer en KRITISK skade. Farmen er OP, men der er ingen backend tilgængelig, eller de er i vedligeholdelsestilstand.

                Men alle gårde fungerer som forventet, backends er oppe og kører, og selv farmguardian fortæller mig, at alt er ok

                2024-02-27T15:41:26.055263+01:00 svlinproxy farmguardian[243748]: (INFO) Farm Filasolutions8443 – Tjeneste pss – timetocheck 15 – portadmin /tmp/Filasolutions8443_proxy.socket – kommando check_ping -H HOST -w 2,100
                2024-02-27T15:41:26.084935+01:00 svlinproxy farmguardian[243757]: (INFO) Farm FilasolutionsSSL – Servicehelpdesk – timetocheck 15 – portadmin /tmp/FilasolutionsSSL_proxy.socket – kommando check_ping -H HOST -w 2,100
                2024-02-27T15:41:26.220633+01:00 svlinproxy farmguardian[243756]: (INFO) Farm FilasolutionsSSL – Servicehvælving – timetocheck 15 – portadmin /tmp/FilasolutionsSSL_proxy.socket – kommando check_ping -H HOST -w 2,100
                2024-02-27T15:41:26.243783+01:00 svlinproxy farmguardian[243754]: (INFO) Farm FilasolutionsSSL – Tjeneste zucchetti – timetocheck 15 – portadmin /tmp/FilasolutionsSSL_proxy.socket – kommando check_ping -H HOST -w 2,100
                2024-02-27T15:41:27.059237+01:00 svlinproxy farmguardian[243748]: (INFO) Farm Filasolutions8443 – Tjeneste pss – server[0] 192.168.0.63:8443 – status aktiv – timeout 0 – fejlkode 0
                2024-02-27T15:41:27.089533+01:00 svlinproxy farmguardian[243757]: (INFO) Farm FilasolutionsSSL – Servicehelpdesk – server[0] 192.168.0.26:443 – status aktiv – timeout 0 – fejlkode 0
                2024-02-27T15:41:27.224939+01:00 svlinproxy farmguardian[243756]: (INFO) Farm FilasolutionsSSL – Servicehvælving – server[0] 192.168.0.26:443 – status aktiv – timeout 0 – fejlkode 0
                2024-02-27T15:41:27.246284+01:00 svlinproxy farmguardian[243754]: (INFO) Farm FilasolutionsSSL – Service zucchetti – server[0] 192.168.0.53:443 – status aktiv – timeout 0 – fejlkode 0

                Prøvede at deaktivere farmguardian i 10 minutter, men intet ændrede sig.

                #52588 Svar
                sne
                Moderator

                  Hvis farmguardian ikke registrerer backends, er det sandsynligvis den omvendte proxy. Kontroller status for backends med kommandoen:

                  root@noid-ce:~# /usr/local/relianoid/app/pound/sbin/poundctl -c /tmp/ _proxy.socket

                  Cheers.

                  #52591 Svar
                  s.zamboni
                  Medlem

                    Foreslår du, at jeg udfører den kommando?

                    Jeg har ingen _proxy.socket-fil i /tmp/

                    drwxr-xr-x 18 root root 4096 27. feb. 11:32 ..
                    -rw-r—– 1 rod rod 257 27. feb. 15:41 cgisess_8acf41d0126e16025b8e9a4e1e7b65ed
                    drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXB3dCwQ
                    drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXeCrs2m
                    drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXiGNzgR
                    drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXlo8cwj
                    drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXOhLVuo
                    drwx—— 2 root root 4096 13. feb. 14:45 cherokee.XXXXXYQraxU
                    -rw-r–r– 1 root root 0 27. feb. 15:55 err.log
                    -rw-r–r– 1 root root 0 27. feb. 15:30 Filasolutions8443.lock
                    -rw-r–r– 1 root root 0 13. feb. 14:45 Filasolutions.lock
                    -rw-r–r– 1 root root 0 27. feb. 15:30 FilasolutionsSSL.lock
                    drwxrwxrwt 2 root root 4096 13. feb. 14:45 .font-unix
                    drwxrwxrwt 2 root root 4096 13. feb. 14:45 .ICE-unix
                    drwx—— 3 root root 4096 13. feb. 14:45 systemd-private-1934d9d6cd3240bdb4bb58b5145b9b06-systemd-logind.service-wsM0ZT
                    drwx—— 3 root root 4096 13. feb. 14:45 systemd-private-1934d9d6cd3240bdb4bb58b5145b9b06-systemd-timesyncd.service-Iuq6QT
                    drwxrwxrwt 2 root root 4096 13. feb. 14:45 .X11-unix
                    drwxrwxrwt 2 root root 4096 13. feb 14:45 .XIM-unix

                    #52594 Svar
                    sne
                    Moderator

                      Hvis det drejer sig om en HTTP-farm, skal du have en "pound"-proces kørende, der skal åbne en kontrolsocket defineret i direktivet "Control" i farmkonfigurationsfilen "/usr/local/relianoid/config/FARM-NAME_proxy.cfg". Derefter kan du udføre ctl-kommandoen over den socket, der er defineret i farmkonfigurationen.

                      root@noid-ce:~# /usr/local/relianoid/app/pound/sbin/poundctl -c /tmp/ _proxy.socket

                      Hvis socket'en er defineret, men ikke findes, kan det være statusproblemet. Genstart af farmen burde generere socket-filen.

                      Cheers.

                      #52596 Svar
                      s.zamboni
                      Medlem

                        root@svlinproxy:/usr/local/relianoid/config# ls -la *_proxy.cfg
                        -rw-r–r– 1 rod rod 1863 27. feb. 16:26 Filasolutions8443_proxy.cfg
                        -rw-r–r– 1 rod rod 1878 13. feb. 14:45 Filasolutions_proxy.cfg
                        -rw-r–r– 1 rod rod 2586 27. feb. 15:30 FilasolutionsSSL_proxy.cfg

                        ingen kontroldirektiv i mine _proxy.cfg-filer

                        root@svlinproxy:/usr/local/relianoid/config# grep -i control *_proxy.cfg
                        root@svlinproxy:/usr/local/relianoid/config#

                        root@svlinproxy:/usr/local/relianoid/config# ps aux | grep pund
                        rod 901 0.0 0.0 61548 2180 ? Ss Feb13 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions_proxy.cfg -p /var/run/Filasolutions_proxy.pid
                        rod 902 0.0 0.0 193140 3420 ? Sl Feb13 0:29 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions_proxy.cfg -p /var/run/Filasolutions_proxy.pid
                        rod 243330 0.0 0.0 61672 2380 ? Ss 15:30 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/FilasolutionsSSL_proxy.cfg -p /var/run/FilasolutionsSSL_proxy.pid
                        rod 243331 0.0 0.2 1049524 9632 ? Sl 15:30 0:01 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/FilasolutionsSSL_proxy.cfg -p /var/run/FilasolutionsSSL_proxy.pid
                        rod 246138 0.0 0.0 61672 2364 ? Ss 16:26 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions8443_proxy.cfg -p /var/run/Filasolutions8443_proxy.pid
                        rod 246139 0.0 0.1 127728 6480 ? Sl 16:26 0:00 /usr/local/relianoid/app/pound/sbin/pound -f /usr/local/relianoid/config/Filasolutions8443_proxy.cfg -p /var/run/Filasolutions8443_proxy.pid
                        rod 246758 0.0 0.0 6332 2132 point/0 S+ 16:40 0:00 grep pund
                        root@svlinproxy:/usr/local/relianoid/config#

                        root@svlinproxy:/usr/local/relianoid/config# netstat -napt | grep pund
                        tcp 0 0 10.10.10.2:443 0.0.0.0:* LYT 243330/pund
                        tcp 0 0 10.10.10.2:8443 0.0.0.0:* LYT 246138/pund
                        tcp 0 0 10.10.10.2:80 0.0.0.0:* LYT 901/pund

                        Tak

                        Genstartede alle gårde mange, mange gange

                        #52598 Svar
                        s.zamboni
                        Medlem

                          okay, måske fandt jeg problemet

                          Da jeg opgraderede min zevenet til Relinoid, blev _proxy.cfg-filerne ikke genskabt.

                          Jeg kan se kontroldirektivet i mine skabeloner

                          root@svlinproxy:/usr/local/relianoid/share# grep -i kontrol *.cfg
                          poundtpl.cfg:Kontrol “/tmp/[DESC]_proxy.socket”
                          proxytpl.cfg:Kontrol “/tmp/[DESC]_proxy.socket”

                          men intet i importerede/gendannede/migrerede profiler/farme

                          Hvordan kan jeg regenerere mine cfg-filer uden at genstarte forfra?

                          Tak

                          #52601 Svar
                          sne
                          Moderator

                            Skabelonen til proxykonfigurationen findes under /usr/local/relianoid/share/poundtpl.cfg og bør indeholde en sådan direktiv. Hvordan oprettede du sådanne farms? Importerede du en sikkerhedskopi?

                            Tak,

                            #52602 Svar
                            sne
                            Moderator

                              Du kan redigere farmkonfigurationsfilen for hver proxy-farm og tilføje Control-direktivet i formen:

                              Kontrol “/tmp/FARMNAME_proxy.socket”

                              Lige før ListenHTTP(S)-direktivet. Genstart derefter farmene, og de burde oprette kontrolsockelen.

                              Cheers.

                              #52603 Svar
                              s.zamboni
                              Medlem

                                Okay, lad os opsummere historien

                                Jeg havde en Zevenet 5 CE og migrerede den til Relianoid 7 med dit script.

                                Alt gik glat, men den kritiske gårdstatus

                                Derefter installerede jeg, til testformål, en ny VM direkte fra Relinoid 7 CE iso og gendannede en backup taget fra produktionsmaskinen.

                                I begge ser jeg den kritiske status, selvom alt på produktionsmodellen, som sagt, fungerer ok (tilsyneladende)

                                Hvordan kan jeg regenerere/mitere mine konfigurationsfiler?
                                Det ser ud til, at der mangler noget i migrationen fra Zevenet

                                Tak

                                #52604 Svar
                                sne
                                Moderator

                                  Fulgte du denne vejledning?

                                  Migrerer fra Zevenet CE til RELIANOID ADC Load Balancer Community Edition

                                  Eller hvilket script brugte du?

                                  Tak.

                                Visning 15 indlæg - 1 gennem 15 (af 19 alt)
                                Svar til: Farms status efter opgradering fra zevenet ce 5 til relianoid ce 7.1
                                Indsæt dine oplysninger eller Log ind for at undgå at blive modereret