Ankündigung

Einklappen
Keine Ankündigung bisher.

Anregungen für Datenbank-Backup (per Mail?)

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

    Anregungen für Datenbank-Backup (per Mail?)

    Hallo Community,

    ich habe mal ein aktuelles/akutes Problem nach einer Account-Umstellung bei DF; vielleicht habt ihr mal einen Tipp.

    Also:
    Ich betreue bei DF einen Account mit rund 60 Domains und um die 15 MySQL-Datenbanken. (Wordpress-Multisite)
    Bisher (und die letzten gefühlt 10 Jahre) erfolgte das Backup der Datenbanken über MySQLDumper in der Form, dass die Backups sowohl auf dem Server als auch in einem Mailpostfach gespeichert wurden. Täglich per Cronjob.
    Ich weiß, MySQLDumper ist deprecated, aber lief bisher schlichtweg vollkommen problemlos.
    Während alle Seiten auf PHP7 umgestellt wurden, musste/konnte ich MySQLDumper noch auf PHP5.6 belassen, hatte aber beizeiten eine Umstellung auf den Fork MyOOSDumper vorgesehen, der auch mit neueren PHP-Versionen zurecht kommt.

    Nun wurde unser Account zwangsmigriert auf die 64bit-Plattform (Tarif "ManagedHosting 64 Professional").
    Alles hat vollkommen ohne Probleme funktioniert, worüber ich sehr froh bin.
    Nur MySQLDumper funktioniert nicht mehr. Da die Logs nicht aussagekräftig waren, hatte ich den Support bemüht.
    Antwort (wenn nicht erwünscht, dann bitte löschen). "Das von Ihnen genutzte Skript verwendet die Perl Libary Carp, welches nicht auf unseren Shared Hosting Tarifen installiert ist. Eine nachträgliche Installation der Libary ist nicht möglich und eine Empfehlung für ein anderes Skript können wir auch nicht nennen."
    Da MyOOSDumper als Fork ebenso Carp nutzt, fällt die Variante aus raus.

    Ich hatte hier im Forum das Backup-Script von Nils Dormblut gesehen. Aus dem Einlesen der Beschreibung (habe es noch nicht getestet!) konnte ich zwar entnehmen, dass auch ein Versand per Mail möglich ist; von einem möglichen Splitten der Backups war aber nicht die Rede.
    Das Backup einer unserer Datenbanken hat gezippt eine Größe von rund 90MB, welches bisher von MySQLDumper auf 4 Dateien aufgeteilt wird. Eine Anhangdatei von 90MB nimmt so gut wie kein Mailanbieter entgegen.
    Wenn ich da was überlesen haben sollte, sorry!

    Ansonsten:
    Hättet ihr Empfehlungen für ein Script, welches man täglich per Cronjob triggern kann und die Backups auch (ggfs. aufgeteilt) per Mail versenden kann?
    Generell wäre ich auch für andere Lösungen offen (da es mich nervt alle xx Tage das Google-Postfach zu leeren, da die 15GB Postfachgröße erreicht sind...). Nur die bisherige Lösung ist eben kostenlos. Da sucht man erstmal nach gleichwertigen Lösungen.

    Wie sind da eure Erfahrungen/Strategien, die Daten (zusätzlich) Extern zu sichern?
    Am liebsten würde ich auch den kompletten Webspace gerne regelmäßig sichern, aber das ist da glaube ich aktuell Illusion.

    Für Denkanstöße wäre ich sehr dankbar!

    Viele Grüße
    Stefan
    Zuletzt geändert von stefanniehaus; 11.11.2022, 18:23.

    #2
    Keine Ideen?

    Kommentar


      #3
      Mein Empfehlung wäre Updraftplus Backup für Wordpress.
      UpdraftPlus is the World's leading WordPress backup, restore & migration plugin. Used on millions of WP sites, you can backup with confidence.


      Damit kannst du Datenbanken und Web sichern und ggf. per Mausklick zurück spielen.

      Als Sicherungsziel kann ein beliebiger FTP Account herhalten.
      Man sieht sich auf https://wewoco.de

      Kommentar


        #4
        Danke dir für die Rückmeldung!

        Das hatte ich auch schon mal auf dem Schirm. Aber wenn ich das richtig sehe, bezieht sich das auf eine explizite Wordpress-Installation, oder?
        Ich habe diverse Wordpress-Installationen auf dem Webspace sowie auch Datenbanken, die nicht direkt mit einer WP-Installation in Verbindung stehen (Piwik/Matomo, andere Systeme).
        Deswegen scheint das vermutlich nicht das Tool erster Wahl zu sein.

        Ich würde halt gerne ein Tool haben, dass ich einmal auf dem Webspace einrichten muss und damit n unterschiedliche Datenbanken sichern kann.
        Der Idealfall wäre natürlich ein Tool, welches den kompletten Webspace inkl. Datenbanken sichert, aber das ist wohl eher in weiterer ferne.
        Mein Webspaceanbieter, den ich privat nutze, bietet ein tägliches Backup aller Daten (Webspace, Datenbanken, Mails etc.) per FTP an. Das wäre der Idealfall. Aber vielleicht kann man zumindest näher dran kommen.

        Ach ja: Guten Rutsch :-)
        Zuletzt geändert von stefanniehaus; 31.12.2022, 18:47.

        Kommentar


          #5
          Hallo.
          Könnten in der Datei /MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl einfach die Zeilen 53 und 54 auskommentiert werden?:
          Code:
          # use CGI::Carp qw(warningsToBrowser fatalsToBrowser);
          # warningsToBrowser(1);​
          Alledings kann bei mir dann CGI in der nächsten Zeile 55 nicht geladen werden - warum ?
          Can't locate CGI.pm in @INC (you may need to install the CGI module) (@INC conta
          ins: /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl
          /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5) at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 55.​
          Das müsste im Tarif dabei sein. Müsste ich da was in der PHP.INI verändern?
          Grüße
          Zuletzt geändert von Edward Friedrich; 01.01.2023, 18:18.

          Kommentar


            #6
            Also so lädt das Perl-Skript doch CGI (Zeilen 53, 54 und 55 in crondump.pl):
            Code:
            # use CGI::Carp qw(warningsToBrowser fatalsToBrowser);
            # warningsToBrowser(1);
            use CGI/1.1;​
            weil laut php-Variables der Aufruf von CGI so ist:
            Variable Value
            $_SERVER['GATEWAY_INTERFACE'] CGI/1.1


            Trotzdem läuft der Cronjob nicht, weil dann kommen viele Perl-Fehler:
            Code:
            Possible unintended interpolation of @cron_db_array in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 62.
            Possible unintended interpolation of @ftp_server in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 62.
            Possible unintended interpolation of @cron_dbpraefix_array in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 62.
            Possible unintended interpolation of @key_value in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 67.
            Possible unintended interpolation of @confname in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 67.
            Possible unintended interpolation of @tables in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 69.
            Possible unintended interpolation of @tablerecords in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 69.
            Possible unintended interpolation of @ergebnis in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 69.
            Possible unintended interpolation of @ar in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 69.
            Possible unintended interpolation of @str in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 72.
            Possible unintended interpolation of @ftp_transfer in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 75.
            Possible unintended interpolation of @ftp_timeout in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 75.
            Possible unintended interpolation of @ftp_user in string at /kunden/123456_Zeichen/webseiten/MyOOS-Dumper-mod_5.0.19/mod_cron/crondump.pl line 75.
            Possible unintended interpolation of @ftp_pass in string at /kunden/123456_Zeichen/webseite​
            Vielleicht muß das Perl-Skript angepasst werden, weil anscheinend jeder Aufruf der mit "@" beginnt einen Fehler auslöst. Vielleicht kennst Du Dich damit aus?
            Grüße
            Zuletzt geändert von Edward Friedrich; 01.01.2023, 18:41.

            Kommentar

            Lädt...
            X