Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Backup eines Linux Servers gesucht

Forum rund um das Thema Hardware für Webmaster.
Neues Thema Antworten
Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 11.11.2009, 23:18

Ich hab immer noch meine alte Suse-Kiste rumliegen und wollt die mal plätten. Vorher würd ich aber gern ein Backup des Dateisystems ziehen, falls ich nochmal was nachgucken will oder vergessen hab, irgendetwas zu sichern. Gibt es da ein Tool für oder kann ich das mit nem einfachen Befehl machen ?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


/aquila
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 02.10.2009, 11:07

Beitrag von /aquila » 11.11.2009, 23:36


Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 12.11.2009, 00:02

Kann ich da dann anschließend auch einfach reingucken, wenn ich was suche oder muß ich das erst mit ner VM wieder einspielen ? Das sehe ich da irgendwie nicht.

Seonudel
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 16.12.2008, 16:40

Beitrag von Seonudel » 12.11.2009, 01:02

rsync könnte eventuell auch helfen.

Normalerweise brauchst Du eh nur /home/ und /etc/ und die Verzeichnisse die Du eben genutzt hast, z.B. /var/www/

Ich würde einfach ein gzip anschmeissen für jedes Verzeichnis und nachher nochmal alle in einen tar'ball packen. Das geht schneller als hier nachzufragen ;)

Anonymous

Beitrag von Anonymous » 12.11.2009, 01:26

ich hab mal nen kleinen Linuxserver aufgerüstet, hier kam dann auch ne neue festplatte rein und eben neu installen... da hab ich die alte Fesplatte hinterher einfach zusätzlich gemountet in einem extra Ordner "altes_system" und somit immernoch zugriff auf alle Daten gehabt...

Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 12.11.2009, 01:31

Ja, ich=doof. Ich muß natürlich erwähnen, daß das Ding n V-Server ist...

Das gzip verweigert den Dienst, aber ich werde den nudeligen Hinweis befolgen und nur relevanten Kram kopieren. Mal sehen, ob er jetzt wieder meckert.

Anonymous

Beitrag von Anonymous » 12.11.2009, 01:50

öhm... also ne reine virtuelle Maschine?

die kannste doch einfach an die Seite legen und wenn du später noch Daten brauchst starteste die wieder und holst sie dir... oder übersehe ich da immernoch etwas?

Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 12.11.2009, 02:03

Da müßte ich aber bei Strato einbrechen und den Mutterhost klauen. Ich bin irgendwie zu doof, ich krieg das nicht gebacken, weder mit zip, noch mit WinSCP.

Anonymous

Beitrag von Anonymous » 12.11.2009, 02:43

bietet strato nicht nen komplettbackup auf DVD für nen paar €?

kostaki
PostRank 4
PostRank 4
Beiträge: 175
Registriert: 26.10.2009, 22:19
Wohnort: Berlin

Beitrag von kostaki » 12.11.2009, 22:34

tar -czvf archive.tar.gz / geht nicht? Wenn er bei einigen Verzeichnissen abbricht, diese einfach excluden.

Seonudel
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 16.12.2008, 16:40

Beitrag von Seonudel » 12.11.2009, 23:24

Da haste einen nudeligen Tip mehr ;) Vielleicht hilfts, ein paar Kommentare sind ja enthalten ... das Backup Script läuft normalerweise via Cron Job (also als root!). Außerdem ist es auf Debian zugeschnitten, deswegen schmeiss einfach raus was überflüssig ist für Dich bzw. änder die Pfade für SUSE.

Du musst das in einer Datei speichern "vim backup.sh" und dann via "chmod o+x backup.sh" ausführbar machen.

Code: Alles auswählen

#!/bin/bash

cd /

mkdir -p /root/backup/temp/

tar -zcf /root/backup/temp/backup-etc.tar.gz /etc/

# paketdatenbank sichern
# dpkg --set-selections < datei
# aptitude aufrufen um rueckzusichern
dpkg --get-selections > /root/backup/temp/package-list

# mysql sichern
# .my.cnf anlegen und in /root/ speichern, dort passwort hinterlegen
mysqldump -u root -A | gzip -c > /root/backup/temp/mysql-dump.sql.gz

# www sichern
tar -zcf /root/backup/temp/backup-www.tar.gz /var/www/

# mail warnungs templates sichern
tar -zcf /root/backup/temp/backup-usr-local.tar.gz /usr/local/etc/

# bayes rules sichern
tar -zcf /root/backup/temp/backup-spamassassin.tar.gz /var/lib/amavis/.spamassassin

# mailsystem sichern
tar -zcf /root/backup/temp/backup-mailsystem.tar.gz /home/mailsystem/

# alle skripte sichern
tar -zcf /root/backup/temp/backup-skripte.tar.gz /root/scripts/

# alles in eine datei schnueren
tar -cf /root/backup/$&#40;date +%Y-%m-%d&#41;.tar /root/backup/temp/

# und das temp verzeichnis entfernen
rm -rf /root/backup/temp/
Wer Verbesserungsvorschläge hat nur raus damit!

Lord Lommel
PostRank 10
PostRank 10
Beiträge: 3227
Registriert: 18.02.2008, 02:43
Wohnort: Halle / Saale

Beitrag von Lord Lommel » 13.11.2009, 01:05

kostaki hat geschrieben:tar -czvf archive.tar.gz / geht nicht? Wenn er bei einigen Verzeichnissen abbricht, diese einfach excluden.
So hab ichs dann auch gemacht. as zip selber wollte nicht, aber tar wollte. Uff...

Danke für die Tips, werd ich mir alle mal aufschreiben, sowas brauch ich bestimmt bald wieder.

BKEAIM
PostRank 3
PostRank 3
Beiträge: 82
Registriert: 08.01.2009, 21:02

Beitrag von BKEAIM » 13.11.2009, 07:20

Beim Erstellen von Backups mit tar, die dann durch die Option -z mit gzip komprimiert werden, sollte man folgendes im Hinterkopf haben (auch wenn sich das Zitat auf Bandlaufwerke bezieht):
It is not usually a good idea to use gzip with tape backups. If a single bit error occurs, it can corrupt the whole backup. Plain tar format is more tolerant to errors, in the best case only one file is damaged by a tape bit error.
https://www.space.fmi.fi/~pjanhune/doc/ ... html#ss2.3

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag