Benno-007
Anmeldungsdatum: 28. August 2007
Beiträge: 29240
|
man:
-c, --checksum skip based on checksum, not mod-time & size
Weiter heißt es:
Generating the checksums means that both sides will expend a lot of disk I/O reading [...] so this can slow things down significantly.
Genau deswegen nutzt man Checksummen gewöhnlich nicht. Dann kommt lionlizards Zitat. Um noch mehr zu verwirren oder entwirren: Es wird ohne -c nicht anhand Checksummen über alle Dateien entschieden, was neu ist, sondern über die Zeit und Größe. Die übertragene Datei wird dann aber trotzdem per Checksumme gecheckt, ob sie korrekt ankam. Das spart viel Last an der Platte, kann aber dazu führen, dass eine Dateiversion mit gleichem Name, Größe und Datum für dieselbe gehalten wird, obwohl sie eine komplett andere oder andere Version ist, welches sich durch eine Checksumme mit -c feststellen liese. In Spezialfällen mit vielen ähnlichen Dubletten in Quellen und Ziel(en) könnte man das also aktivieren. Abgekürzt könnte man auch sagen: V for Vortex schrieb: …und keinen Wert darauf legt, dass die Kopie per Checksumme überprüft wird. 😉 (wie es rsync tut)
Das erfüllt meine Erwartungen an Ubuntu vollends. Grüße, Benno Edit: Bei rsync besteht aber die Gefahr, dass man wichtige Optionen vergisst. -a reicht hier gewöhnlich nicht, finde ich. Es müssen auch Soft- und Hardlinks als solche gespeichert werden. Ich hab da etliche Optionen drin:
sudo rsync --delete --stats -PSvahHAXx --log-file=xxx --exclude='/media/*/**' --exclude='/proc/**' --exclude='/sys/**' --exclude='/tmp/**' --link-dest=/media/xxx /boot / /home /ziel/rsync-"$(date +%d.%m.%Y)"
Wobei cp wahrscheinlich Hardlinks auch einfach als Datei kopiert, ohne das jetzt nachzugucken. Letztendlich hat man halt mehr Möglichkeiten mit rsync. Unterordner ausschließen, in Quelle nicht enthaltene Dateien auch im Ziel löschen lassen, differenzielles Backup...
|
V0LKER
Anmeldungsdatum: 23. Februar 2014
Beiträge: 1967
|
tomtomtom schrieb: V0LKER schrieb: CP käme dafür für mich nicht in Frage. Wer es einfach haben möchte Back In Time
Kommt eben auf die Definition von "einfach" an. GUI aufrufen, einstellen, was man sichern will und starten oder einfach einen Befehl im Terminal - ob nur cp, rsync whatever - eingeben. Je nachdem, wie man das für sich definiert.
Daher schrieb ich auch "für mich nicht in Frage"
|
V0LKER
Anmeldungsdatum: 23. Februar 2014
Beiträge: 1967
|
Beides hat seine Berechtigung nur mit cp würde ich nur einzelne Dateien kopieren. Kpl. Partitionen (dd ist mir da doch zu lahm), Backup etc führt mich zu rsync. Gruß
|
Xeno
Ehemalige
Anmeldungsdatum: 6. April 2005
Beiträge: 2554
|
cp ist halt sehr rudimentär. Trotzdem kann man damit "backupen". Wenn nur gerade cp verwendet wird (ohne Script), muss man aber wirklich an alles selber denken, z. B. schon nur an die Frage, wie man die Backups benennt, wann man was wieder löscht (endlicher Speicherplatz angenommen), usw. Möglich, aber nicht gerade komfortabel. Müssen grosse Datenmengen oft gebackupt werden, was heute auch bei Privaten Realität ist, ist cp langsam. rsync ermöglicht inkrementelle Backups, es wird nur gebackupt, was nötig ist (sich verändert hat). Das ist schon wesentlich komfortabler, selbst dann, wenn man keine weiteren Hilfen braucht. Wenn man sich ein Scriptchen gebastelt hat, kann man mit wenig Aufwand eine für Privatanwender sehr komfortable Backuplösung erstellen. Erweiterungen sind schier endlos möglich, von einfachen Optionen des Befehls bis zur Vollautomatisierung. Die Erwartungen an Ubuntu/Linux hinsichtlich Backup wurden für mich übererfüllt, weshalb ich in dem Fred hier streng genommen eh fehl am Platz bin. Schwächen hat dieses OS ganz woanders - definitiv aber nicht beim Thema Backup. Lg X.
|
Developer92
Anmeldungsdatum: 31. Dezember 2008
Beiträge: 4101
|
V0LKER schrieb: Beides hat seine Berechtigung nur mit cp würde ich nur einzelne Dateien kopieren. Kpl. Partitionen (dd ist mir da doch zu lahm), Backup etc führt mich zu rsync.
Da dd direkt auf die Festplatte zugreifen kann (und nicht den Umweg über Dateisystemtreiber gehen und auch nicht einzeln Dateien anlegen muss) erreicht man sogar höhere Übertragungswerte als mit Werkzeugen wie rsync oder cp. Inwiefern ist dd also zu lahm?
|
tomtomtom
Supporter
Anmeldungsdatum: 22. August 2008
Beiträge: 52312
|
Developer92 schrieb: Inwiefern ist dd also zu lahm?
Nun, wenn du eine 1TB-HDD sichern willst, die nur zu 10% gefüllt ist, dürfte das mit cp oder rsync wesentlichen schneller gehen als mit dd. *duck-und-weg*
|
V_for_Vortex
Anmeldungsdatum: 1. Februar 2007
Beiträge: 12084
|
Benno-007 schrieb: Es wird ohne -c nicht anhand Checksummen über alle Dateien entschieden, was neu ist, sondern über die Zeit und Größe. Die übertragene Datei wird dann aber trotzdem per Checksumme gecheckt, ob sie korrekt ankam.
Genau das meinte ich hiermit. Eventuell haben wir uns da falsch verstanden. ☺ Es ist allerdings auch etws ungünstig, dass der Transfer-Check mittels Checksumme in der Manpage von rsync nur unter der Option -c (unterscheidend) genannt wird, mit er er eben nichts zu tun hat. 🐸 edit: Developer92 schrieb: Da dd direkt auf die Festplatte zugreifen kann (und nicht den Umweg über Dateisystemtreiber gehen und auch nicht einzeln Dateien anlegen muss) erreicht man sogar höhere Übertragungswerte als mit Werkzeugen wie rsync oder cp. Inwiefern ist dd also zu lahm?
Kommt darauf an, wie voll die Partition ist, da dd rücksichtslos auch leere Blöcke kopiert. Ein Mittelweg ist fsarchiver, welches dateibasierte Images anlegt. Dafür ist es ebenfalls bei vollen Platten langsamer, weil es das jeweilige Dateisystem scannen muss (und bei vollen Platten danach keinen Geschwindigkeitsgewinn durch weniger kopierte Daten hat.)
|
JörnS
Anmeldungsdatum: 25. November 2010
Beiträge: 2107
|
Bei dem ganzen rsync-Gedöns hab ich Lust bekommen, eine Integration in PCManFM zu programmieren.... leider die nächsten Wochen zu wenig Zeit für.
|
V0LKER
Anmeldungsdatum: 23. Februar 2014
Beiträge: 1967
|
Developer92 schrieb: V0LKER schrieb: Beides hat seine Berechtigung nur mit cp würde ich nur einzelne Dateien kopieren. Kpl. Partitionen (dd ist mir da doch zu lahm), Backup etc führt mich zu rsync.
Da dd direkt auf die Festplatte zugreifen kann (und nicht den Umweg über Dateisystemtreiber gehen und auch nicht einzeln Dateien anlegen muss) erreicht man sogar höhere Übertragungswerte als mit Werkzeugen wie rsync oder cp. Inwiefern ist dd also zu lahm?
Ist bei mir halt so, wir reden da von Stunden für 150gb Platte auf USB-PLatte. Es führt aber hier zu weit da total OT. → Gruß @tomtomtom wirklich sehr "Lustig" lieg schon am Boden vor lachen. 😊 😊
|
V0LKER
Anmeldungsdatum: 23. Februar 2014
Beiträge: 1967
|
JörnS schrieb: Bei dem ganzen rsync-Gedöns hab ich Lust bekommen, eine Integration in PCManFM zu programmieren.... leider die nächsten Wochen zu wenig Zeit für.
Kannst das auch in dolphin machen. 😈
|
geissens
Anmeldungsdatum: 26. Juni 2013
Beiträge: Zähle...
|
chiefdexter schrieb: Eine kleine Bemerkung zur Datensicherung:
Ich benutze die integrierte Sicherungsmöglichkeit und sichere meine Daten (home- komplett) regelmäßig auf eine externe HDD (verschlüsselt). Keine der Sicherungen hat sich bis jetzt sauber zurückspielen lassen. Es kommt immer zu einen Abbruch.
Sprich irgendwas hat jetzt immer gefehlt. Das ist auch der Grund warum ich meine SSD noch nicht im Betrieb habe. Der Datenumzug ist schwieriger als gedacht...
Hallo lieber chiefdexter, Bei Unix, also auch bei Linux, gibt es den POSIX Grundsatz ; ein Programm - eine Aufgabe.
(wikipedia Unix Philosophie). Deine Beschwerde ist ein schönes Beispiel dafür, dass Programme die alles können, nix können! Warum machst Du es Dir so schwer? Ob es sinnvoll ist das gesamte Homeverzeichnis zu sichern? Ich weiss es nicht. Wenn Du ein Verzeichnis hast dass Du sichern möchtest,
dann $ tar cfv geheim.tar geheim danach $ gzip geheim.tar um es zu komprimieren.
Und wenn Du es noch sichern willst, dann $ gpg -c geheim.tar.gz und schon hast Du geheim.tar.gz.gpg ; also alles was Du wolltest. Jetzt schiebst Du es auf Deine HDD und kannst es dort auspacken. Mit $ gpg -d geheim.tar.gz.gpg > geheim.tar.gz - Dann Passwort eingeben. Dann $ gunzip geheim.tar.gz. Dann $ tar xfv geheim.tar Du hast keinen Bock auf Kommandozeile? Da bist Du nicht der einzige.
Aber warum ist Deine externe HDD komplett verschlüsselt?
Je anspruchsvoller die Aufgaben, umso grösser die Wahrscheinlichkeit, dass etwas schief geht. Ist halt meine unmassgebliche Meinung. viele Grüsse und schönes Wochenende
|
Frieder108
Anmeldungsdatum: 7. März 2010
Beiträge: 8780
|
sehr interessant - bitte mehr dazu geissens schrieb: Bei Unix, also auch bei Linux, gibt es den POSIX Grundsatz ; ein Programm - eine Aufgabe.
(wikipedia Unix Philosophie). Deine Beschwerde ist ein schönes Beispiel dafür, dass Programme die alles können, nix können! Warum machst Du es Dir so schwer? Ob es sinnvoll ist das gesamte Homeverzeichnis zu sichern? Ich weiss es nicht. Wenn Du ein Verzeichnis hast dass Du sichern möchtest,
dann $ tar cfv geheim.tar geheim danach $ gzip geheim.tar um es zu komprimieren.
Und wenn Du es noch sichern willst, dann $ gpg -c geheim.tar.gz und schon hast Du geheim.tar.gz.gpg ; also alles was Du wolltest. Jetzt schiebst Du es auf Deine HDD und kannst es dort auspacken. Mit $ gpg -d geheim.tar.gz.gpg > geheim.tar.gz - Dann Passwort eingeben. Dann $ gunzip geheim.tar.gz. Dann $ tar xfv geheim.tar
also wenn du dazu nen HowTo machen würdest, dann würde ich das minimum lesen und wahrscheinlich auch versuchen, nachzustellen ♥
viele Grüsse und schönes Wochenende
dir auch
|
lionlizard
Anmeldungsdatum: 20. September 2012
Beiträge: 6244
|
Was ist daran nicht HowTo? Frieder108 schrieb: dann $ tar cfv geheim.tar geheim
tar packt einen Ordner mit Unterverzeichnissen in eien Datei somit wird
tar cfv geheim.tar geheim den Ordner "geheim" im aktuellen Verzeichnis in die Datei geheim.tar packen.
danach $ gzip geheim.tar um es zu komprimieren.
gzip macht aus geheim.tar geheim.tar.gz - die komprimierte Version.
Und wenn Du es noch sichern willst, dann $ gpg -c geheim.tar.gz und schon hast Du geheim.tar.gz.gpg ;
pgp -c verschlüsselt eine Datei
Mit $ gpg -d geheim.tar.gz.gpg > geheim.tar.gz - Dann Passwort eingeben.
gpg -d entschlüsselt die Datei wieder, wenn du das Passwort weißt.
Dann $ gunzip geheim.tar.gz.
gunzip dekomprimiert die Datei wieder
Dann $ tar xfv geheim.tar
tar xfv stellt aus der Datei den Ordner wieder her
Wenn du mit dem krusader arbeitest, kannst du auch auf die geheim.tar.gz klicken, und sie wird (nach etwas Wartezeit) geöffnet, als wäre es ein Ordner, so dass du gezielt einzelne Dateien oder Unterordner wieder herstellen kannst. Ob das mit anderen Dateimanagern funktioniert, musst du selbst gucken.
|
Frieder108
Anmeldungsdatum: 7. März 2010
Beiträge: 8780
|
lionlizard schrieb: Was ist daran nicht HowTo?
ganz ganz ganz arg viel 😈 aus meiner Perspective gesehen sind es die fehlenden Codeblocks (ok, waren - du hast dich liebenswerterweise dessen angenommen) sowie die fehlende Möglichkeit, bei Bedarf auf irgend etwas verlinken zu können (ok, ausgenommen deiner "Kurzanleitung). enjoy the night ☺ Frieder
|
chiefdexter
(Themenstarter)
Anmeldungsdatum: 2. Juni 2008
Beiträge: 545
|
@geissens: Da es sich um (sieht zu min. so aus) um das für Ubuntu gedachte Backup- Programm handelt, war das meine erste Wahl. Ich bin so böse, dass ich erwarte das die von Haus aus angebotenen Funktionen auch funktionieren... 😉 Ich bin mit meinem Notebook quasi täglich Unterwegs. Das ist mein Arbeitsgerät. Es befinden daher auch alle Kundendaten darauf. Ich muss sicherstellen, das bei einem Verlust/ Diebstahl niemand (mit normalen Aufwand...) die Daten sehen kann. Wenn ich länger weg bin, habe ich natürlich auch die Sicherung mit. Ein Datenverlust wäre für mich ein Katastrophe. Von daher muss ich auch die Sicherung verschlüsseln. Da die Sicherungen ja bereits existieren, finde ich es schon ärgerlich, das die sich nicht mehr sauber einspielen lassen. Verschlüsselt oder nicht... 😉 Und natürlich versuche ich das ganze Homeverzeichniss zu kopieren. Erleichtert theoretisch den Neustart. Dachte ich zu min..
|