Home Computer Computertisp Site Map counter

Backups

Das Thema Backup gehört wohl zu den am meisten vernachlässigten Themen bei PC-Benutzern. Dabei war es noch nie so einfach und so billig ein Backup zu machen. Zeit mal das Thema anzupacken.

Was ist ein Backup?

Ein Backup ist erst mal die Sicherung von Daten. Je nachdem, welche Anforderungen man hat, kann das sehr viel oder sehr wenig sein. Extreme könnten sein: Eine Privatperson kopiert sich nur die wichtigsten Daten zur Sicherung regelmäßig auf einen USB-Stick und ein Rechenzentrum hat von jeder Festplatte nicht nur eines, sondern mehrere Backups auf verschiedenen Datenträgern. Dazwischen sollten sie einen Kompromiss finden der ihnen persönlich genügend Sicherheit gibt, und nicht zu viel Aufwand verursacht.

Ein Backup kann man nach mehreren Kriterien enteilen. Zwei wichtige Einteilungen nach Zweck und Art sind das Systembackup und das Dateibasierte Backup. Das erste sichert ein ganzes System, also das Betriebssystem, alle Programme und Dokumente, aber auch die Bootsektoren und andere Informationen, die man braucht um die Festplatte wieder zu restaurieren. Gerne wird auch der Ausdruck "Image" verwendet. Gespeichert wird meistens alles in einer einzigen großen Datei.

Der Gegensatz dazu ist das dateibasierte Backup. Hier werden einzelne Dateien gesichert und man kann die Sicherung mit dem Windows Explorer ansehen und auch einzelne Dateien zurückspiele. Das geht bei den meisten Images auch, doch kann man die Sicherung dort nicht so einfach wie ein Verzeichnis öffnen. Ein dateibasiertes Backup wird im Normalfall nicht die ganze Festplatte umfassen sondern nur die wichtigen persönlichen Daten wie erstellte Dokumente, geschossene Bilder, gemachte Videos.

Bei den Systembackups kann man noch zwischen einem inkrementellen und Vollbackup unterscheiden. Ein Vollbackup ist eine Sicherung der ganzen Festplatte (oder zumindest des belegten Teils), ein inkrementelles Backup enthält nur die Unterschiede zur letzten Sicherung. Typischerweise macht man in regelmäßigem Abstand ein Vollbackup und dann zwischen diesen Vollbackups nur inkrementelle Backups. Das hat mehrere Vorteile. Zum einen belegen die inkrementellen Backups weniger Platz als ein Vollbackup. Zum anderen erlauben sie es, nicht nur einen Stand zurückzusichern. Das hat den Vorteil, dass man bis zu einem bestimmten Datum alle Änderungen zurücknehmen kann. Nehmen wir an sie haben eine Datei aus versehen gelöscht, ein neues Vollbackup gemacht und das alte überschrieben, dann nützt ihnen das Backup auch nichts, weil sie keinen Stand mehr haben in dem die Datei gesichert wurde.

Inkrementelle Backups belegen aber mehr Speicher. Bei Dateien die in Bearbeitung sind, gibt es mehrere Sicherungsstände, es werden auch viele temporäre Dateien gesichert wie der Browsercache, daher macht man von Zeit zu Zeit wieder ein Vollbackup.

Ein anderes Prinzip ist das Vater-Sohn Prinzip. Man macht hier zwei Kopien. Die erste Backup ist der Vater, die nächste ist der Sohn. Die übernächste Sicherung ersetzt dann den Vater und die vierte Sicherung überschreibt den Sohn usw. Man hat also immer zwei Stände auf die man zurückgehen kann.

Warum brauche ich als Privatsystem ein Backup?

Jeder denkt bei einem Backup zuerst einmal an einen Festplattencrash. Der ist heute relativ unwahrscheinlich, da Festplatten im Kaufe der Zeit immer zuverlässiger geworden sind. Es gibt aber durchaus Gründe für ein Backup auch für Privatpersonen:

Wie mache ich ein Backup - die Hardwareseite

Die wichtigste Grundregel ist, dass eine Sicherung auf einem eigenen Medium zu erfolgen hat. Damit sichert man sich dagegen ab, das es einen Festplattenausfall gibt. Die früher genutzten Wechselmedien wie Streamer oder gebrannte CDs / DVD machen bei den heutigen Festplattengrößen keinen Sinn mehr oder sind sehr teuer.

Bei den heutigen Preisen sollte es kein Problem sein, in den PC eine zweite Festplatte einzubauen. Das kostet 50 bis 100 Euro. (Februar 2014: Eine 500 GB Platte etwa 50 Euro, 2000 GB sind für 80-90 Euro zu haben) eine interne Festplatte ist zum einen die billigste Möglichkeit, zum anderen ist sie schneller als eine USB-Platte. Sie ist in einen PC schnell eingebaut, einfach in den Steckplatz einstecken, Strom und SATA Stecker anstecken (sind beide verpolungssicher) mit kurzen Schrauben befestigen (Vorsicht wenn man die Schrauben zum PC mitbekommt, es gibt zwei Längen beim selben Durchmesser, die längeren sind für die Montage des Mainboards, es reicht wenn der PC nicht bewegt ist aber meist auch die Platte einfach in den Käfig einzuschieben, das Kabelgewirr verhindert meist, dass sie da rausrutschen kann). Wenn die Platte eingebaut ist, muss sie noch formatiert werden. Dazu geht man in der Systemsteuerung in die Computerverwaltung, wählt dort Datenspeicher und dort Datenträgerverwaltung. Die Festplatte erkennt man daran, dass sie noch keinen Laufwerksbuchstaben hat. Mit einem Rechtsklick auf die Platte kann man ihr einen Laufwerksbuchstaben geben oder sie Formatieren. Sie können auch mehrere Partitionen anlegen (bis zu 4) und so eine Platte in Teile mit eigenen Laufwerksbuchstaben unterteilen.

Wer ein Notebook hat bei dem das Einbauen nicht möglich ist kann eine USB Festplatte nutzen. Der Nachteil dieser ist, das man Backups in regelmäßigen Abständen macht. Ist die USB-Festplatte dann nicht angeschlossen, was bei einem Notebook schnell passiert, dann fällt das Backup aus. Bei einem Desktop Rechner bei dem die USB-Platten dauernd angesteckt sind, kann man auch eine USB-Platte nehmen. sinnigerweise eine USB 3.0 Platte, da USB 2.0 nur etwa ein Viertel der Geschwindigkeit einer Festplatte erreicht. USB Festplatten haben dagegen den Vorteil dass man sie nur anstecken muss, es ist kein Einbauen und kein Partitionieren/Formatieren nötig.

Eine Alternative zur USB Platte beim Notebook und spätestens wenn man mehr als einen PC/Notebook hat, ist ein NAS. Unter einem NAS versteht man einen Network Attached Storage. Das ist im einfachsten Fall eine Platte in einem Gehäuse wie eine USB-Platte mit einem ARM-Mikroprozessor und einem Minimallinux als Betriebssystem. Die günstigsten gibt es inklusive Platte schon für 150 Euro. Es können auch mehrere Platten (bis 16) mit einem Xeon Server unter dem Betriebssystem Windows Server sein. Dann erreicht man leicht Preisregionen von 1000 bis 2000 Euro, doch so was ist für Privatpersonen der reinste Overkill.  Für viele dürfte aber die einfache Lösung ausreichend sein. Ein NASA wird über ein Netzwerkkabel an den Router angeschlossen und läuft dann dauernd. Man kann es nutzen um Inhalte wie Mediendateien für viele Rechner verfügbar zu machen oder man kann eben Backups drauf ablegen. Die Administration erfolgt dann über einen Browser. Die billigen ARM basierenden Lösungen sind nicht leistungsfähig genug um die Platte mit voller Geschwindigkeit zu betreiben. Ihre Geschwindigkeit liegt dann etwas höher als USB 2.0. Die besseren Lösungen sind durch die Netzwerkschnittstelle begrenzt (bei Gigabit Ethernet maximal 100 MByte/s). Ein NAS hat auch eine eigene Redundanz. Die kleinsten haben zwei Festplatteneinschüben (2-Bay). Auch wenn man diese zu einer großen Festplatte zusammenfassen kann sollte man im Sinne der Redudanz sie als RAID 1, 5 oder 6 betreiben:

Ein Vorteil eines NAS ist das es woanders stehen kann, Warum das ein Vorteil ist? Wenn es im Haus brennt oder ein Einbrecher ihr teures Notebook mitgehen lässt dann wissen sie es zu schätzen wenn ein NAS im Keller in einer uneinsichtigen Ecke steht.

Ob man die Festplatte nur für Backups nutzen sollte, darüber streiten sich die Gemüter. Die Puristen sagen ja, damit schont man auch die Festplatte, die nicht dauernd läuft sondern normalerweise sich abschaltet wenn einige Minuten lang keine Aktion kommt. Meiner Meinung nach kann man wenn man genügend Speicherplatz hat, diesen auch für andere Dateien nutzen, auf die man verzichten kann z.B. übertragene Internetdateien, Videos etc. Es empfiehlt sich aber genügend Platz für ein Backup zu lassen. Entweder indem man nicht eine, sondern zwei Partitionen auf der Platte anlegt und nur eine für Backups nutzt: Richtwert: sie sollte mindestens doppelt so groß sein wie die zu sichernden Daten. Oder wenn man z.B. das Windows Bordmittel nimmt, das einen Prozentsatz der Platte beansprucht, dann muss man selbst drauf achten, dass genügend Platz frei ist.

Wenn es nur um die wichtigen Daten geht, also ein dateibasiertes Backup dann kann man sie in der Cloud abzulegen. Dafür gibt es Dienste wie Dropbox oder Programme wie Skydrive (OneDrive) und Google Drive. Sie synchronisieren einen Ordner mit dem Server und laufen im Hintergrund. Man muss sich nur angewöhnen die Dateien in diesem Ordner bzw. Subordner abzulegen. Meine persönliche Erfahrungen mit sehr vielen kleinen Dateien, wie sie beim Programmieren entstehen ist, dass sowohl Skydrive wie auch Google Drive dann beim Rechnerstart ewig lang hohe Prozessorlast verursachen und Google Drive bei mehr als 60.000 Dateien dann ganz die Segel streicht. Wer weniger Daten hat bzw. sie größer sind wie Bilder oder Videos, für den sind sie eher etwas. Sie sind aber nur eine Lösung für das dateibasierte Backup. Startet Windows nicht mehr so nützen einem diese dienste nichts. Sie sind auch mehr gedacht mehrere Geräte (PC's, Tabletts, Smartphones) zu synchronisieren also die Daten abzugleichen. Der Hauptnachteil ist die vergleichbar kleine Datenrate eines Online-Anschlusses. Selbst wenn diese bei 10 MBit/s liegt so sind dies nur 1,25 MByte/s. Selbst langsame USB-Sticks sind da um ein vielfaches langsamer.

Da die Dateien dann auf einem Fremdanbieter liegen bekommt die Datensicherheit einen neuen Stellenwert. Man sollte wenn man konsequent ist, alle Dateien verschlüsseln. Doch das wiederspricht dann dem Grundgedanken, dass ein Backup möglichst wenig Aufwand verursachen soll. Also für das Backup halte ich die Cloud noch für eine schlechte Lösung.

... und die Softwareseite

Man braucht natürlich immer noch ein Programm um ein Backup anzulegen. In Windows ist ab Version 7 eines eingebaut und nennt sich Windows Sicherung. Sie finden es wenn sich "Sich" in das Suchfeld eintippen oder in der Systemsteuerung unter Sichern und Wiederherstellen. Bei einer eingerichteten Sicherung sieht das dann so aus:

Wenn man die Sicherung einrichtet, kann man genau angeben was alles gesichert werden soll, wobei in dem Systemabbild sowieso Windows und alle Programme auf C: enthalten sind, man muss nur etwas hinzunehmen, wenn man noch andere Festplatten sichern. Die Sicherung legt sowohl Abbilder des Systems wie auch der persönlichen Dateien an. Man kann diese dann an dieser Stelle zurückspielen oder auch Sicherungen löschen.

Man gibt eine Festplatte an (genauer eine Partition), wobei diese nicht aktive Partition sein darf. Man braucht also eine zweite Festplatte (es ginge auch mit einer wenn man sie neu partitionieren würde, d.h. auf ihr zwei Partitionen mit zwei Laufwerksbuchstaben wie C: und D: anlegt, doch das ist nicht zu empfehlen. Von deren Platz wird die Sicherung maximal Ein Drittel des freien Speichers belegen. Danach werden alte Sicherungen gelöscht wenn es neue gibt.

Da es Situationen gibt, in denen man Windows nicht mehr starten kann, sollte man nachdem man die erste Sicherung veranlasst hat einen Systemreparaturdatenträger erstellen (dritte Option oben links). Dazu legt man einfach eine CD in den Brenner ein und darauf wird ein Minibetriebssystem abgelegt, dass die Sicherung zurückspielen kann, selbst wenn Windows nicht mehr startet. Man kann dies auch von einer Windows Setup DVD aus, wenn man die Reparaturkonsole bemüht, doch das ist nicht sehr intuitiv und viele die ein vorinstalliertes Windows haben, haben gar keine Windows Setup-CD mehr. Also ist es ratsam sich eine solche Reparatur CD anzulegen.

Man kann auf der Festplatte durchaus noch andere Daten ablegen. Bei mir sind es andere Sicherungen und vor allem Videos die zwar viel Speicher brauchen, aber auf die ich gerne verzichten kann. Das zeigt diese Abbildung:

Man legt dann noch den Zeitpunkt fest (hier wöchentlich) und das Backup startet automatisch zu diesem Zeitpunkt. Idealerweise nimmt man einen Zeitpunkt, bei dem der PC auch an ist. Bei einer zweiten internen Festplatte ist die Geschwindigkeit hoch, mir sind es rund 70 Gigabyte, die zu sichern sind und die brauchen etwa 30 Minuten, man kann daneben durchaus noch arbeiten und merkt meist nicht viel vom Backup.

Es gibt daneben noch zahlreiche käufliche oder freie Programme für Backups. Ich habe jahrelang True Image für diesen Zweck empfohlen, das auf meinem PC auch eine zweite Sicherung anlegt (doppelt hält besser), aber die Bewertungen sind für die letzten Ausgaben doch recht schlecht geworden. Ich selbst arbeite noch mit der Version 11 von 2007, die auch unter Windows 7 läuft.  Ich hatte mit meiner SSD- Norton Ghost erhalten, doch diese Software benötigte so viel Prozessorlast, dass ich sie nicht einsetze. Auch diese Programme bieten meistens an eine Boot-CD zu erstellen mit der man die Sicherung restaurieren kann. Eine solche Boot-CD sollte man auch vor dem Ernsthall mal booten um zu sehen ob sie läuft, denn da ist meist ein Mini-Linux drauf und das hat zumindest bei Acronis ab und an Probleme mit bestimmten PC-Konfigurationen und erkennt die Maus nicht. Wenn dann die externe USB-Platte oder das NAS nicht erkannt wird, dann kann man so die Sicherung nicht zurückspielen. Daher würde ich empfehlen auch bei einem externen Backuprogramm noch das Windows Backup parallel einzusetzen - doppelt gesichert hält besser.

Meine Erfahrung mit dem Windows Backup ist keine gute. Das Programm zog in Windows 7 ein. Es wird in den neueren Versionen noch unterstützt aber nicht mehr weiterentwickelt und als ich es einmal brauchte funktionierte die Wiederherstellung nicht. Das scheint kein Einzelfall zu sein, wie man Foren entnehmen kann. Dabei ist die Sicherung langsam und belegt viel Platz auf der zweiten Platte.

Wie man sieht ist ein Biskup nicht so schwierig einzurichten. Das hier gezeigte ist ein Systembackup mit eigenen Containerdateien. Bei Windows gibt es eigene Ordner auf dem Laufwerk die so heißen wie der gesicherte PC und auf die man nicht zugreifen kann, sondern nur die Sicherung.

Sofern ihre Backupsoftware es beherrscht, sollten sie eine Überprüfung der Daten nach dem Kopieren aktivieren. Das verdoppelt zwar die Zeit für ein Backup, da jede Datei zweimal gelesen werden muss, aber sie können so Übertragungsfehler erkennen. Die sind heute nicht selten. Eine Festplatte hat eine Fehlerrate von 1 Bit auf 1013 bis 1014 übertragene Bit. Das klingt nach viel, ist aber bei 1,2 bis 12 Terabyte erreicht. Also eine größere Platte einmal vollgeschrieben und statistisch ist ein Bit falsch übertragen worden. Darüber hinaus kann es zu Bitfehlern kommen, wenn die Daten in den Arbeitsspeicher geladen werden und bei der Übertragung. Ich habe schon bei kleineren Datenmengen (60 GByte) einen Bitfehler gehabt und die Wahrscheinlichkeit steigt an, wenn die Festplatte älter ist.

Um die Datenmenge zu reduzieren sollte man einige Dinge nicht kopieren. Das Ausschließen von Daten geht bei der Windows Sicherung genauso wenig wie der Vergleich, aber Microsoft muss ja noch anderen Firmen etwas Raum für ihre Produkte lassen. Man muss die Dateien pagefile.sys und hibernate.sys aus dem Verzeichnis C:\ nicht kopieren. darin stecken Auslagerungsdatei und der letzte Zustand des Arbeitsspeichers beim Ruhezustand. Sie sind in der Regel fast so groß wie ihr RAM, machen also bei einem 8 GByte RAM schon mal 16 - 24 Gigabyte aus.

Es ist nicht nötig die ganzen temporären Dateien zu kopieren. Sie werden im Ordner C:\Windows\temp abgelegt. Dasselbe gilt für die Browserdaten. Leider hat jeder Browser seinen eigenen Ordner und zwar einen pro Anwender. Wenn sie ein manuelles Backup machen so sollten sie vorher die Funktion "Datenträgerbereinigung" von Windows aufrufen mit der sie zumindest für den Internet Explorer den Cache löschen kann (plus weiterer temporärer Dateien). Bei anderen Browsern müssen sie das manuell in den Einstellungen machen. Browsercaches können durchaus einige Gigabyte an Daten beinhalten.

Dateibasiertes Backup

Es kann nützlich sein neben dem Backup des ganzen Systems ein dateibasiertes Backup zusätzlich zu erstellen. Bei den meisten Backuprogrammen ist es umständlich einzelne Dateien anzusehen. Manche bieten eine Explorerfunktion, doch man kann nicht die Werkzeuge einsetzen die man kennt. Wer SpeedCommander oder Totalcommander kennt wird deren Funktionalität nicht missen wollen. Weiterhin kann man ein dateibasiertes Backup leichter auf einen USB Stick kopieren oder sonst wie sichern und so seine Daten auch an einem anderen Computer bearbeiten oder auf ihn aufspielen. Bei einem dateibasierten Backup wird die Orderstruktur erhalten,.

Ein dateibasiertes Backup war unter dem guten alten DOS der Befehl Xcopy der Dateien und Ordner von einem Quellordner in einen Zielordner kopierte. ein gutes Backuprogramm kopiert natürlich nur die Dateien die neu sind oder sich verändert haben. Sie können so was selbst schreiben indem sie eine kleine Batchdatei schreiben in der z. B. steht:

Xcopy C:\Users\Ich\Documents\*.odt F:\Backup\documents

Xcopy C:\Users\Ich\Pictures\*.jpg F:\Backup\Bilder\

So ähnlich kann man das auch in einem der oben besprochenen "Norton Commander Clones" machen indem man links die Quellfenster und rechts die Zielfenster einstellt. Einfacher geht es wenn sie ein speziell dafür entwickeltes Programm nehmen wie z.B. Easybackup von mir. Das beherrscht auch das Backup in festgelegten Intervallen, läuft beim Start von Windows mit hoch und bietet Verify und Restore an.

Fazit

Es gibt nur drei wichtige Regeln für Backups:

Beachtet man die, dann klappt's auch mit dem Backup.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Impressum / Datenschutz Neues Hier werben / advertisment here Buchshop Bücher vom Autor Top 99