Wer zu spät kommt, den bestraft das Leben

Gerade habe ich ein Buch von Werner von Büdeler aus den 70 er Jahren über der Spacelab gelesen. Ich kaufe gerne alte Bücher bei Amazon Marketplace ein und versorge mich so vorwiegen mit alten Büchern über Weltraumfahrt. Es ist erstaunlich wie man noch 1976, als das Werk erschien und man schon seit Jahren kleinere Brötchen backen musste noch an eine glänzende Zukunft mit dem Space Shuttle glaubte. Die Reduktion der Transportkosten sollte eben auch eine Raumstation ermöglichen.

eine Raumstation ist teuer im Unterhalt. Der Schlüsselpunkt sind die Transportkosten. Die ISS braucht bei 6 Astronauten pro Jahr etwa einen Flug eines ATV und eines HTV mit Fracht und Treibstoff, zusammen mehr als 20 t. Dazu gibt es noch einige Progress Flüge. Noch teurer ist der Mannschaftstransport. Die russische Sojus ist hier leider kein Maßstab, denn ihr Startpreis ist nicht vergleichbar mit einem westlichen Start. Für den Start der Orion Kapsel wird man eine Trägerrakete mit 20 t Nutzlast einsetzen, die Ares I, so eine Rakete kostet für unbemannte Programme alleine 200 Millionen US-$. Die Kapsel für 6 Astronauten wird sicher erheblich teurer sein. Continue reading „Wer zu spät kommt, den bestraft das Leben“

Ein fundamentales Recht auf Waffen?

Wow, noch nie hatte ich ein Weblog so schnell abgeschlossen – das letzte in 3 Tagen einfach weil ich viel geschrieben habe. (Ein Weblog Artikel ist eine normale HTML Seite und wann eine neue fällig ist hängt nicht daran wann ich schreibe sondern ich mache eine neue auf wenn ich 30 KByte an Text zusammen habe, dass sind etwa 6-7 Seiten Text, wenn man es ausdruckt).

Nun ja heute wieder ein Thema das nix mit Raumfahrt zu tun hat (ja auch so was gibt es). Ich diskutiere seit einigen Wochen mit einem Bekannten in den USA über das Recht Waffen zu haben, das in den USA ein verfassungsmäßig garantiertes Recht ist. Nun gab es das Massaker in Virginia und dieses Thema kommt auch wieder in die öffentliche Diskussion.

steyr AUG-Z legal in den USANun Waffen sind nur Werkzeuge, das wird immer wieder betont. Nicht die Waffen töten, dass sind die Menschen die den Abzug drücken. Genauso gut, so wird argumentiert hätte man mit einem Messer ein Blutbad anrichten können oder mit einer Bombe. Nun ja da hat derjenige Recht, aber er hat etwas vergessen: Es ist weitaus schwieriger mit einem Messer 30 Menschen umzubringen. Zum einen physisch (man gelangt auch in Gefahr leicht überwältigt zu werden) und physiologisch. Es ist eine Sache mal kurz einen Bügel durchzuziehen und eine andere jemand der einem auf Armeslänge nahe ist ein Messer in die Brust zu stoßen, mit dem Widerstand der Weichteile, der Knochen, dem herausspritzenden Blut und dem Gesichtsausdruck des Opfers (und meistens reicht ein Stoß auch nicht). Zu Bomben ist zu sagen, dass ich denke dass man selbst in den USA nicht einfach so Sprengstoff erwerben kann wie dies auch bei uns verboten ist. Continue reading „Ein fundamentales Recht auf Waffen?“

Zukunftsprognosen

Seit etwa 2 Jahren bestelle ich beim Amazon Marketplace alte Bücher aus meinem Lieblings Themengebiet Raumfahrt. Zum einen findet man so interessantes Material gut aufbereitet für wenig Geld. Zum anderen kann man vieles aus der Retroperspektive anders beurteilen. Nimmt man Bücher vor 1970, so ist da von einer bald aufzubauenden Weltraumstation für 12 Personen die Rede, gefolgt von einer bemannten Mars Expedition zwischen 1981 und 1986. Ab 1970 war klar dass man kleinere Brötchen backen musste, aber man erhoffte sich eine Revolution des Transports durch den Space Shuttle. Weltraumfahrt sollte völlig anders werden – Die Industrie sollte Spacelab Flüge buchen um Experimente durchzuführen, Satelliten werden routinemäßig im Orbit repariert, ja selbst die Herstellung von Produkten im Weltraum wäre teilweise wirtschaftlich. (So abwegig ist dies nicht. Ein Mikroprozessor ist zum Beispiel erheblich wertvoller als Gold. Ein Die hat 100 mm² Fläche und 0.1-0.2 mm Dicke – Das ist ein Gewicht deutlich unter 1 g, dafür kostet so ein Prozessor in einem Keramikgehäuse 50-500 Euro im Verkauf….).

Manche Autoren lernen langsam hinzu. Am besten wohl verfolgbar bei Jesco von Puttkamer. Seit 1968 schreibt er Bücher über die Raumfahrt, seit er 1973 zuständig ist für die Untersuchung von zukünftigen Technologien und Anwendungen haben seine Bücher immer auch einen Ausblick in die Zukunft. 1981 prognostizierte er noch Solarkraftwerke im Weltraum, Kommunikationssatelliten mit Antennen von 65 m Durchmesser und Atommüllentsorgung in eine Sonnenumlaufbahn. Im letzten Buch findet man davon recht wenig. Zu oft lag er falsch. Nicht weil es nicht umsetzbar gewesen wäre, sondern weil es zu teurer gewesen wäre oder sich der Markt anders entwickelt hat. Anstatt mit einem satellitengestützten System mit den 65 m Antennen zur Versorgung von Ländern mit direkten Telefongesprächen von einem Mobiltelefon über Satellit zu einem anderen (wegen der geringen Sendeleistung war die große Antenne notwendig) nutzt man heute tausende von festen Stationen mit geringer Reichweite am Boden.

Ähnliches findet man auch wenn man Bücher vom Ende der 60 er Jahre liest wie „Unsere Welt – Morgen“ oder ähnliches oder Reportagen aus dieser Zeit sieht. Da wird unsere Welt erheblich mobiler dargstellt as sie ist. Magnetschwebebahnen transportieren Menschen mit unglaublichen Geschwindigkeiten. Autobahnen gibt es auf Hochtrassen durch die Städte. Menschen leben auf dem Meeresboden und haben die Wüste fruchtbar gemacht. Im Haushalt funktioniert alles automatisch, aber vorwiegend über Mechanik und einfache Elektrische Schaltungen. Dafür gibt es so etwas wie Telekonferenzen zur Unterhaltung.

Einen PC mit Internetanschluss findet man nicht in solchen Zukunftsszenarien. Warum? Der Mensch kann nicht wissen was kommen wird. Das ist klar. Er kann nur versuchen was heute vorhanden ist in die Zukunft weiter zu spinnen. Trotzdem kommt man dabei zu solchen Fehlschlüssen. Warum? Nun man hat Dinge übersehen wie die Energiekrise die das Fahren und Energie allgemein deutlich verteuerte. Man nahm an dass das Verkehrsaufkommen so anwachsen würde wie bisher und man daher auf neue Verkehrsmittel und Trassen setzt. Doch das war nicht der Fall und es wäre nicht finanzierbar.

Vor allem denken wir linear. Wir denken eine Technologie entwickelt sich gleichmäßig weiter. Doch meiner Erfahrung nach ist dies nicht so. Es gibt meist eine Phase in der es sehr rapide Fortschritte gibt und dann werden diese immer kleiner – etwa wie bei einer Logarithmusfunktion oder einer um 90 Grad gedrehten Parabel. Nehmen wir das Fernsehen: Zuerst gab es Schwarz Weiß für wenige, dann wurde es für alle bezahlbar, dann Farbe, dann wurden Farbfernseher billiger und jetzt haben wir einen ähnlichen Effekt bei TFT Fernsehern mit HD Auflösung. Aber es ist immer noch der Bildschirm. Weder ein 3D Fernsehen, noch interaktives Fernsehen gab es noch den Fernseher denn man sich an die Wand hängte oder den Projektor im Wohnzimmer, denn man schon 1980 postulierte.

Selbst für die Computer gilt dies. Hier ein paar Eckdaten

  • 1971: Der Mikroprozessor wird erfunden
  • 1975: Der erste „PC“ erscheint: Vom Anwender in Maschinensprache programmiert, Eingabe über Kippschalter, Ausgabe über LEDs
  • 1977: Die ersten PC mit Monitor, Tastatur, Diskettenlaufwerken erscheinen. Programmieren kann man nun in BASIC
  • 1979/80: Die Anwendungsprogramme die man auch heute einsetzt erscheinen: Textverarbeitung, Datenbanken, Tabellenkalkulationen
  • 1981: Geburt des IBM Kompatiblen PC. Der PC wird nun hoffähig auch für Firmen
  • 1982: Erster PC mit einer grafischen Benutzeroberfläche (Apples Lisa) erscheint, aber noch unbezahlbar im Preis
  • 1984: Der Macintosh, der erste PC für jeden mit einer grafischen Oberfläche erscheint.

Und seitdem? Seien wir mal ehrlich. Windows Vista ist schicker als Mac OS 1.0 vor 23 Jahren, aber es ist nichts fundamental neues. Das einzige was neu ist, ist das man heute mit dem PC im Internet surft. Auch dieses wuchs zuerst sehr rasch. Neue Technologien gaben sich in den ersten Jahren die klinke in die Hand und in den letzten  Jahren gab es davon eher wenige. Auch ich kenne einige Vorhersagen aus den frühen 80 ern die bis heute nicht eingetroffen sind. Damals glaubte man tatsächlich irgendwann wären Computer so intelligent dass man mit ihnen umgangssprachlich verkehren könnte.

Persönliche Computer findet man übrigens nur selten in irgendwelchen Vorhersagen vom Ende der 60 er. Arbeitserleichterungen geschehen elektrisch und elektronisch, aber nicht durch Computer. Auch TV Konferenzen erfolgen analog. Dabei gab es zu dieser Zeit schon 20 Jahre lang Computer, setzten Firmen diese ein. Warum? Niemand konnte sich vorstellen, dass diese einmal so klein und preiswert werden würden wie sie es heute sind – Ebenfalls lineares Denken, nur im umgekehrten Sinn: Computer waren immer groß und teurer, also werden sie das auch in Zukunft sein.

Es gibt neben den meist optimistischen Vorraussagen auch pessimistische. Nach der ersten Energiekrise postulierte man einen völlig neuen Umgang mit Energie – Mehr atomkraft, erneuerbare Energie, sparsame, sehr leicht gebaute und langsame Autos, viel mehr öffentlicher Verkehr mit Zug und Bus. Damals ging man von 30-40 Jahren aus in denen die Erdöl und Erdgasvorräte erschöpft sein würden. Das ist nicht passiert. Zum einen entdeckte man mehr. Zum anderen fördern wir heute fossile Brennstoffe aus Vorkommen die man vor 30 Jahren für unwirtschaftlich hielt wie Ölschiefer und Ölsand oder aus Lagern in großer Meerestiefe. Schade, denn wenn man sich früher an Ersatz gemacht hätte, dann wäre man heute sicher nicht so abhängig vom Öl.

Shuttle Oberstufen – Fehler im System

Das Shuttle heißt im Nasa Jargon offiziell „Space Transporting System“. Und das „System“ verrät schon. Es ist etwas mehr als nur der Orbiter. Damit ist natürlich das Gesamtsystem bestehend aus Orbiter, zwei Feststoffraketen und externem Tank gemeint. Jedoch machte sich die NASA auch von Anfang an Gedanken über den Einsatz des Shuttles und dazu notwendigen Erweiterungen. Eines war das Spacelab, wodurch man erst Forschung mit dem Orbiter durchführen konnte. Es wurde von er ESA entwickelt. Eine zweite Sache war der Satellitentransport und die Reparatur.

Man ging anfangs davon aus, dass der Space Shuttle wirklich preiswert im Vergleich zu herkömmlichen Trägerraketen sein würde. Er hat nur ein Manko: Die Nutzlast nimmt enorm schnell ab. Will man anstatt 200 km Höhe eine 600 km hohe Bahn erreichen so ist sie nur noch halb so groß. Genauso, wenn man anstatt einer 28.8 Grad geneigten bahn eine Polarbahn erreichen will. Nun gehen aber die meisten zivilen Satelliten in höhere Bahnen. Wetter- und Erderkundungssatelliten in 700-1300 km hohe Bahnen. Geostationäre Satelliten die schon bei der Entwicklung des Space Shuttles das Groß der Starts ausmachten sogar 36000 km Höhe. Diese Höhe konnte ein Space Shuttle nie erreichen.

Die einfachste Lösung wäre es eine vorhandene Oberstufe wie die Centaur zu nehmen und damit Satelliten zu befördern. Doch eine Centaur ist teuer, gemessen an dem ursprünglichen Kostenrahmen genauso teuer wie der Start eines Space Shuttles selbst. So kam man in den 70 er Jahren auf die Idee des „Space Tugs“. Eine Oberstufe die zwischen den Bahnen pendelt und Satelliten aussetzt, zur Reparatur abholt oder wieder zurückbringt. Zwischen den Flügen muss man sie im Orbit auftanken. Leider habe ich nichts mehr über die genaue technische Auslegung des Space Tugs gefunden. Er sollte aber nicht billig werden: 636 Millionen US-$ sollte die Entwicklung kosten und 500 Millionen US-$ jedes weitere Exemplar. Zum Vergleich: Die damals parallel zum Space Shuttle entwickelte Ariane 1 kostete etwa 900 Millionen US-$ an Entwicklungskosten und die Herstellungskosten für jedes Exemplar lagen bei etwa 47 Millionen US-$.

Wahrscheinlich war der Space Tug nur gedacht für erdnahe Bahnen und arbeitete mit lagerfähigen Treibstoffen. Später gab es den Ersatz Teleoperator Retrivial System das nur etwa 30 Millionen USD kosten sollte und mit einer Reihe von auswechselbaren Hydrazintanks arbeitete. Ein Space Shuttle sollte leere Tanks dann durch neue ersetzen. Wichtigster Einsatz dessen war die Rettung von Skylab. Verzögerungen in der Entwicklung des Space Shuttles, Kostenüberschreitungen bei der Entwicklung und die sich der beschleunigende Absturz von Skylab verhinderten eine Umsetzung des Konzepts.

Ich möchte einmal ausrechnen ob sich der Transport auch in die geostationäre Bahn lohnt. Ausgangsbasis dafür ist die Centaur Oberstufe der Delta IV. Sie verfügt über das Triebwerk RL-10B2, das leistungsfähigste das heute im Einsatz ist und sie ist so isoliert, dass auch ein Betrieb nach mehreren Stunden möglich ist

  • Triebwerk 1 × RL-10B2
  • Schub: 110 kN
  • Brennzeit: 850 sec.
  • Spezifischer Impuls: 4516 m/s (Vakuum)
  • Vollmasse: 24170 kg
  • Leermasse: 2850 kg

Rechnen wir noch 200 kg für ein Kopplungssystem / Radar / Kameras dazu, so erhalten wir eine Startmasse von 24370 kg und eine Leermasse von 3050 kg. Beim Transport mit dem Space Shuttle kann man so noch eine Nutzlast von maximal 5000 kg transportieren (maximale Startmasse 29500 kg) und wenn man die Stufe auftanken muss so muss man 21320 kg an Treibstoff mitführen. Die Tanks dafür wiegen etwa 840 kg.

Um in einen geostationären Orbit von einer 200 km hohen Kreisbahn von 28.8 Grad Neigung zu kommen braucht man etwa 4250 m/s an Antriebsvermögen (2450 m/s um die Bahn von einer 200 km Kreisbahn in eine 200 x 36000 km Bahn umzuwandeln und 1800 m/s um dise durch eine zweite Zündung in 36000 km Höhe in eine Kreisbahn umzuwandeln und die Inklination von 28.8 Grad abzubauen).

Fall 1 : Abholen eines Satelliten

Startmasse: 24370 kg
im geostationäre Orbit: 9509 kg
Satellit: 1080 kg
im 200 km Orbit: 4131 kg

Fall 2: Transport eines Satelliten

Startmasse: 25550 kg
im geostationäre Orbit: 9969 kg
Satellit: 1080 kg
im 200 km Orbit: 3050 kg

Ein Satellit von 1080 kg Gewicht entspricht etwa einer Startmasse von 2100-2150 kg in den geostationären Übergangorbit, also in etwa dem was eine damals übliche Version der Atlas Centaur transportierte. Bedenkt man, dass der Space Shuttle in einen erdnahen Orbit die 5 fache Nutzlast einer Atlas Centaur transportiert, so sieht man hier schon die Crux: Man verbraucht so viel Treibstoff dass der Preisvorteil weitgehend zunichte ist. Leichte Steigerungen im Shuttle Startpreis und die kosten für die Stufe und es bleibt nichts übrig.

Das war der Grund warum wohl dieses Konzept des Space Tugs nie umgesetzt wurde. Was tat man stattdessen? Man behalf sich mit schnellen Lösungen. Da die meisten kommerziellen Satelliten einen integrierten Antrieb hatten um das zweite Manöver (die Anhebung der Bahn) durchzuführen – schon alleine weil man sie ja auch auf einer anderen Rakete starten musste entwickelte man zwei Feststoffoberstufen um den ersten Teil durchzuführen. Dies war die PAM-D (Payload Assistent Module Delta Class) und die PAM-A (Payload Assistant Module Atlas Class) welche genau die Größe hatten um eine Nutzlast der Delta 3914 und Atlas-Centaur zu starten. Das zweite Modul wurde dabei nie eingesetzt. Für größere Nutzlasten oder höhere Geschwindigkeiten entwickelte man eine modifizierte Version der Centaur D. Schaut man bei obiger Tabelle genauer nach, so sieht es für die hinreise gar nicht mal so schlecht aus: Von 25.7 t landen noch 10 t im geostationären Orbit. Davon entfallen nur 3 t auf die Stufe, so dass man netto nur für den Hinweg 7 t Nutzlast transportieren könnte. Dies ist auch in etwa die Nutzlast der Centaur G gewesen, die man für den Space Shuttle entwickelt hatte.

Sicherheitsaspekte nach dem Verlust der Challenger führten dazu, dass es nie zu einem Flug dieser Stufe kam. Die Air Force setzte eine eigene Oberstufe, die IUS ein, welche kompatibel zur Titan war, so dass man unabhängiger war. Diese Kombination brachte aber nur 2270 kg in den geostationären Orbit.

Damit war der Transport von Satelliten mit dem Space Shuttle an und für sich eine unattraktive Sache. Maximal 3 Delta Nutzlasten oder eine Nutzlast in der Titanklasse konnte er transportieren. So verschenkte man Zwei Drittel bis die Hälfte der Nutzlast und dies bei einem Startpreis der schon vor Challenger nicht deckend war und künstlich abgesenkt wurde um mit Ariane konkurrieren zu können.

So verwundert es nicht, dass selbst die NASA nach dem Verlust der Challenger Trägerraketen orderte. Anstatt die TDRSS Satelliten weiterhin mit dem Space Shuttle zu starten machte man dies nun mit Atlas Centaur Raketen. Kommerzielle Flüge waren sowieso verboten und das Militär sprang wegen des öffentlichen Interesses und der Unzuverlässigkeit im Zeitplan ab.

Ohne adaquate Oberstufen war das Shuttle System einfach unwirtschaftlich. Was blieb waren Spacelab Flüge, Missionen zur Mir die vor allem publizistisch nutzbar waren und später der Aufbau der Raumstation ISS. Letztere sicherte ab Mitte der 90 er Jahre das Überleben des Space Shuttles. Anders ausgedrückt: Man legte die Station so aus, dass sie vorwiegend mit dem Space Shuttle gebaut wurde. Das muss nicht so sein. Die russischen Module werden mit einer Proton Rakete gestartet und können selbstständig ankoppeln. Europa hat den ATV entwickelt der das auch kann, Japan den analogen HTV. Zumindest die Teile die man nur ankoppeln muss, also keine Montagearbeiten erfordern hätte man mit Raketen starten können.13 Module stehen unter Druck und werden in 12 Flügen gestartet. Diese wären auch mit Raketen startbar gewesen.

Damit rettete die NASA das Space Shuttle in das nächste Jahrtausend. Doch dafür war die ISS auf Gedeih und Verderb an das Space Shuttle gebunden. Als die Columbia beim Wiedereintritt verglühte fehlte nicht nur ein Space Shuttle sondern auch der Ausbau der ISS geriet ins Stocken. Fast hätte man sie ganz aufgegeben. Doch zum einen gab es internationale Verträge in denen man die Fertigstellung zusagte und zum anderen wäre das wohl eine nationale Bankrotterklärung gewesen. So fliegt das Space Shuttle weiter – bis die ISS fertig ist. Was dann mit ihr geschieht? Bislang gibt es dafür noch keine Pläne….

Verschiedenes

Heute mal keinen Eintrag zu einem bestimmten Thema, sondern einfach ein paar Dinge die so aufgelaufen sind mal zusammengetragen. Fangen wir am mit dem Thema Raumfahrt: Wir berichtet hatte die Zenit einen Fehlstart im Januar. Nun gibt es einen neuen Starttermin. Wahrscheinlich im Oktober soll es wieder weitergehen. Noch immer gibt es keine offizielle Verlautbarung vom Vermarkter Sealaunch über die Ursache des Fehlstarts. Der russische Hersteller der ersten Stufe ist da etwas auskunftsfreudiger. Es oll eine "Kontamination" in dem Triebwerk gewesen sein, welches zum Abschalten nach dem Start mit der Rückfallen auf die Startplattform und der Explosion führte.

Die umgebaute Ölplattform hat es recht gut überstanden. Lediglich ein 250 t schwerer Flammenablenker muss ausgetauscht werden. Trotzdem kehren Sealaunch nun Kunden den Rücken. Nach SES Americom schon im Februar ihren AMC-21 Satelliten auf eine Ariane 5 umgebucht hat folgte nun HNS mit dem Spaceway 3. Weiterhin verlor man Kunden für die Landlaunch Version: Eine Sealaunch die von Baikonur aus gestartet werden sollte – Sie transportiert dort deutlich weniger Nutzlast, dafür ist die Vorbereitung einfacher und kostengünstiger. Da der Kunde nicht nach Gewicht sondern einen Fixpreis zahlt sollte dies für kleinere Satelliten die günstigere Möglichkeit sein. Intelsat hat 2 Starts von getrennten Landlaunch Flügen auf einen gemeinsamen an einer Ariane 5 umgebucht.

Arianespace profitiert davon. Zum einen kann man kurzfristig die Startrate von 5 auf 6 pro Jahr erhöhen. Zum anderen gibt es Verschiebungen bei dem Ausbau der ISS welche den Start des ersten ATV weiter verschieben – mindestens auf Oktober anstatt wie vorgesehen im Mai. Dadurch bekommen Kunden die nun in Bedrängnis sind eher einen Startplatz.

Das zweite ist der rapide sinkende Preis von Flash Speicher. Eine 1 GB SD Karte kann man heute bei Conrad schon für 5 Euro kaufen – RAM kostet 10 mal so viel. Passend dazu habe ich einen Bericht über ein Sub-Mini Notebook (Sony Vaio VGN-UX1XN) gelesen, dass nur mit 32 GB Flashspeicher als Massenspeicher daher kommt. Das Notebook selber soll nach dem Testbericht mehr ein teures Spielzeug sein, aber die Idee ist doch bestechend. Zwar kann man noch nicht die Preise von Festplatten erreichen (für 100 Euro bekäme ich 20 GB Flash Speicher oder eine 100 GB 2.5" Festplatte). Aber dafür kann man durch Parallelschaltung enorme Geschwindigkeiten ereichen und das ohne Zeitverzögerung beim Zugriff. Schon am Start sind Festplatten mit Flashspeicher um Daten abzupuffern. In Zukunft könnte man einige GB auf dem Mainboard einbauen und dort das Betriebssystem vor dem Herunterfahren ablegen und es später schnell booten – Dann könnte man auch den PC dafür komplette vom Netz trennen. (Haben sie auch einen solchen, der immer noch im ausgeschalteten Zustand nicht ganz aus ist? Meiner versorgt zumindest die USB Ports und PS/2 Ports weiter mit Strom, wie ich an der leuchtenden Maus und dem USB Hub sehe.

Eine externe USB Flashdisk "Festplatte" wäre denke ich auch nicht uninteressant. Für mich als Backupmedium. Ich nehme dazu heute eine Festplatte. Doch Festplatten leben nicht ewig und sie bekommen leicht mechanische Defekte (von den Auswirkungen die springende Katzen auf dem Schreibtisch haben können mal ganz abgesehen). Daher habe ich heute die Daten zweimal – einmal auf der internen und einmal auf der externen Festplatte. Für die richtig wichtigen Daten (also gute Digitalfotos, Dokumente etc) reicht dann auch ein kleineres Flash Laufwerk, dass aber dann eben wirklich robust und unverwüstlich ist.

Da sind wir beim nächsten Thema Backup: Jeder weis er sollte es machen, keiner tut es. Dabei gibt es sogar ganz pfiffige Lösungen. Die ct hat das Script Rsync geschrieben. Das erstellte inkrementelle Backups an einen vorgegebenen Platz. Damit ist man auch vor eigenen Fehlern wie dem Überschreiben von Daten sicher. Wenn nur den letzten Stand haben möchte geht auch eine Batchdatei à la:

md J:\backup xcopy %HOMEPATH%\Eigene Dateien J:\backup /S /Q /Y

Das in eine Datei namens backup.bat schreiben und der Ordner "Eigene Dateien" wo normalerweise die meisten Programm vorschlagen die Daten abzulegen wird mit allen Unterordnern auf das Verzeichnis J:\backup kopiert.

Nun muss man nur noch dafür Sorge dass es laufend ausgeführt wird. Am besten ist es die Batchdatei oder rsync am Beenden auszuführen. Dazu gibt es bei Windows XP Professionell eine einfach Lösung: In Start -> Ausführen -> gpedit.msc -> [Enter] -> Gruppenrichtlinie -> Computerconfiguration -> Windows-Einstellungen -> Scripts (Starten/Herunterfahren) -> Herunterfahren gehen und das Skript dort hinzufügen.

Wer eine andere Windows Version hat und damit leben kann, das es beim Start passiert, der kann auch im Autostartordner einen Link anlegen. Dann wird es eben beim Start ausgeführt. Das ganze geht ohne Backupsoftware und man kann die Dateien einfach durch Kopieren wieder restaurieren und ohne spezielle Software auch lesen. (Wer einmal nicht mehr lesbare Bänder oder Medien hatte, weil die Software für das Backup nicht mehr unter einem neuen Betriebssystem oder Rechner lief, der weis warum ich darauf großen Wert lege.).

Interessiert an weiteren kleinen Tipps hier in diesem Blog? Dann mal eine Mail oder einen Eintrag ins Gästebuch.