50 Jahre Raumfahrt: Die Erforschung des Monds

Bei keinem anderen Gebiet sieht man den „Wettlauf im All“ so sehr wie bei der Erforschung des Mondes. Schon ein Jahr nach Sputnik gab es die ersten Versuche den Mond zu erreichen. Dabei ging es nur um einen nahen Vorbeiflug bzw. im Falle der Sowjetunion um einen Aufschlag. Ein Jahr nach dem ersten Satelliten waren Trägerraketen noch sehr unausgereift, die Genauigkeit gering. So verwundert es nicht das sowohl USA wie auch die UdSSR einige Anläufe brauchten um dieses Ziel zu erreichen. Die USA versuchten sich dann an einem kleinen Mondorbiter, den Pioneer P Sonden, doch alle Versuche eine zu starten schlugen fehl. Die UdSSR konzentrierte sich zuerst auf eine Umfliegung der Mondrückseite und die Gewinnung von Bildern dieser, die von der Erde aus nicht einsehbar ist. Als dies gelang mit Luna 3 war es eine Sensation, obwohl die Bilder selbst nach damaligen Maßstäben recht schlecht waren. Danach folgte sofort eine Landung, die jedoch erst nach vielen Fehlversuchen mit Luna 9 gelang.

Die USA hatten zu diesem Zeitpunkt schon das Mondlandeprogramm Apollo beschlossen und so wurden unbemannte Projekte als Vorbereitungsmissionen ausgelegt. Das erste war das Ranger Projekt. Ranger sollte zuerst beim Aufschlag Bilder zur Erde übermitteln und dann eine Meßkapsel auf der Oberfläche aussetzen. Man erwartete durch besondere Isolierung, dass sie den harten Aufschlag überleben würde. Doch die Sonden erwiesen sich als äußertst komplex, es gab Fehler im Management und zum Überfluss versagten auch die Trägerraketen. Kurzum: Die ersten 5 Ranger Sonden waren allesamt Versager. Danach wurde das Programm total umgekrempelt und nun sollten nur noch Videoaufnahmen vor dem Aufschlag gemacht werden, was nach einem weiteren Versager mit den drei letzten Ranger Sonden auch gelang.

Danach folgte das Projekt Lunar Orbiter. 5 Orbiter sollten vordringlichst potentielle Apollo Landegebiete aus dem Orbit fotografieren. Als „Nebenprodukt“ fertigten sie auch eine topographische Karte des Mondes in geringerer Auflösung an. Lunar Orbiter war sehr erfolgreich. Die 5 Orbiter übermittelten Fotos von hervorragender Qualität und entdeckten erstmals die Störungen des Gravitationsfeldes unter den Maren. Auch hier zog die UdSSR mit Luna 10 vor, allerdings gab es kein Programm für Mondorbiter, stattdessen rüstete man nur das Busmodul der Landesonden mit Experimenten für den Orbit aus. Wie die Landesonden war der Orbiter batteriebetrieben, so das er nur einige Wochen im Orbit arbeiten konnte.

Das Gegenstück zu den Luna 4-9 Landesonden war auf US Seite die Surveyor Sonden Reihe. Von 7 gestarteten landeten auch 5. Sie übermittelten nicht nur Aufnahmen der Mondoberfläche, sondern überlebten obwohl ohne Stromversorgung und Heizung die kalte Mondnacht, was man nicht erwartet hatte. Danach kannte man wesentliche Parameter des Mondbodens und wusste, das Apollo sicher landen konnten.

Die UdSSR verfolgte zu dieser Zeit drei Programme. Zum einen eine bemannte Mondumrundung mit einem umgebauten Sojus Raumschiff, gestartet von einer Proton. Dieses wurde unbemannt unter dem Namen Zond getestet wobei man auch Schildkröten zum Mond schickte und Farbaufnahmen beim Vorbeiflug gewann. Um einer bemannten Mondumrundung der Sowjets vorzukommen strich man bei der NASA sogar einen Erdorbittest und startete mit Apollo 8 direkt zum Mond. Allerdings erreichte die Kapsel nie die Zuverlässigkeit die für eine bemannte Mission notwendig war, so dass man das Programm nach der Mondlandung von Apollo 11 einstellte.

Das zweite war eine Mondlandung wie bei Apollo. Jedoch versagte die dafür notwendige Trägerrakete N-1 „Herkules“ bei allen Testflügen. Das letzte war eine „Absicherung“ gegen diese Versager: Eine unbemannte Bodenprobenentnahme durch automatisierte Sonden. Einige davon scheiterten. Doch 3 Sonden brachten knapp ein Pfund Mondgestein zur Erde. Auch hier nutzte man die schon entwickelte Hardware später für Mondorbiter und die Landung von zwei Lunochods – Fahrzeugen die von er Erde aus über den Mond gesteuert wurden und bis zu 37 km zurücklegten. Insgesamt war dieses späte Luna Programm so erfolgreich, dass die Sowjets schlichtweg behaupteten, sie hätten nie die Absicht gehabt bemannt zum Mond zu fliegen und ihr Programm hätte mit wesentlich geringerem Materialeinsatz mehr Resultate gebracht.

In der Tat besteht die Hauptausbeute von Apollo heute in den über 380 kg, meist von kundiger Hand ausgesuchten Bodenproben. Die Wissenschaft musste hinten anstehen. Die Astronauten bauten noch Stationen auf, welche bis 1977 Daten über den Mondboden, Erdbeeben oder die Sonnenaktivität zur Erde sandten. Die letzten Missionen setzten auch Instrumente in dem Kommandomodul wie Stereokameras oder ein Gammastrahlenspektrometer. Auch stieg die Reichweite durch mehr Vorräte in den Landekapseln und Mondautos an.

Doch mit dem Start der letzten Apollomission 1972 und der letzten Luna Sonde 1976 war der Mond abgehakt. Die nächsten 25 Jahre erhielt er nur einmal Besuch von dem experimentellen Mondorbiter Hiten. Der Grund: In den USA verschlang zuerst das Shuttle fast den ganzen NASA Haushalt, erst für die Entwicklung, dann für den Betrieb, zudem änderten sich die Prioritäten der Regierung und unter Reagan sank das NASA Budget. Gleichzeitig erschienen Missionen zu den Planeten interessanter zu sein. Erst mit der Spekulation ob es Wasser auf dem Mond gäbe und man vielleicht dann dort eine größere Mondbasis betrieben könnte wurde er in den 90 er Jahren wieder interessanter.

Danach setzte eine Rückbesinnung auf den Mond ein. Den Anfang machte 1999 Lunar Prospektor, die nach Wasser auf dem Mond suchte. Ihm folgte 2003 die europäische Technologiesonde SMART-1. In den nächsten Jahren werden einige Raumsonden folgen. China, Japan und Indien planen Starts von Raumsonden in diesem und den nächsten 2 Jahren. Die USA wollen ebenfalls eine neue Raumsonde starten und selbst die DLR schlug eine deutsche Mondsonde vor. Aufgrund der schnellen Erreichbarkeit ist der Mond so ein ideales Sprungbrett für das Training von Planetensonden. Man braucht allerdings kein Netzwerk von großen Bodenstationen und so verwundert es nicht, das China und Indien ihre ersten planetaren Schritte zum Mond machen.

Zuletzt wollen auch die Amerikaner zurück zum Mond. Wann ist noch offen. Der Termin verschiebt sich immer weiter nach hinten. War vor 3 Jahren noch von 2017 die Rede so ist nun von 2019 als frühestem Termin einer bemannten Landung die Rede. Das ganze Programm hat noch nicht einmal richtig begonnen, da die Mittel für es erst frei werden, wenn Space Shuttle und ISS außer dienst gestellt werden. In einem so frühen Stadium ist es auch nicht ganz unwahrscheinlich, dass der nächste Präsident der USA eine andere Raumfahrtpolitik als G.W. Bush verfolgt und das Projekt ganz einstellt.

Was gibt es neues von der EC-B Oberstufe?

Antwort: Nichts!

Die Ariane 5 wurde als Trägerrakete für Hermes entwickelt und erst später als dieses Projekt eingestellt wurde angepasst für den Start von geostationären Satelliten. Dafür war sie nie besonders gut geeignet. die Oberstufe war zu klein und verwendete Treibstoffe mit zu geringem Energiegehalt. So verwundert es nicht, dass man schon kurz nachdem sie in Dienst ging beschloss eine adäquate Oberstufe zu bauen. Zuerst als Übergangslösung die EC-A mit dem Triebwerk HM-7B der Ariane 4, welche immerhin die Nutzlast von 6.7 auf 9.6 t anhob und als endgültige Lösung die EC-B welche 2006 erscheinen sollte. ein neues Triebwerk – Vinci – sollte billiger herzustellen sein, fast dreimal so viel Schub liefern, dadurch doppelt so viel Treibstoffzuladung zulassen und weitere 2 t Nutzlast ermöglichen – bei etwa denselben Kosten.

Als das Vulcain 2 Triebwerk, welches zeitgleich eingeführt wurde Probleme beim Jungfernstart dieser Version hatte wurde die Entwicklung eingestellt und die Gelder dafür für einen weiteren Testflug und ein Unterstützungsprogramm für Ariane 5 verwendet. Das war 2002. Spätestens letztes Jahr als die EC-A schon wieder erfolgreich flog hätte man sich bequemen können bei der Ministerratssitzung einen Entschluss zu fassen. Man hat es aber nicht getan, weder die Einwicklung einzustellen, noch sie wieder aufzunehmen. So ist das Thema vertagt bis 2008. Von da aus dauert es dann auch noch mindestens 3-4 Jahre bis die Oberstufe dann einsatzbereit ist – wenn man die Entwicklung wieder aufnimmt.

Dabei läuft die Zeit gegen Ariane 5. Der Trend seit es Kommunikationssatelliten gibt ist es dass sie schwerer werden – mit mehr Sendeleistung, mehr Transpondern. Ei großer Satellit ist einfach wirtschaftlicher als mehrere kleine. Ariane 5 lebt davon mehrere Satelliten auf einmal zu transportieren. Sie kann nicht wie die Proton oder Zenit über den Preis punkten und den amerikanischen Trägern wurde zum Verhängnis, dass sie nur einen Satelliten transportierten, obwohl preislich nicht so weit von Ariane 5 entfernt. 

Die 9.6 t Nutzlast ist die Gesamtnutzlast in den Orbit. Rechnet man Adapter zu der Oberstufe und die Doppelstartvorrichtung für den unteren Satelliten weg, so sind es netto noch 8.8 t. Das ist heute kein großes Problem. Die meisten Satelliten liegen im Bereich von 3-5 t. Zwei davon kann man bei geschickter Wahl transportieren. Doch sie werden größer. Die Intelsat 11 Serie wiegt 5.5 t und die größten Exemplare heute 6.5 t. Schon bei einem 5.5 t Satelliten ist es schwierig ein leichtes Gegenstück zu finden und bei einem 6.5 t ist es praktisch unmöglich. Die Ausschreibung der ESA für einen leichten Kommunikationssatelliten mit einer Nutzlast von 300 kg und einem Leistungsbedarf von 3 kW die dieses Jahr an OHB ging hat sicher auch den Grund hier eine Plattfrom zu schaffen die dann zusammen mit einem großen Satelliten gestartet werden kann.

Das zweite ist die Konkurrenz: Die Proton kann mit der Breeze Oberstufe nun 5.5 t in einen Orbit bringen, vorher waren es 4.35 t. Die Zenit sogar 6000 kg. Auf der anderen Seite kommt von der Sojus die ab 2009 auch von Kourou aus startet Konkurrenz aus dem eigenen Haus. Die modernisierte Version Sojus 2 kann zusammen mit dem geographisch günstigeren Startplatz 2.7 bzw. 3.0 t transportieren, so dass dies für kleinere Satelliten eine ernstzunehmende Konkurrenz ist.

Was bleibt? Nun die Entwicklung der EC-B schnell möglichst wieder aufzunehmen. Viel mehr als die dann erreichten 11.6 t werden mit einer Oberstufe alleine nicht gehen. Eine schwere Oberstufe steigert die Nutzlast nur langsam, dafür steigen die Gravitationsverluste bedingt durch das schubschwache Vulcain 2 Triebwrrk rasch an. eine 40-50 t Stufe erhöht die Nutzlast nur auf 12.2-13 t, bei allerdings dann stark ansteigenden Fertigungskosten.

Der nächste Schritt ist zumindest auf dem Papier schon überlegt: Ein Vulcain 3 soll die Nutzlast um 700 kg steigern. Es senkt durch seinen Schub von 1500 kN vor allem die Gravitationsverluste. Die Energieausbeute ist etwas geringer als beim Vulcain 2 um es preiswerter fertigen zu können und es ist besser auf den Betrieb in größeren Höhen angepasst.

Neue Boostergehäuse sollen die Edelstahl Hülsen ersetzen. Kohlefaserverbundwerkstoffe finden bei der Vega ihren Einsatz und sollen dann übernommen werden. Die leichteren Gehäuse sollen weitere 1500 kg Nutzlast liefern. Zusammen mit anderen Maßnahmen soll man so 15 t Nutzlast zu einem um 15 % niedrigeren Preis erreichen, so der Plan „Ariane 2010“ der CNES. Er ist aber wie die EC-B Entwicklung erst einmal aufs Eis gelegt.

TFT Fernseher

Ich habe nachdem die Flachbildfernseher im letzten Jahr kräftig billiger geworden sind erwogen mir doch einen zu kaufen. Grund dafür ist nicht so sehr dass ich mir nun wahnsinnig tolle Sendungen erhoffe, oder „HD-Ready“ sein will (zumal die öffentlich rechtlichen HD TV nicht vor der Winterolympiade in Turin 2010 ausstrahlen werden und ich denke die Privaten lassen sich eher noch mehr Zeit wie man auch an anderen Dingen sieht wie der Produktion von neuen Sendungen in 16:9.
Nein die Gründe waren ganz profan: Ich habe Südseite in meinem Wohnbereich und wohne im Obergeschoss mit der Dachschräge. Das schränkt den platz bei dem Man Monitore oder Fernseher aufbauen kann auf zwei Orte links und rechts neben den Fenstern an der Dachschräge ein. Links ist der Fernseher, rechts der Computer. Die Dachschräge setzte der Größe der Röhre Grenzen: 55 cm waren möglich. Durch das 16:9 Format, den dünneren Rand um das TFT wäre, je nach Fabrikat ein 66-70 cm Flachbildschirm möglich, d.h. ich bekomme eine 30 % größere Diagonale. Das weckt Begehrlichkeiten. Weiterhin schaue ich viel öffentlich rechtliches, vor allem Wissenschaftssendungen und Dokumentationen und das kommt mittlerweile alles in 16:9. Es gibt also zwei stichhaltige Gründe neben den gefallenen Preisen für einen neuen Fernseher.
Doch ich war schlau genug im nächsten Elektronikmarkt mir einige TFT Fernseher anzusehen. Dabei gab es auch die Röhre als Vergleich. Der fiel nicht gut aus. Viele hatten Probleme mit der Farbendarstellung. Einige in der oberen Reihe waren so blickwinkelabhängig, dass man vom unteren Teil schon nichts mehr beim schräg nach oben schauen erkennen konnte. Doch selbst die besseren zeigten ein verwaschenes Bild und teilweise Geisterschatten, d.h. neben starken Kontrasten erscheinen eeine Linie mit dem Übergang etwas vom Übergang entfernt. Dabei gab es wenig Bewegung im Programm – Es war nicht etwa ein Actionfilm sondern ein Interview im Frühstücksfernsehen das ich sah.
Ne, also da denke ich kann ich noch abwarten. Zumal ich – wenn ich den Computerzeitschriften glauben kann noch mit anderen Problemen rechnen kann wie Schlieren bei schnellen Bewegungen oder ruckelnde Bilder. Die Probleme sind zum Teil hausgemacht. Die Panels stammen aus Produktionsstraßen die einmal für den PC Betrieb eingerichtet wurden, obwohl sich sicher kein PC Benutzer einen 100 cm Monitor auf den Tisch stellt. Die gesamte Elektronik arbeitet mit PC Standards. So muss die Bildrate des Fernsehens von 24 oder 25 Herz (je nach NTSC/PAL Standard) auf 60 Hat transferiert werden. Die Auflösung der meisten Displays liegt bei 1366 x 768 Punkten – und nicht etwa bei 1280 x 720 wie es der 720p Standard vorsieht. Dazu muss man skalieren. Intelligenter wäre es einmal die Produktion umzustellen, denn der Fernsehmarkt ist um einiges größer als der PC Markt. Jeder hat einen Fernseher, die meisten Haushalte haben 2 oder 3, doch PC’s hat noch nicht jeder, nicht einmal in den Industrieländern.
In letzter Zeit nutze ich sowieso mehr den Dienst des TV Online Rekorders um Fernsehen anzusehen wenn ich es will, und lege mich gemütlich aufs Bett und sehe mir die Sendungen auf dem Monitor an. Da wäre ein zweiter Monitor besser. Schade nur, dass ich keinen drehbaren habe – ein zweiter Drehbarer 19″ Monitor würde um 90 Grad gekippt einen 27″ Monitor mit 2048 x 1280 Punkten ergeben – genau 16:10 Format. Okay, mit einem Balken in der Mitte, aber eine preiswertere Lösung als einen 26″ Wide Screen Monitor zu kaufen.Weiterhin wäre es auch für das Arbeiten besser, weil zwei Monitor nebeneinander schon recht viel Fläche wegnehmen und man dann dauernd beim arbeiten den Kopf drehen muss. Nun ja, vielleicht lege ich mir noch einen zweiten 19 Zöller zu- Schaun mer mal

Über den Mond zurück zur Erde

Beim Schwimmen kommen mir immer wieder gute Ideen. Ich war eigentlich beim Überlegen was ich noch an meiner Dauer-Softwarebaustelle zur Berechnung der Leistung von Trägerraketen und Bahnen machen könnte als mir beim Überlegen über die Bahnen mal einfiel, dass man einmal einen Satelliten der in einem falschen Orbit landete über den Mond in den geostationären Orbit brachte. Ich dachte mir das ist es doch wert mal genauer untersucht zu werden.

Ein „normaler“ Kommunikationssatellit durchläuft folgende Phasen wenn er in einen geostationären Orbit gebracht wird:

Eine Trägerrakete transportiert den Satelliten in einen Übergangsorbit. Dessen erdnächster Punkt ist relativ nahe an der erde (die Höhe ist von dem Aufstiegsprofil abhängig und liegt meist zwischen 170 und 600 km Höhe). Der erdfernste Punkt liegt in der Höhe des geostationären Orbits also etwa 35900 km über der Erdoberfläche.

Dort angekommen, nach einem halben Umlauf zündet der Satellit seinen Antrieb um zum einen die Bahnneigung zum Äquator abzubauen und zum anderen Geschwindigkeit aufzunehmen, so dass er die kreisförmige Bahn in 35887 km Höhe erreicht.

Typische Werte für die Geschwindigkeit sind für die erste Bahn 10228 m/s und beim zweiten ist die abhängig von der geographischen Breite. Beim Start von Kourou aus etwa 1500 m/s. Beim Start von Cape Canaveral aus etwa 1800 m/s, da dieses nördlicher liegt. Zusammen also in etwa 11730-12030 m/s.

Was würde nun geschehen wenn man den Mond benutzen würde um Geschwindigkeit zu sparen? Eine Bahn zum Mond benötigt etwa 10930 m/s, also 700 m/s mehr als zum Geostationären Orbit. Der Mond ist kein großer Himmelskörper aber er kann die Geschwindigkeit eines Satelliten um 800-1000 m/s pro Vorbeiflug ändern. 2 Vorbeiflüge müssten auf jeden Fall ausreichen um zum einen die Inklination auf wenige Grad abzubauen und einen Orbit von 35900 x 384400 km einzuschlagen, also einen Orbit dessen niedrigster Punkt im geostationären Orbit liegt und dessen höchster Punkt bei der Mondumlaufbahn liegt.

In diesem Orbit müsste der Satellit dann im geostationären Orbit angekommen nur abbremsen und wäre ebenfalls ein geostationärer Satellit. Dazu braucht er etwa 1050 m/s. Addiert man beides zusammen, so ist der Geschwindigkeitsbedarf bei 11980 m/s, also gleich viel wie beim Start vom Cape aus, und schlechter als ein Start von Kourou aus. Darüber hinaus dauert es mindestens einige Wochen, eventuell Monate bis man den Satelliten so im Zielorbit hat. Bei dem Satelliten war es auch ein Notbehelf, weil er in einem falschen Orbit landete.

Für die Proton könnte diese Vorgehensweise jedoch interessant sein. Sie startet von Baikonur aus, sehr weit nördlich und ihre Nutzlastkapazität nimmt zum geostationären Orbit hin stark ab. So ist bei der aktuellen Version Proton M die Nutzlast für einen erdnahen Orbit genauso groß wie bei einer Ariane 5 ECA, im geostationären Orbit liegt sie aber bei nur 5.5 t gegenüber 9.2 t und bei der vorherigen Version waren es sogar nur 4.35 t. Auch die Sojus transportiert von Kourou aus 2.7 t in den geostationären Orbit, von Baikonur aus sind es nur 1.8 t.

Wahrscheinlich ist es aber eher sinnvoll eine Basis nahe des Äquators einzurichten als diesen Aufwand zu treiben.

Computerärger

Am Dienstag bemerkte ich, dass ich auf den DVD Brenner nicht mehr zugreifen konnte. Alle Versuche einen Treiber zu aktualisieren oder zur letzten als funktionierend bekannten Konfiguration zurückzukehren scheiterten. Da das Gerät in Ordnung ist (ich konnte es von DOS aus ansprechen und eine Knoppix CD bootete einwandfrei) habe ich gestern Windows XP neu installiert und dabei auch gleich mich von einigen Programmen getrennt die ich nicht mehr brauchte.

Vorgenommen habe ich mir erstmals die Arbeit mit Benutzerrechten. Bislang war ich immer als Admin tätig. Trotz der immer wieder heraufbeschworenen Gefahren habe ich in den vergangenen 9 Jahren in denen ich Internet benutze keinen Virus oder ähnliches auf dem Rechner gehabt. Einen Virenschutz habe ich erst seit einigen Monaten, seit ich über einen DSL Anschluss ins Netz gehe und dadurch auch länger online bin. Angeschlagen hat er in der Zeit noch nie.

Ein Abend mit Benutzerrechten hat mir dann aber schon gereicht und ich verstehe warum die Leute den Schutz bei Vista das jedesmal nachfragt ob man Root Rechte möchte als löcherig einstufen, weil dauernd Nachfragen kommen. Funktionieren sollte es einfach so: Man meldet sich als Admin an um Programme zu installieren oder Updates einzuspielen. Für die tägliche Arbeit benutzt man Benutzerrechte. Diese schränken nicht nur ein, was man tun darf, sondern auch den Zugriff ins Dateisystem. Man darf beispielsweise im Verzeichnis \Programme nicht mehr schreiben.

Und an diesem Punkt scheitern die meisten Programme. Sie versuchen entweder in ihr Programmverzeichnis zu scheiben oder in die Registry in einen Zweig der ihnen nicht zugänglich ist. Dabei ist die Lösung relativ einfach wenn man sich mit der Problematik beschäftigt hat. Der Benutzer hat ein eigenen Verzeichnis im Unterverzeichnis „Dokumente und Einstellungen“ in denen er schreiben darf. In der Registry ist es der Zweig HKEY_CURRENT_USER. Ich wurde damit konfrontiert als ich vor 3 Jahren anfing n der Hochschule Esslingen zu arbeiten und Programme für den Laborbetrieb schrieb, die dann auch unter Benutzerrechten laufen. Die Lösung war einfach: Ich habe beim Start eine Unit eingebunden, welche die entsprechenden Verzeichnisse und Schlüssel in Variablen abspeichert und bei jeder Datei die gespeichert wurde, wurde dies vorangestellt. So landen alle Einstellungen heute in Anwendungsdaten\BL-Soft\ mit ein paar Unterverzeichnissen.

Doch das scheint die Ausnahme zu sein. Mein gestriger Streifzug zeigte mir, dass viele Programme damit noch nicht klar kommen. Erstaunlicherweise haben die eher größeren Programme kein Problem. Aber die von Hobbyprogrammierer wie mir erstellten. Dabei sind nicht nur alte, sondern auch neue. Wie z.B. der Wood Workshop, ein Programm zum Erstellen von Texturen mit Holzähnlichen Strukturen. Bei der Installation fragt es nach dem .NET Framework 2.0, es muss also jünger als 3 Jahre sein. Trotzdem meckert es dauernd, weil es nicht in sein Programmverzeichnis schreiben kann.

Wer ist dran schuld? Die Programmierer – Ja aber nicht nur. Natürlich ist die Problematik bekannt aber wer als Programmierer arbeitet braucht sehr oft Admin Rechte. Ältere Entwicklungsumgebungen laufen z.B. nicht ohne, weil sie dieselben Probleme haben. Für die aktuellen gilt dies nicht mehr. Wer aber kompiliert erzeugt dauernd Dateien und muss ab und an auch ein Programm installieren und dafür braucht er dann spätestens die Admin Rechte. Doch es würde gehen wenn es auch umständlich ist.

Schuld ist aber vor allem auch Microsoft. Die Windows 3x – 9x Schiene kannte zwar am Schluss mehrere Benutzer, aber jeder konnte ohne Passwort ins System. Jeder war Admin. Rechte sah schon das Filesystem nicht vor. Die NT Schiene kannte dies von Anfang an und setzte dies auch konsequent durch. Nicht umsonst nutzten Firmen eben vor allem NT4 und Windows 2000. Da wollen die Administratoren nicht dauernd Computerprobleme lösen die durch Fehler der Anwender entstehen und die vermeidbar sind.

Mit Windows XP kam der Zusammenschluss und damit die Probleme. Anstatt ein sauberes Konzept zu machen gibt es die schnelle Benutzerumschaltung. Verschlimmert wird dies noch dazu dadurch dass manche Firmen Computer mit Festplatten mit FAT32 Dateisystem ausliefern. Bei dem ist jeder Schutz natürlich hinfällig, da es keine Rechte kennt.

Was wäre eine saubere Lösung? Meiner Ansicht nach folgende:

Man wird gezwungen ein Admin Konto anzulegen und ein Benutzerkonto. In Rechnern in denen nur diese beide Benutzer registriert sind (und das sind die meisten privat genutzten Rechner, da dann nur jeweils eine Person am Rechner ist) wird automatisch der Benutzer angemeldet.

Wenn ein Programm Admin Rechte braucht so wird nachgefragt und man sollte für dieses Programm dann festlegen können dass es dauerhaft mit diesen Rechten läuft anstatt dauernd nachzufragen. Den Schutz sollte man auch um ihn nicht unterwandern zu können gestaffelt machen. Z.B. schreiben viele Programme ins Programmverzeichnis, aber nur wenige ins Windows Verzeichnis. Wenn ein Programm versucht:

  • Ins Windows Verzeichnis zu schreiben
  • Sich zu registrieren, dass es beim Start ausgeführt wird
  • oder auch als Dienst registriert
  • So sollte dies nur mit einem Expliziten Einverständnis gehen.

Ein Manko dass ich viel störender beim Arbeiten empfinde ist das Windows nicht daran denkt dass mehrere Benutzer ein und dieselbe Person in verschiedenen Rollen sind. Egal ob ich mich als „rootbl“ oder „Bernd“ anmelde – ich bin immer derselbe. Wenn ich nun wechsele so hole ich mir Programme oft übers Internet, arbeite mit denselben Programmen oder lese meine E-Mails. Bei verschiedenen Benutzeraccounts sind aber die Daten die ich dazu brauche, (Lesezeichen, Mailbox) wie auch Einstellungen für Programme jeweils in den einzelnen Profilen abgelegt – also immer die doppelte Arbeit.

Opera bietet an ein Profil für alle Benutzer eines Computers gemeinsam zu benutzen – scheitert aber in der aktuellen Version 9.23 immer noch daran, dass nicht Administratoren keine Schreibrechte haben. Microsoft hätte die Chance nutzen sollen bei Vista ein solches System einzuführen – Geändert wurde wie üblich aber nur etwas an der Bequemlichkeit.

Ich werde die nächsten Tage mal sehen wie ich mit den eingeschränkten Rechten zurechtkomme – und eventuell eben doch dauerhaft wieder als Administrator arbeiten.