Michael Braun

Mein IT Weblog

Freemail vs. eigene Domain - ein Nachtrag

In der FAZ ist ein interessanter Artikel zum Thema E-Mail erschienen, der im Großen und Ganzen mit meiner Meinung konform geht. Allerdings möchte ich dazu ein paar Anmerkungen machen. Die E-Mail Adresse des DSL-Anschlusses nicht als Hauptadresse zu nutzen, ist sicherlich ein guter Tipp, da dieses den möglichen Wechsel des E-Mail Anbieters erschwert. Da eine solche Adresse allerdings nichts -außer bei welchem Anbieter der DSL-Anschluß liegt - über den Inhaber aussagt, spricht nichts dagegen, diese Adresse für den Empfang von Newslettern, Registrierung bei irgendwelchen kostenlosen Diensten (Foren, Software etc.), für die lediglich einmalig die Angabe einer E-Mail Adresse benötigt wird, zu nutzen. Im Fall eines Wechsels des DSL Anbieters laufen Mail der Anbieter dann in Leere, was aber auch unproblematisch ist. Web.de und Freenet.de bieten mit 12/20 MB relativ kleine Postfächer und sind daher für Korrespondenz eher schlecht geeignet, insbesondere wenn große Anhänge empfangen werden sollen. Für die Abwicklung von Einkäufen, Registrierungen etc. sind die Postfächer aber groß genug. Zudem gibt es bei beiden Anbietern die Möglichkeit, die Mails an eine andere Adresse wie z.B. die des jeweiligen DSL Providers weiterzuleiten, was dieses Problem entschärft. Dieses praktiziere ich übrigens so mit den Postfächern dieser Anbieter. GMX hat sicherlich das Werbeproblem, was aber durch entsprechende Filterregelungen im E-Mail Programm umgangen werden kann. Nutzt man GMX zudem in erster Linie für Einkäufe, entschärft sich das Problem weiter, da man dann n der Regel weiß, wann mit E-Mails zu rechnen ist. Problematischer ist bei GMX, dass der Freemail-Account kein IMAP unterstützt. Die Mails können daher nur bedingt auf dem Server liegen bleiben, wenn man ein E-Mail Programm nutzt. Windows Live hat das Problem, dass es auf Microsoft-Standards aufbaut und die Nutzung von Nicht-Microsoft Mailprogrammen problematisch ist. Mit Yahoo habe ich seit Jahren keine Erfahrungen mehr gemacht, und kann es daher nur schlecht beurteilen. Googlemail ist sicherlich eines der besten Angebote derzeit, wenn man mal von datenschutzrechtlichen Aspekten absieht, mit derzeit über 7 GB Speicherplatz (mit steigender Tendenz) und IMAP Zugang. Ob man allerdings seine private Korrespondenz Google anvertrauen will, bleibt jedem selbst überlassen. Auch ist bei Google zu bedenken, dass dieses US-amerikanischen Datenschutzbestimmungen unterliegt. Allerdings fragt Google bei der Registrierung nur die allernötigsten Daten ab. So müssen weder Adresse noch Telefonnummer angegeben werden.
Eine Alternative zu Googlemail ist AOL. Mit unbegrenztem Speicherplatz und IMAP Protokoll bietet es ähnlichen Komfort wie Googlemail.
Grundsätzlich gilt aber, dass man für unterschiedliche Zwecke mehrere Accounts anlegen sollte. Ein Account für rein private Korrespondenz, ein Account für Internetkäufe und z.B. ein weiterer Account für soziale Netzwerke. Diese sollte man aber am besten bei mehreren verschiedenen Anbietern haben. Von den Bezahlversionen der Freemailer rate ich eher ab und empfehle statt dessen das Geld dafür lieber in eine eigene Domain zu investieren.
Einen guten Überblick über Freemailer gibt auch Wikipedia.
Fazit: Den idealen Freemailer gibt es sicherlich nicht, aber Googlemail und AOL kommen derzeit wohl am nächsten heran, was Bedienungskomfort und Speicherplatz betrifft. Freenet und Web.de können gut als vorgelagerte Adresse für die Providermailadresse genutzt werden, was den Vorteil bringt, dass bei Änderung des DSL-Providers nur die Weiterleitung geändert werden muss. Für private Korrespondenz ist GMX durchaus gut geeignet, wenn vom fehlendem IMAP abgesehen wird.

Freemailer vs. eigene Domain - ein Kommentar

Mit Lycos.de streicht mal wieder ein Freemailer die Segel. In den letzten Jahren war ich von mehreren Accountkündigungen betroffen, da ich Adressen bei verschiedenen Freemailern besitze. Trotzdem werde ich auch in Zukunft Freemailer nutzen, obwohl ich eigene Domains besitze. Der Grund dafür ist ganz einfach. Nutze ich eine E-Mail Adresse aus meiner Domain kann der Empfänger z.B. bei der Denic, wenn es sich um eine .de Domain handelt, ganz einfach meine Adressdaten herausfinden. Stelle ich eigene Inhalte auf die Seite, so erfährt er noch wesentlich mehr über mich. Dieses ist von mir in etlichen Fällen aber gar nicht erwünscht. Bestelle ich z.B. einen Newsletter, so ist es nicht erforderlich, das der Anbieter außer meiner E-Mail Adresse und ggf. der Anrede noch mehr über mich erfährt.
Für viele Zwecke, wie Newsletter oder auch kostenlose Registrierungen nutze ich inzwischen eine Googlemail Adresse. Diese ist besonders wegen der enormen Postfachgröße von derzeit 7,2 GB auch zur Archivierung sehr interessant. Da es aber auch Google nichts angeht, wenn ich in einem Webshop einkaufe, nutze ich dafür andere Adressen.
Für offizielle Korrespondenz hingegen nutze ich in vielen Fällen E-Mailadressen aus eigener Domain, da dieses seriöser wirkt.
E-Mailadressen, die mir vom DSL Anbieter zur Verfügung gestellt werden, nutze ich nur für die Korrespondenz mit dem Anbieter, da sie mir nach einem Anbieterwechsel evtl. nicht mehr zur Verfügung steht.
Solange es immer noch genügend Freemailer gibt, werde ich bei dieser Vorgehensweise bleiben.

Macht Web 2.0 dumm?

Bei Golem fand ich den folgenden Artikel Internetkritiker Keen: Web 2.0 macht dumm. Danach befürchtet Andrew Keen, selbsternannter führender Internet-Kritiker, dass das Web 2.0 die Demokratie nicht fördert, sondern in ein kulturelles Chaos, eine ökonomische Katastrophe und moralischen Niedergang führt. Abgesehen davon, dass man dieses nahezu jeder neuen Kommnunikationsmedium wie Buch, Radio oder auch Fernsehen nachgesagt hat, ist auch diese Aussage viel zu pauschal. Sicherlich verändern Web 2.0 Technologien - also das sogenannte Mitmach-Web - die Welt stark. Vor allem brechen sie die Informationsmonopole und Meinungsmonopole der Medienkonzerne. Sicherlich ist es künftig problematisch, aus der Vielzahl der Quellen unterschiedlichster Qualität die relevanten Informationen herauszufiltern. Mehr denn je ist zukünftig kritisches Denken erforderlich. Auch gehen die Zeiten des (relativ) leichten Geldverdienens im Medienbereich zu Ende. Auf der anderen Seiten können kritische Meinungen nicht mehr so leicht unterdrückt werden wie bisher. So wird in Deutschland die Fernsehlandschaft beherrscht von den öffentlich-rechtlichen Anstalten ARD und ZDF, die wiederum von den großen politischen Parteien CDU/CSU, SPD, FDP und Grüne dominiert werden, auf der einen Seite und den privaten Senderketten RTL (Bertelsmann Gruppe) und ProSiebenSAT1. In der Zeitungslandschaft dominieren ebenfalls wenige große Medienkonzerne wie Springer. Ähnliches gilt im Verlagswesen oder der Musikindustrie. Web 2.0 erlaubt es den Kreativen sich direkt an ihre Abnehmer zu wenden, ohne den Umweg über die Medienkonzerne. Sicherlich darf man dabei nicht erwarten, mit Web 2.0 viel Geld zu verdienen. Andererseits bietet Web 2.0 auch eine gute Vermarktungsplattform für andere Produkte. So müssen Musiker sich künftig darauf einstellen, ihr Geld nicht mehr in erster Linie über CD-Verkauf zu verdienen, sondern wieder mehr durch Live-Auftritte. Die einmalige Leistung im Plattenstudio wird künftig nicht mehr so hoch honoriert werden. Andererseits können sich künftig Künstler leichter als bisher selbst vermarkten und sind damit nicht mehr so stark auf die großen Plattenlabels angewiesen, womit sie auch wieder mehr künstlerischen Freiheiten geniessen. Ähnliches gilt für Autoren. Dienste wie Books-on-Demand oder lulu.com erlauben, das Veröffentlichen auch unabhängig von Verlagen. Was schon Reich-Ranicki über das Fernsehen sagte, gilt auch für das Web 2.0: Das Web 2.0 macht die Schlauen schlauer und die Dummen dümmer.
Im übrigen sind viele Web 2.0 Inhalte nicht zwangsläufig immer für die breite Öffentlichkeit bestimmt, auch wenn das Internet dies ermöglicht, sondern nur für eine bestimmte Community.

Weiterverwendung alter PCs

Was kann man mit älteren PCs noch machen?
Wenn ich einen Blick werfe auf die PCs die bei mir im Haushalt stehen, so fällt auf, das sich unter diesen einige ältere Schätzchen befinden. Der älteste PC ist ein 486DX2-66 mit 8 MB RAM und 540 MB Festplatte. Daneben existieren noch ein Pentium 166MMX mit 80 MB RAM, 2,5 GB HD und CD-ROM. sowie 3 Pentium II Rechner mit 300 - 400 Mhz und 64 - 128 MB RAM, sowie Festplatten von 3,2 bis 4,3 GB Größe. Alle diese Rechner sind für die moderne Betriebssysteme nicht mehr geeignet. Diese PCs zu verkaufen lohnt sich nicht bei einem zu erwartenden Erlös von vielleicht 5 - 10 Euro pro Stück und verschrotten will ich sie auch nicht, da sie ja noch funktionsfähig sind. Was also nun machen mit diesen PCs
Der 486DX2-66 läuft mit MS-DOS 6.2 und Windows 3.11. Dieses wird wohl auch immer so bleiben. Er ist dafür geeignet alte DOS oder Windows Spiele darauf zu spielen. Eine alternative Anwendung wäre allenfalls ein Eisfair Server bzw ein Fli4l Router. Da der PC aber weder über Netzwerkkarte noch über ein CD-ROM Laufwerk verfügt, was ich zwar aus Restbeständen einbauen könnte, bleibt es beim jetzigen Status Quo.
Ähnlich sieht es beim P166MMX aus. Er wird weiterhin als Windows 98 PC verwendet. Zwar ist eine Netzwerkkarte eingebaut, allerdings ist der PC inzwischen nicht mehr am Netz. Für ältere Spiele oder Anwendungen ist er aber durchaus noch geeignet.
Interessanter wird es bei den Pentium II - Rechner. Diese dürften etwa von 1998 / 1999 gebaut worden sein. Da ich zwei davon 2004 gebraucht gekauft habe, ist mir das genaue Alter nicht bekannt.
Für den Pentium II-300 mit 64 MB RAM und 4,3 GB HD habe ich noch keine Verwendung gefunden. Zwischenzeitlich hatte ich ihn mal als ISDN-Diskettenrouter eingesetzt. Denkbar wäre hier ein Eisfair PC. Ebenso möglich wäre mit Damn Small Linux eine einigermaßen aktuelle Linux Distribution. Möglich wäre zwar auch Windows 2000, was aber uninteressant ist, da ich dieses schon auf anderen PCs im Einsatz habe.
Der Pentium II-350 mit 128 MB RAM und 3,2 GB HD hat Windows 2000 Professional installiert. Für einfache Aufgaben wie Textverarbeitung ist er durchaus weiterhin geeignet. Da Windows 2000 immer noch bis April 2010 supportet wird von Microsoft, gibt es derzeit keinen Grund, dieses zu ändern. Er kann also immer noch problemlos im Internet verwendet werden.
Zum Pentium II-400 mit 128 MB RAM und 4,2 GB HD habe ich bereits im vorherigen Artikel geschrieben, dass ich auf diesem inzwischen Ubuntu Server 6.06.2 LTS installiert habe. Mit nur etwa 500 MB Platzbedarf ist hier ein kleiner LAMP Server entstanden. Apache 2, MySQL 5.0.51 und PHP 5.12 sind durchaus noch aktuell.

Bei meinen anderen PCs handelt es sich noch um halbwegs aktuelle Hardware. Sicherlich ist ein PIII-800 mit 256 MB RAM, 38 GB HD und DVD-RW Laufwerk auch schon etwas alt. Aber sowohl Windows 2000 als auch aktuelle Linux-Distributionen laufen auf solchen Systemen noch sehr gut. 38 GB Speicherkapazität reichen für die meisten Anwendungsbereiche ebenso aus. Lediglich bei Multimedia Anwendungen wird es etwa eng. Ähnliches gilt für meinen Celeron 1300. Nachdem ich ihn mit bereits vorhanden Komponenten von 256 MB RAM auf 512 MB RAM und zusätzlich mit 2 80 GB Festplatten intern aufgerüstet habe, wird er sicherlich noch ein paar Jahre gut für mich nutzbar bleiben, insbesondere da es sich um ein LAMP System mit Samba Server handelt.

Zusammenfassend lässt sich folgendes sagen:
Es ist zu schade, alte PCs einfach wegzuschmeissen. Soweit man sie nicht mit den alten Betriebssystemen weiterbetreiben will, um z.B. alte Spiele oder Anwendungen weiter zu nutzen, bieten sich spezielle Linux Distributionen oder aber auch zumindest bis April 2010 Windows 2000 an, um solche PCs weiter zu nutzen. Bei Systemen mit Festplatten von deutlich weniger als 10 GB Größe ist allerdings zu berücksichtigen, dass bei einigermaßen aktuellen Betriebssystemen schon erhebliche Teil der Speicherkapazität durch Betriebssystem und die wichtigsten Anwendungen benötigt werden, so dass für Daten nur noch wenig übrig bleibt. Für Alltagsanwendungen und kleinere Serveranwendungen sind solche PC aber durchaus noch geeignet. Die Aufrüstung dieser PCs lohnt sich aber nur dann, wenn die Teile nicht extra erworben werden müssen.
Insbesondere sind solche PCs für experimentelle Zwecke, wie etwa das Kennenlernen neuer Betriebssysteme oder den eigenen kleinen Webserver wunderbar geeignet. Gerade für solche Zwecke kaufe ich mir auch gelegentlich mal wieder einen oder zwei gebrauchte PCs. Der bereits angesprochene Pentium II-400 wurde von mir erworben, um mit Linux zu experimentieren. Den Celeron erwarb ich, da dieser PC mit zunächst 20 GB HD gut geeignet auch für aktuelle Linux Systeme war und ich damit nun auch ein System aufbauen konnte, da für gängige Anwendungen ausreichend war. Die Aufrüstung erfolgte dann mit ohnehin vorhandenen Komponenten. Mit nunmehr 180 GB Festplattenkapazität dient dieser PC nun sowohl als Arbeitsplatzrechner als auch als Server für die Windows PC. Meinen Pentium 4 Rechner nutze ich hauptsächlich, wenn hohe Rechenleistung oder eine USB 2.0 Schnittstelle notwendig ist.

Weiterverwendung meines alten Pentium II-400

Mein alter Pentium II-400 lief bisher unter Suse Linux 9.3 mehr schlecht als recht. Da keine besonderen Daten auf dem PC waren - er diente mir von Oktober 2004 bis Mitte 2007 ohnehin nur als Testrechner für Linux, habe ich mich entschlossen, den Rechner zukünftig als einen LAMP Server zu nutzen, stellte sich natürlich die Frage welche Distribution ich verwenden sollte. Da der Rechner nur über einen USB Netzwerkkarte verfügt, kam leider Eisfair nicht in Frage. Ich weiß leider nicht mit welchem Trick sich der PC öffnen lässt und kann daher auch keine interne Netzwerkkarte einbauen.

1. Versuch Damn Small Linux.
Die Installation war zunächst unproblematisch. Das System nahm auch recht wenig Platz auf der Platte ein, was wichtig war, da ich nur eine 4,2 GB Festplatte eingebaut habe. Die Geschwindigkeit des Systems war trotz nur 128 MB Arbeitsspeicher sehr zufriedenstellen. Allerdings gelang es mir nicht einen MySQL Server dort zu installieren. Apache, PHP und PureFtpd liefen jedoch problemlos. Es gibt zwar im Web eine Anleitung für das XAMPP Paket, welches ich aber nicht verwenden wollte. Da auch die Upgradesituation bei Damn Small Linux etwas problematisch ist, entschloss ich mich, es mit Damn Small Linux wieder zu deinstallieren.
2. Versuch Ubuntu Server 8.04 LTS
Da ich bisher nur die Server-Version 6.06 LTS auf CD gebrannt habe, installierte ich dieses zunächst und datete es auf Server 8.04 LTS ab. Allerdings gab es unter Server 8.04 LTS erhebliche Probleme. So bemängelte er schon beim Start das alte BIOS von 1999 und schaltete sich beim Shutdown nicht selbstständig aus. Auch scheiterte ich an der Installation von PhPMyAdmin und ProFtpd nicht installieren. Insbesondere aufgrund der BIOS Probleme entschied ich mich daher, das System nochmals neu zu installieren.
3. Versuch Ubuntu Server 6.06 LTS
Da 6.06 in der Server Version immerhin noch bis Juni 2011 unterstützt wird mit Updates entschied ich mich dieses auszuprobieren. Nach diversen Schwierigkeiten gelang es mir schließlich den LAMP Server inklusiv PHPMyAdmin und ProFTPd fertigzustellen. Allerdings will der PC sich nach dem Shutdown immer noch nicht ausschalten und ein Reboot gelingt auch noch nicht, obwohl ich den Server Kernel gegen einen i686 Kernel ausgetauscht habe. Immerhin läuft der PC nun im großen und ganzen. Auch die Plattenbelegung ist mit knapp 500 MB angenehm gering. Auf einen Samba Server verzichte ich erstmal, da der Rechner ohnehin nur eine geringe Festplattenkapazität hat und zudem die Netzwerkkarte noch über USB 1.1 läuft. Außerdem habe bereits auf meinem Celeron einen Samba Server laufen.


Austausch eines PCs

Nachdem bei meinem alten Duron zumindest das Netzteil den Geist aufgegeben hat, habe ich meinen FreeBSD PC - ein IBM Netvista mit einem Pentium III-800 - auf Windows 2000 umgestellt. Da dieser ohnehin nur als testweiser Webserver diente, war dieses problemlos möglich. Meinen DVD-Brenner aus dem Duron konnte ich für den Pentium III weiterverwendet, während ich den einen 256 MB Speicherriegel und die 80 GB Festplatte in den Celeron 1300 unter Ubuntu 8.04 eingebaut habe, da diese im PIII aus welchen Gründen auch immer nicht laufen wollte. Die Aufrüstung des Arbeitsspeichers von 256 auf 512 MB hat sich beim Celeron extrem positiv bemerkbar gemacht.

Digitalisierung meiner Schallplatten (Umwandlung in MP3)

Nachdem ich bereits vor nunmehr etwa vier Jahren meine CDs und meine Fotos digitalisiert habe, sind nun die Schallplatten dran. Zu diesem Zweck habe ich meinen Plattenspieler über einen Preamplifier an den PC angeschlossen. Vor vier Jahren hatte ich es bereits mal probiert, allerdings war die Tonqualität nicht besonders, was aber wohl an meinem Duron liegt. Da es diesmal mit dem Duron ähnlich schlecht war, hab ich es noch mit dem Celeron unter Ubuntu versucht. Hier ergab sich eine zufriedenstellende Tonqualität. Im Vergleich zur Umwandlung von CDs ist die Digitalisierung von Schallplatten wesentlich aufwändiger, da ich die LP komplett abspielen muss. Danach muss der Stream geschnitten werden und anschließend noch die geschnittene Teile in MP3 Dateien umgewandelt werden. Die einzelnen MP3 werden schließlich noch entsprechend umbenannt und mit ID3 Tags versehen. Für eine einzelne LP von etwa 40-45 Minuten Länge muss daher etwa 1 Stunde Zeit einkalkuliert werden. Die Aufzeichnung der Platten mit Audacity funktioniert dabei recht gut.
Da ich aber inzwischen Musik meistens am PC höre und mir das Auflegen von Schallplatten meistens zu lästig ist, da man in der Regel etwa alle 20 Minuten die Platte umdrehen muss, habe ich mich nun doch zur Digitalisierung wenigstens der wichtigsten Platten entschlossen. Ein Neukauf als CD, was die Digitalisierung vereinfachen würde, scheitert schon daran, dass viele der Platten gar nicht als CD erhältlich sind. Abgesehen davon habe ich auch wenig Lust dazu, die ganzen Platten nochmals als CD zu erwerben.
Auch wenn die Digitalisierung sehr aufwendig ist, so ist es doch durchaus interessant einige der Platten nach langer Zeit (teilweise mehrere Jahre oder noch mehr) mal wieder zu hören. Den Kauf von Schallplatten habe ich schätzungsweise so um 1990 eingestellt und zunehmend immer mehr auf CD (und seit 2004 auf MP3) umgestellt. Mit zunehmender Größe der CD-Sammlung habe ich dann auch immer weniger Schallplatten gehört. Selbst CDs spiele ich heutzutage (trotz 25fach CD-Wechsler) nur noch selten ab. Die Auswahl der passenden Musik über den PC ist halt viel komfortabler. Wenn ich mal neue CDs kaufe, wobei es sich meistens aber um vergünstigte Restposten handelt, werden diese ohnehin als erstes in MP3 umgewandelt. Den Kauf kopiergeschützter CDs vermeide ich dabei aber so gut es geht, da bei solche Un-CDs -wegen Nichteinhaltung des CD-Standards- nicht gewährleistet ist, dass sie auf allen Geräten laufen. Außerdem wird hier von Seiten der Musikindustrie versucht, mir die Nutzungsmöglichkeiten in einer für mich unzumutbaren Weise einzuschränken. Dass letztlich jeder Kopierschutz auch mit mehr oder weniger Aufwand unter unter Berücksichtigung eines möglichen Qualitätsverlust umgangen werden kann, steht auf einem anderen Blatt. Ein Kopierschutz, der nicht umgangen werden kann, würde eine völlig unbrauchbare CD ergeben, da man grundsätzlich alles aufnehmen kann, was man auch hören kann.
Letzten Endes wird damit für mich auch mein persönlicher Abschied von der Schallplatte beginnen. Ich werde die Platten ebenso wie meinen Plattenspieler zwar behalten, werde aber wenn der letzte Plattenspieler zuhause den Geist aufgibt keinen neuen mehr kaufen. Wahrscheinlich werde ich bis dahin aber sporadisch noch mal eine Platte auflegen, wenn mir danach ist. Da aber alle mir wichtigen Aufnahmen dann auch für mich als MP3 verfügbar sind, wird dieses in den nächsten Jahre wohl immer seltener der Fall sein.
Meine privaten Fotoalben habe ich schon vor ein paar Jahren auf den Dachboden verbannt. Wenn mir danach ist, schaue ich mir die Kontaktabzüge, die ich mir mit dem Drucker gemacht habe an oder betrachte die Fotos am PC.
Wie heisst es schon bei Bob Dylan: The Times - They Are A-Changin'.

IT doesn't matter - ein Kommentar

Im Mai 2003 erschien der Artikel "IT doesn't matter" von Nicholas G. Carr in der Harvard Business Review. Auch wenn dieser Artikel nun schon 5 Jahre alt ist, so sind seine Thesen durchaus noch aktuell. Die alles entscheidende Frage ist, ob wie Carr schon damals behauptete die Computer Revolution beendet ist. Richtig ist sicherlich, dass viele Errungenschaften dieser Revolution in den normalen Alltag eingeflossen sind. Sicherlich ist auch spätestens mit dem Börsencrash 2000/01 und dem damit verbundenen Ende der sogenannten New Economy die Übertreibung einer eher realistischen und vielleicht auch ein wenig pessimistischen Einschätzung gewichen. Gleichwohl ist vieles, was im Rahmen der New Economy entwickelt wurde, heutzutage schon fast langweilige Alltagstechnologie geworden. Der Aufbau riesiger Datenbanken, der noch vor wenigen Jahren nur für große Unternehmen bezahlbar war, ist nun aufgrund drastisch gesunkener Hardwarepreise auch für kleine und mittlere Unternehmen finanziell leistbar. So ist eine Festplatte mit 1 Terabyte Speicherkapazität inzwischen schon für 115 € erhältlich. Vor etwa 5 Jahren bekam man für 100 € eine externe Festplatte mit 80 GB Kapazität, heute ist einer 500 GB Festplatte schon für 65 € erhältlich. Mein erster DVD Brenner kostete damals im Sonderangebot 129 €, heute sind diese Geräte teilweise schon für 20 € bei besserer Leistung erhältlich. Während ich Ende 2000 noch 1150 DM (knapp 600 €) für einen PC ohne Betriebssystem zahlen musste, ist ein brauchbarer Office-PC inzwischen schon für 200 € erhältlich. Die Preise für Einsteiger-Notebook sind im selben Zeitraum von etwa 2000 DM (1000 €) auf 350 - 400 € gefallen. Ein Computer ist inzwischen kein Luxusgegenstand mehr (ebensowenig wie ein Mobiltelefon), sondern für die meisten Leute durchaus erschwinglich. Gleiches gilt für einen schnellen Internet-Zugang. Zumindest insofern man nicht das Pech hat, dass an seinem Wohnort kein DSL verfügbar ist.
Durch den Preisverfall im Bereich der Hardware, Software (nicht zuletzt aufgrund von Open-Source-Alternativen) und der Kommunikationskosten ist es schwerer geworden, sich durch IT einen dauerhaften Vorsprung vor seinen Konkurrenten zu sichern. Auch komplexe Standard ERP-Systeme wie SAP R/3, die lange Zeit nur für Großunternehmen finanzierbar waren, sind z.B. über Hosting Lösungen auch für mittelgroße Unternehmen bezahlbar geworden. Ob sie im Einzelfall sinnvoll sind, steht auf einem anderen Blatt. Damit können nun auch kleinere Unternehmen von den prinzipiellen Vorteilen einer standardisierten ERP-Lösung (wie z.B. kostengünstiger Weiterentwicklung aufgrund größere Nutzerzahl und bessere Vernetzung der verschiedenen Module) profitieren. Die bisherigen Nachteile gegenüber Individualsoftware wie die höheren Hardwareanforderungen, nicht zuletzt aufgrund größerer Komplexität, um die verschiedenartigen Anforderungen der einzelnen Anwender unter einen Hut zu bringen, verlieren dabei zunehmend an Gewicht. Gleichwohl bleibt selbstverständlich die optimale Nutzung der Möglichkeiten, die EDV bietet ein entscheidender Faktor, um im Wettbewerb zu überleben.
Sicherlich ist auch richtig, dass aus den oben angeführten Gründen auch IT Investitionen stärker als früher unter Kosten-/Nutzenaspekten betrachtet werden müssen, da sie inzwischen keinen strategischen Wettbewerbsvorteil bieten.
Dass wie Carr zitiert 70% der Speicherkapazität in typischen Windows-Computernetzen Verschwendung sind, spielt bei den inzwischen drastisch gesunkenen Hardwarepreisen eigentlich kaum eine Rolle. Maßnahmen, die diese Verschwendung vermeiden sollen, könnten sich schnell als kontraproduktiv erweisen. Ebenso wird sich Software als Service nur in wenigen Anwendungsbereichen als sinnvoll erweisen, da für Standardanwendungen inzwischen die Software kostenlos verfügbar ist. Nicht auch zuletzt die zunehmende Überwachungsmentalität in vielen Staaten wird viele Anwender davon abhalten, private Daten ins Netz zu stellen. Auch ist es die Frage, inwieweit man dem Anbieter dieses Service Vertrauen dahingehend schenkt, dass er diese Daten nicht missbraucht. Weiterhin bleibt in diesem Fall das Problem der Offline Verfügbarkeit. Ich zumindest möchte privat keinen Computer, der nur funktioniert, wenn auch meine Breitbandverbindung läuft. Der sogenannte Thin-Client ist vielleicht der Traum gewisser Hardwareanbieter, wird aber bei den Anwendern eher weniger Akzeptanz finden. Gleichwohl kann er in bestimmten Systemumgebungen sinnvoll sein. Allerdings dürfte der Einsatz von virtuellen Maschinen zunehmen.
Die neuen Regeln für das IT-Management, die Carr verkündet, teile ich hingegen nur bedingt. Er empfiehlt, erstens weniger auszugeben, zweitens nur zu folgen statt zu führen und drittens sich auf Verwundbarkeiten zu konzentrieren statt auf Möglichkeiten. Verschwendung von finanziellen Ressourcen ist in allen Unternehmensbereichen zu vermeiden und damit nicht unbedingt nur ein IT Problem. Ob man beim Einsatz einer neuen IT-Technologie führt oder folgt, sollte in erster Linie davon abhängig, in welchen Zeitraum sich der Einsatz dieser Technologie rentiert. Warum soll ein Unternehmen vielleicht fünf oder zehn Jahre warten mit dem Einsatz, wenn sich der Einsatz eventuell schon nach wenigen Monaten rechnet. Wenn z.B. der Einsatz dieser Technologie 5 Millionen € kosten, jährlich aber 10 Millionen eingespart, ist es unsinnig zwei Jahre zu warten, bis die Technologie vielleicht nur noch 1 Millionen kostet. Selbst wenn man in diesem Fall, bereits nach drei Jahren, wieder auf eine neue Lösung portieren muss, weil die laufenden Kosten der alten Lösung zu hoch sind. Sicherlich sollte auf teure Prestigeprojekte verzichtet werden, aber auch das gilt in allen Bereichen. Auch lassen sich manchmal mit geringen Anfangsetats große Erfolge erzielen. In vielen Fällen ist auch die Anwendung des sogenannten Pareto-Prinzip sinnvoll. Das heißt, dass zunächst die großen Baustellen möglich kostengünstig beseitigt werden sollen, um damit Zeit zu gewinnen für die vielen kleinen Details. Die eierlegende Wollmilchsau ist nur selten die beste Lösung. Letztendlich muss man im IT-Bereich akzeptieren, dass sämtliche Lösungen ohnehin nur Übergangslösungen sind. Auch sind die angesprochen Studien, die diesen Regeln zugrunde liegen, skeptisch zu betrachten. Vielleicht sind bei den erfolgreichen Unternehmen, die IT-Kosten nur deshalb so niedrig, weil es ihnen gelungen ist, die Projekte kosten- und nutzeneffizient umzusetzen, während die erfolglosen Unternehmen hohe IT-Kosten haben aufgrund gescheiterter IT-Konzepte.

FreeBSD - ein Selbstversuch und erster Eindruck

Nachdem ich das Arbeiten, an meinem alten 14" CRT Monitor leid war, habe ich mir einen gebrauchten 17" CRT Monitor von Eizo bei einem Händler von gebrauchter Hardware gekauft. Um den Mindermengenzuschlag zu vermeiden, erwarb ich dort zusätzlich einen gebrauchten Pentium III-800 mit 40 GB Festplatte. Nun stellte sich die Frage, welches Betriebssystem auf diesen Rechner installiert werden sollte. Windows kam für mich nicht in Frage, da ich den Rechner in erster Linie für Serverdienste benutzen will. Zur Auswahl standen somit Eisfair, eine der großen Linux Distributionen (insbesondere Ubuntu Server 8.04 LTS wegen des Supports bis April 2013) und FreeBSD 7.0. OpenSolaris schied wegen der hohen Hardwareanforderungen aus. Da ich mit FreeBSD 7 bisher keinerlei Erfahrungen habe, habe ich mich entschlossen dieses auszuprobieren. Für Eisfair reicht zudem auch ein weitaus schwächerer PC aus. Ebenso habe ich Suse Linux und Ubuntu Linux schon auf anderen PCs laufen, so dass der Lerneffekt dort nicht in dem Maße gegeben ist. Weiterhin ist es auch ganz reizvoll, mit FreeBSD ein echtes Unix-System zu installieren.
Im Vergleich zu Ubuntu Linux oder Suse Linux erfordert FreeBSD wesentlich mehr Handarbeit bei der Installation. Insbesondere für den FreeBSD Anfänger ist es von Vorteil, wenn man schon während des Installationsprozess einen zweiten PC mit Internetverbindung zur Verfügung hat, weil doch vieles erst im Handbuch nachgeschaut werden muss. Nach der Installation des Betriebssystems ist auch noch keine graphische Benutzeroberfläche vorhanden. Diese muss erst noch separat installiert. Vieles ist in Englisch gehalten. Sprachpakete müssen meist manuell dazuinstalliert werden. Die Installationshilfen sind wesentlich spartanischer als bei Linux und es muss viel manuell nachkonfiguriert werden. Alles in allem sicherlich kein Betriebssystem für Anfänger sondern eine echte Herausforderung.
Ich habe zwar die KDE Oberfläche installiert, rufe diese aber grundsätzlich manuell. Ein automatischer Start ist sicherlich möglich von mir aber auch nicht erwünscht, da dieser Rechner in erster Linie als Server gedacht ist.
Nach der Überwindung etlicher Probleme läuft der PC nun unter FreeBSD mit Apache, MySQL, PHP und Samba. Die Zeit wird über das Internet synchronisiert. Ansonsten ist noch KDE sowie Firefox 2 installiert, was den Administrationsaufwand etwas vereinfacht, da ich schnell mal etwas im Internet nachschlagen oder auch mit mehreren Fenstern parallel arbeiten kann.
Insgesamt ist eine FreeBSD Installation aber eine interessante Sache.

Kurze Anmerkung zum Bill Gates Beitrag

Der letzte Beitrag war in keinster Form als Bashing gegen Microsoft und Bill Gates gedacht. Vielmehr sollte die Bedeutung von Bill Gates und Microsoft für die Computerindustrie relativiert werden. Auf der Seite der Hardwareproduzenten wurde der Wettbewerb durch die Trennung von Hardware und (Betriebssystem-)Software angeheizt. Dieses machte es möglich, dass eine Vielzahl kleiner und großer Computerproduzenten entstand. Programme, die auf dem System des einen Hersteller liefen, liefen ebenso auf der Hardware anderer Hersteller. Der Wildwuchs der früheren Jahre wurde gebremst. Setzt man den Preis des Betriebssystem in Relation zum Preis der Hardware, so stellt man auch fest, dass die Hardwarepreise wesentlich stärker gefallen sind, als die des Betriebssystems. UNIX ist nicht zuletzt auch daran gescheitert, dass jeder Hersteller sein eigenes Süppchen kochte und eine herstellerübergreifende Kompatibilität nicht gegeben war. Mit der zunehmenden Verbreitung von MS-DOS und später Windows entstand gleichzeitig auch ein Wettbewerb im Hardwarebereich. Die Monopole der Hardwarehersteller wurden damit gebrochen. Microsoft war wahrscheinlich zu keiner Zeit der beste Softwarehersteller, aber sie waren immer gut genug. Inzwischen haben aber auch die großen Hardwarehersteller umgedacht und unterstützen vermehrt Linux und andere Open-Source-Projekte. Dieses ist auch vor dem Hintergrund zu sehen, da es für sie auf Dauer günstiger ist, Open-Source-Projekte mitzufinanzieren, als eine eigene Betriebssytementwicklung weiterlaufen zu lassen. Ebenso ist Linux derzeit noch wesentlich modularer aufgebaut als Windows und damit auch auf besser leistungsschwachen Rechner und embedded Systemen einsetzbar. Auch entsteht mit den ATOM-Prozessoren von Intel ein neues Marktsegment mit zwar leistungsschwachen, dafür aber stromsparenden Computern. Der einseitige Trend zu immer leistungsstärkeren Prozessoren könnte damit mittelfristig gestoppt werden. Stattdessen wird die Leistungsspannbreite aktueller PCs deutlich größer werden. Steuert Microsoft mit seinem nächsten Windows nicht entsprechend gegen, könnte sich ein Trend von Microsoft weg zu Linux entwickeln. Die Zeiten der unumschränkten Marktmacht von Microsoft könnten vorbei sein und sich auf Betriebssystemebene ein Wettbewerb zwischen zwei oder drei großen Anbieter (Windows, Linux und evtl. MacOS) entwickeln, zwischen denen sich problemlos Daten austauschen lassen können. Dazu ist es allerdings außerdem erforderlich, dass sich Anwendungen relativ schnell von einer Plattform auf eine andere portieren lassen können.

Anmerkung zu Bill Gates anläßlich seines letzten Arbeitstages bei Microsoft

Bill Gates hat sich nun aus dem operativen Geschäft bei Microsoft verabschiedet und will sich nur noch seiner Stiftung widmen. Dieses will ich zum Anlaß nehmen meine persönliche Bilanz über sein Wirken zu ziehen. Mit Produkten der Firma Microsoft arbeite ich nunmehr sowohl beruflich als auch privat schon seit gut 20 Jahren. Es begann während meines Studiums mit einem 80286 mit MS-DOS 3.3. Sicherlich waren schon damals andere Systeme wie Atari ST oder Commodore Amiga leistungsfähiger, allerdings hatte sich schon zu diesem Zeitpunkt der PC als Standard etabliert. Dieses war aber nicht nur der Leistung von Bill Gates und Microsoft zu verdanken, sondern vielmehr der Entscheidung IBM den PC modular aus auch für andere Hersteller frei verfügbaren Komponenten zusammenzubauen und der Tatsache, dass IBM das Betriebssystem nicht exklusiv für sich lizensierte, was aufgrund der damaligen Marktmacht der IBM durchaus möglich gewesen wäre. Somit war es für andere Hersteller möglich, preisgünstige kompatible Rechner zum IBM-PC zu bauen und diese mit dem gleichen Betriebssytem zu versehen. Da IBM im Bereich der mittleren Datentechnik und der Großrechner Marktführer war, war auch die Anbindung an diese Systeme möglich, was für die Industrie erhebliche Vorteile brachte, da dadurch die teuren Zentralrechner entlastet werden konnten und die bis dato dummen Terminals durch intelligente PC-Systeme ersetzt werden konnte. Bestimmte Arbeiten konnten dadurch vom Zentralrechner auf die PCs verlagert werden. Sogenannte Killerapplikationen für die PCs waren Textverarbeitungsprogramme, die die bisherigen Schreibmaschinen und Textverarbeitungssysteme ablösten, und besonders Tabellenkalkulationsprogramme. Tabellenkalkulationsprogramme kamen erst mit den ersten PCs auf und waren mächtige Werkzeuge, die dem PC in der Wirtschaft erst zum Durchbruch verhalfen. Sie schufen dem Nutzer, Möglichkeiten, über die er bis dahin nicht verfügte. IBM musste auf den Erfolg des Apple II, der wohl der erste echte PC war, reagieren und ein eigenes Produkt in diesem neu entstandenen Markt schaffen. Da IBM aufgrund seiner damaligen schwerfälligen Struktur nicht in der Lage war, ein solches Produkt selbst in angemessener Zeit zu entwickeln, wurde ein Computer kreiert, dass komplett aus Komponenten anderer Hersteller hergestellt werden konnte. Dabei war zusätzlich zu berücksichtigen, dass es für jede Komponente mindestens 2 Hersteller geben musste, um jederzeit Alternativen zu haben, falls ein Hersteller entweder nicht liefern konnte oder aber zu viel Geld haben wollte. Das Microsoft den Zuschlag für die Lieferung des Betriebssystems erhielt, war ein glücklicher Zufall für Microsoft. Bei IBM glaubte man, dass Microsoft aufgrund der Tatsache, dass sie auch eine Erweiterungskarte für den Apple lieferten, die entsprechende Kompetenz in diesem Bereich hatte. Gates verwies IBM zwar damals an den tatsächlichen Entwickler von CP/M Gary Kildell. Da die IBM Manager diesen aber bei ihrem Besuch nicht antraf, und dessen Frau die Vertraulichkeitserklärung von IBM auf Anraten ihres Anwalts nicht unterschreiben wollte, bekam dann Microsoft den Zuschlag, obwohl Microsoft über keinerlei Erfahrung in dieser Beziehung verfügte. Gates kaufte das Betriebssystem kurzerhand von einer anderen Firma auf, für einen Bruchteil des Betrages, den sie selbst von IBM erhielten und vermarktete dieses dann als MS-DOS. Da der PC aufgrund der standardisierten Komponenten und des frei verfügbaren (aber nicht kostenlosen) Betriebssytem von vielen Herstellern günstig produziert werden konnte, wodurch die Preise schnell sanken, setzte er sich gegen die Konkurrenzprodukte insbesondere von Commodore, Atari und Apple durch. Auch bürgte der Name IBM für Qualität, auch wenn diese nicht unbedingt gegeben war. PCs waren leichter und billiger zu erweitern als die Konkurrenzprodukte, da man nicht von einem Hersteller abhängig war. Diese günstige Konstellation ermöglichte Microsoft den Aufstieg.
Auch später lief Microsoft immer wieder dem Markt hinterher. Windows war erst aber der Version 3 halbwegs brauchbar, während es zu diesem Zeitpunkt mit GEM auf dem PC oder dem Macintosh von Apple schon wesentlich früher brauchbare grafische Benutzeroberflächen gab. Auch im Bereich der Textverarbeitung und der Tabellenkalkulation gelang es Microsoft schließlich die Marktführer zu verdrängen. Nicht zuletzt bei der Umstellung auf Windows hatte Microsoft hier aufgrund der Tatsache, dass sie durch den Informationsvorsprung als Hersteller von Windows hatten, einen erheblichen Wettbewerbsvorteil. Konkurrenten wurden in vielfältiger Hinsicht behindert.
So ließ sich Windows nicht unter DR-DOS installieren, da Windows bei der Installation die DOS Version abfragte und die Installation abbrach, wenn kein MS-DOS installiert war. Microsoft Produkte liefen unter Windows besser als Konkurrenzprodukte, da man bei Microsoft die geheimen Schnittstellen kannte.
Ende der 80er hatte Microsoft zusammen mit IBM begonnen einen DOS Nachfolger mit grafischer Oberfläche zu entwickeln. 1991 stieg Microsoft allerdings aus der gemeinsamen Entwicklung aus, um sich auf ihr eigenes Betriebssystem Windows zu konzentrieren. IBM brachte schließlich das Betriebssystem OS/2 allein auf den Markt. Allerdings konnte es sich aus verschiedenen Gründen nicht durchsetzen. Letztendlich war Microsoft inzwischen schon zu stark geworden. Auch unterstützen andere Softwarehersteller IBM nicht ausreichend.
Auch das Aufkommen des Internets verschlief Microsoft zunächst. Die Technologie dazu wurde schließlich von Spyglass lizensiert und der Internet Explorer darauf aufgebaut. Der Internet Explorer wurde ab Windows 98 untrennbar in das System integriert, so dass der normalen Anwender keinen Browser mehr extra installieren brauchte. Da der Internet Explorer zudem kostenlos und schließlich auch technologisch gleichwertig war, eroberte er schließlich die Marktführerschaft. Nachdem die Konkurrenz - vor allem Netscape - schließlich eliminiert war, da sich für diese die Entwicklung nicht mehr rechnete, wurde mit dem Erscheinen des Internet Explorers 6 im Oktober 2001 schließlich das Entwicklerteam für den Browser aufgelöst und die Weiterentwicklung gestoppt. Lediglich Sicherheitslücken wurden noch gestopft. Nachdem der Quellcode des Netscape Navigators als OpenSource freigegeben wurde, entwickelte Mozilla daraus zunächst die Mozilla Suite und dann später den Mozilla Firefox. Firefox wurde zunehmend erfolgreicher aufgrund der Sicherheitslücken des Internet Explorers und der größeren Leistungsfähigkeit und Neuerungen wie z.B. Tabbed Browsing aber auch die Möglichkeit den Browser durch Plugins zu erweitern. Daher war Microsoft gezwungen eine neue Version des Internet Explorers herauszubringen. Mit dem Internet Explorer 7 gelang es Microsoft leistungsmäßig wieder an die Konkurrenzprodukte heranzukommen. Allerdings ist Microsoft inzwischen mit Mozilla ein mächtiger Konkurrent bei den Browsern herangewachsen, der weil er von den Open-Source-Gemeinde getragen wird, wohl nicht mehr vom Markt verdrängt werden kann. Bereits 2004 sah sich Microsoft für Windows XP ein Service Pack 2 herauszugeben, welches eine sehr starke Erweiterung des ursprünglichen Betriebssystem war und daher schon fast als eine neue Version angesehen werden kann. Dieses Service Pack war nicht zuletzt aufgrund gravierender Sicherheitsmängel erforderlich geworden.
Anfang 2007 brachte Microsoft schließlich Vista heraus. Allerdings steht dieses aufgrund von Inkompatibilitäten und seines hohen Ressourcenverbrauch nach wie vor in der Kritik. Insbesondere Unternehmen zögern mit der Einführung von Vista. Praktisch zeitgleich mit Bill Gates ausscheiden endet auch der Verkauf von Windows XP. Allerdings musste Microsoft hier schon teilweise einen Rückzieher machen, da beginnend mit dem EEE-PC und auch mit dem neuen ATOM Prozessor von Intel eine neue PC-Klasse entstanden ist, für die Vista überdimensioniert ist.
Was lässt sich zusammengefasst sagen: Microsoft hat aufgrund eines glücklichen Zufall die Chance erhalten zunächst mit MS-DOS einen Industriestandard zu setzen. Der Großauftrag von IBM und die offene Architektur des IBM-PC machten dieses möglich. Diese Gelegenheit hat Microsoft dann entschlossen genutzt und mit teilweise fragwürdigen Methoden seine Konkurrenten ausgeschaltet. Seine starke Stellung im Betriebssystembereich, die damit verbundenen hohen Gewinne und die Insiderkenntnisse ermöglichten es Microsoft später auch im Officebereich die Marktführerschaft zu erlangen. Obwohl Microsoft sich offiziell über sogenannte Raubkopien beklagte, wurde es stillschweigend akzeptiert, was den Aufstieg durchaus förderte. Erst mit Windows XP begann Microsoft mit technischen Maßnahmen gegen Raubkopien. Zu diesem Zeitpunkt war die Marktmacht von Microsoft allerdings schon so groß, dass ein Großteil der Rechner ohnehin mit vorinstalliertem Windows ausgeliefert wurde. Damit hielt sich die Verärgerung des Nutzers über diese Methoden in Grenzen.
Allerdings sind in den letzten Jahren Microsoft neue mächtige Konkurrenten erwachsen, die nicht so ohne weiteres vom Markt verdrängt werden können, da sie von einer breiten Entwicklergemeinde einerseits und großen Hardwareherstellern wie z.B. IBM und Sun getragen werden. Mit Open Source Software ist ein neues Geschäftsmodell entstanden, das Microsoft langfristig gefährlich werden kann. Im Betriebssytembereich wird Linux immer mehr zum ernsthaften Konkurrenten. Als Server-Betriebssystem hat Linux im Internetbereich seit langem eine überragende Stellung. Aber auch bei den klassischen Unternehmensservern zeichnet sich eine Aufteilung des Marktes auf Linux und Microsoft Windows Server ab. Klassische Serverbetriebssysteme wie Unix und Novell Netware verlieren dagegen zunehmend an Bedeutung. Im Bereich der embedded Software ist hingegen Linux aufgrund seiner enormen Flexibilität fast unschlagbar. Im Desktop Bereich dagegen ist Linux bisher noch unterrepräsentiert. Allerdings hat sich auch in diesem Bereich in den letzten Jahren viel getan. Programme wie OpenOffice, Mozilla Firefox und Mozilla Thunderbird sind echte Alternative zu den entsprechenden Microsoft Produkten. Für viele wichtige Anwendungsbereiche kann inzwischen ein Linux PC genau so gut eingesetzt werden wie ein Windows PC. Letztendlich kann dieses für die Zukunft nur positives hoffen lassen. Schon beim Internet Explorer hat man gesehen, wohin es führt, wenn Microsoft keinen ernsthaften Konkurrenten mehr hat.
Zum Abschluss meine persönlichen Bewertung der Microsoft Betriebssysteme
MS-DOS 2.11 war das erste halbwegs brauchbare Betriebssystem
MS-DOS 3.2 erlaubte den Zugriff auf 3,5" Disketten allerdings nur mit 720 KB
MS-DOS 3.3 erlaubte den Zugriff auf 3,5" Disketten mit 1,44 MB,
MS-DOS 4.01 erlaubte zwar den Zugriff auf Festplatte mit mehr 32 MB, gefiel mir allerdings sonst nicht besonders
MS-DOS 5.0 enthielt die DOS Shell und erlaubte die Taskumschaltung, was ein großer Vorteil war, da hier erstmals mehrere Anwendungen gleichzeitig laufen konnte. Bis dahin musste eine Anwendung erst beendet werden, bevor eine andere benutzt werden konnte. Gerade im betrieblichen Umfeld, wo häufiger zwischen verschiedenen Anwendungen wechseln musste (z.B. zwischen Textverarbeitung und Warenwirtschaft) brachte dies eine erhebliche Erleichterung
MS-DOS 6.0 erlaubte die Nutzung von CD-ROM Laufwerken
MS-DOS 6.22 die letzte eigenständige MS-DOS Version. Insbesondere die Datenkompression auf der Festplatte war angesichts der damals noch geringen Festplattenkapazitäten ein großer Vorteil.
Windows 1 war nicht besonders brauchbar, nicht zuletzt aufgrund fehlender Anwendungen
Windows 2.03 war zwar einigermaßen brauchbar, aber trotzdem verzichtbar, da die meisten Anwendungen nach wie vor unter DOS liefen. Der Ausdruck meinem Nadeldrucker war quälend langsam und fürchterlich laut.
Windows 3.1 die letzte Version von Windows, die noch ein eigenständiges DOS erforderte. Allerdings das Windows, das Windows den Durchbruch brachte. Es konnten mehrere Anwendungen gleichzeitig laufen. Während unter DOS noch jedes Programm seinen eigenen Druckertreiber benötigte, hatte Windows eine zentrale Ressourcenverwaltung
Windows 95 brachte eine völlig neue Oberfläche, die im großen und ganzen bis heute unverändert blieb. Erstmals wirkte Windows für den Normalanwender wie ein komplettes Betriebssystem und nicht nur wie eine grafische Betriebssystemerweiterung für DOS. Gleichwohl war es eigentlich DOS 7 mit Windows 4.
Windows NT war die Firmenversion. Allerdings gab es insbesondere mit älteren DOS Anwendungen kleine Probleme. Es brachte erstmals eine echte Benutzerverwaltung mit. Allerdings war diese Version nicht besonders für das Internet geeignet. Auch die USB Schnittstelle wurde noch nicht unterstützt. Es war auch das erste Windows welches nicht mehr auf DOS basierte.
Windows 98/SE war eine deutlich verbesserte Version von Windows 95 und brachte erstmals die USB Unterstützung mit
Windows ME war eine Version über die man besser nicht redet. Ich habe sie nie eingesetzt.
Windows 2000 ist bis heute wohl eine der besten Windows Versionen. Es ist der Nachfolger von Windows NT. Obwohl Windows 2000 offiziell bereits 18 Monate später durch Windows XP Pro abgelöst wurde, hielt es sich in Unternehmen recht lange. Da es noch bis 2010 mit Sicherheitsupdate unterstützt wird. ist es in vielen Unternehmen durchaus noch aktuell. Es war auch das letzte Windows, welches ohne Zwangsregistrierung auskam. Bis heute ist Windows 2000 für die meisten Anforderungen ausreichend.
Windows XP hob die Trennung der Entwicklung in die Windows NT/2000 Schiene und die Windows 9x/ME Schiene auf. Damit verabschiedete Microsoft sich endgültig von DOS. Allerdings brauchte es insbesondere im Unternehmensbereich lange, um sich durchzusetzen. Hinzu kam mit Windows XP die lästige Zwangsaktivierung. Bei umfangreichen Umbauten muss die Lizenz erneut aktiviert werden. Da Windows XP gegenüber Windows 2000 keine großen Verbesserungen bietet, gibt es auch für Firmen kaum Gründe von Windows 2000 auf XP umzustellen. Aufgrund der großen Sicherheitsprobleme mit Windows XP musste Microsoft 2004 mit dem Service Pack 2 gewaltig nachbessern und brachte etliche neue Funktionen. Windows XP mit Service Pack 2 wird entwicklungstechnisch von Microsoft wie eine neue Version behandelt. Wenn der Support für XP 2014 ausläuft, wird es das Betriebssytem sein, welches von Microsoft am längsten supportet wurde.
Windows Vista brachte eine völlig überarbeitete Oberfläche mit sich. Es ist auch das erste Windows, welches einen Internet Zugang zwingend voraussetzt. Außerdem hat Vista gegenüber XP einen erheblich höheren Ressourcenverbrauch. Für die neue Geräteklasse der preisgünstigen Subnotebooks wie den EEE-PC oder den MSI-Wind ist Vista daher ungeeignet. Für künftige Versionen muss Microsoft das Betriebssystem erheblich abspecken und weniger ressourcenhungrig machen. Einige größere Firmen haben bereits angekündigt Vista zu überspringen. Mit Vista steht meiner Ansicht Microsoft an einem Wendepunkt.

Nachtrag zu meinen DSL Problemen

Zwischenzeitlich habe ich die Online-Rechnung für den letzten Monat erhalten. Der Einzelverbindungsnachweis für meinen DSL Zugang war insgesamt 74 Seiten lang. Da kann man nur froh sein, dass diese Rechnung nicht per Post gekommen ist.

Neues vom Reiher & Internetprobleme

Nachdem ich zwischenzeitlich Probleme mit meinem normalen DSL Anschluss hatte, habe ich übergangsweise auf meinem Windows 2000 Rechner einen Jana-Server als Proxy eingesetzt, der eine Internet Verbindung über einen anderen Zugang realisierte. Danach traten das Problem auf, das HAL nicht initialisiert werden konnte. Die Folge war das der Rechner insbesondere bei abmelden erst nach langer Wartezeit auf den Befehl reagierte. Wie sich nach längerer Suche dann herausstellte, lag das Problem an einer falscher Adresse für den DNS Server. Da der normale DNS Server nicht zur Verfügung stand, versuchte der Rechner die DNS-Auflösung über einen nicht eingeschalteten PC, so dass er keine Antwort bekam. Nach Einsetzen der Adresse des Proxy-Servers funktionierte, war der Fehler schließlich verschwunden.
Vom DSL Anbieter hörte ich zunächst die Auskunft, daß dort eine Großstörung vorläge und ich mich etwas gedulden solle. Da ich mit dem Proxy-Server eine einigermaßen zufriedenstellende Lösung für mein DSL Problem hatte, habe ich nach dieser Information zunächst nochmal knapp 2 Tage abgewartet, bevor ich mich nochmals mit meinem DSL Anbieter in Verbindung gesetzt habe. Zwischenzeitlich hatte ich immer mal kurze Phasen bis zu maximal etwas mehr als 1 Stunde, in denen der Anschluss einwandfrei funktionierte. Laut Auskunft der Technik war auf Seiten meines DSL Anbieters alles in Ordnung, es wurde der Verdacht geäußert, das meine Fritz!Box einen Defekt hatte. Da ich noch einen zweiten Router im Haus hatte, habe ich die Fritz!Box gegen einen Netgear WLAN Router ausgetauscht. Als ich mit Firefox 3 Beta 5 auf diesen zugreifen wollte, bekam ich aber keine Verbindung. Über meinen Windows 2000 Rechner schaffte ich es dann, Zugriff auf den Router zu bekommen, so daß ich ihn dann entsprechend konfigurieren konnte, wobei ich die IP des Routers auf den normalen Nummernkreis meines Netzes umgestellt habe.Der Router bekam somit die alte IP-Adresse meiner Fritz!Box. Der WLAN-Zugriff wurde von mir allerdings deaktiviert, da ich ohnehin eine Kabelverbindung zum Router habe. Danach lief der DSL Zugang wieder. Vermutlich ist also wirklich die Fritz!Box defekt, was aber nicht unbedingt nahelag, da nach dem ersten DSL-Ausfall die Box noch knapp 4 Tage tadellos funktioniert hatte. Interessant bleibt allerdings festzustellen, daß ich nicht in der Lage war, mit Firefox 3 Beta 5 den Router zu administrieren. Erst als ich in der hosts Datei die Zuordnung der IP zur fritz.box gelöscht habe, die ich dort wegen der zeitweiligen Proxy-Nutzung eingebaut hatte, und die Seite neu geladen habe, war dieses Problem gelöst. Manche Dinge sind halt sonderbar.
Durch die Proxy-Lösung habe ich jetzt wenigstens die Möglichkeit, bei Bedarf vom Ubuntu auf meinen derzeit vorhandenen 2. DSL Anschluss zuzugreifen. Diesen zweiten Anschluss habe ich, da ich bis Februar hier einen T-ISDN Anschluss und mit einem Resale-DSL Anschluß von AOL hatte. Diese zwei Verträge habe ich in zwei getrennte Anschlüsse umgewandelt, was den Vorteil mit sich bringt, dass ich nun auch neben der Internet Flatrate auch eine Telefon-Flatrate ins deutsche Festnetz habe. Da der alte AOL DSL Vertrag laut AOL noch bis Ende 2008 läuft, habe ich von der Möglichkeit Gebrauch gemacht mit meinem DSL Anschluss zu Alice zu wechseln, wo ich jetzt mit einer Frist von vier Wochen kündigen kann. Der Telefonanschluss war bereits vorher auf einen regionalen Anbieter mit Telefon- und DSL Flatrate und echtem ISDN Anschluss (kein NGN wie z.B. bei Alice) umgestellt worden. Für eine bestimmte Übergangszeit werde ich nun beide Anschlüsse nutzen. Auf längere Sicht wird der Alice Anschluss allerdings wieder abgeschaltet, weil es mir zu teuer ist. Zu Testzwecken ist es aber nicht schlecht mal für eine gewisse Zeit zwei DSL Anschlüsse zu haben. Außerdem ist der Alice Anschluss deutlich schneller, da Alice ohnehin die maximal verfügbare Bandbreite schaltet, weiß ich nun auch welche Bandbreite hier verfügbar ist. Im Vergleich zur Situation bis Februar 2008 ist es nun, so dass ich für etwa 12 € mehr im Monat nun einen zweiten DSL Anschluß, einen zusätzlichen Telefonanschluss und für alle Telefonanschlüsse Sprachflatrates ins Festnetz habe. Hinzu kommen noch die Zugaben seitens des Telefonanbieters, die auf die Vertragslaufzeit etwa 3 € an Gutschriften und der zusätzliche WLAN Router (Wert ca. 50€). Damit dürfte sich ein effektiver Mehrpreis von 7 € im Monat, wenn beide Verträge über die vollen 24 Monate laufen würden, was aber für den Alice Vertrag definitiv nicht gelten soll. Davon sind allerdings noch die Einsparungen durch die Telefonflat abzuziehen, so dass sich ungefähr +/- 0 ergibt, was die Gesamtkosten beträgt.

Erste Erfahrungen mit dem Reiher

Leider gab es nach dem Update doch einige Probleme, die mir zunächst nicht aufgefallen. So funktioniert die Aktualisierungsverwaltung bisher noch nicht richtig. Auch die Nachinstallation von Programmen über Hinzufügen/Ändern oder Synaptic wollte zunächst nicht funktionieren, ebenso wie der sudo Befehl. Nachdem ich in der hosts Datei den Rechnernamen ohne die Domain eingetragen habe, ist zumindest die Installation von Programmen über Synaptic wieder möglich. Update muß ich derzeit immer noch über die Konsole mit sudo apt-get einspielen. Hier scheint also noch etwas Nacharbeit erforderlich.
Beim Abspielen von Flash-Videos über den VLC-Player fehlte zunächst der Ton. Erst nach Umstellung des Players auf Pulse-Audio war das Problem behoben. Bei Totem hingegen wurden Flash-Videos gar nicht gestartet. Da ich aber bei bestimmten Flash-Videos schon bei Gutsy Probleme mit der Bildqualität habe, werden heruntergeladene Flash-Videos ohnehin nur mit dem VLC-Player abgespielt.
Somit bewahrheitet sich wieder die alte EDV-Weisheit: Never touch a running system. Aber nun habe ich erstmal mindestens 3 Jahre Ruhe. Ob es sich dann noch lohnt, diesen dann etwa 8 Jahre alten PC nochmals upzugraden, ist eine andere Frage.

Der Reiher ist gelandet.

Es ist geschafft. Das Update auf die Ubuntu 8.04 LTS (Hardy Heron, inoffizielle Übersetzung kühner Reiher) ist abgeschlossen. Nach mehreren Stunden Download aufgrund der überlasteten Server und einer aufgrund meines doch etwas älteren Rechner etwa 90 Minuten langen Installation läuft nun Ubuntu 8.04 LTS auf meinem Rechner. Sowohl der Apache Server als auch der Samba Server laufen auch nach dem Update einwandfrei. Auch sonst habe ich bis jetzt noch keine besonderen Probleme festgestellt. Im Vergleich zum letzten Update (Ubuntu 7.04 auf Ubuntu 7.10) lief dieses Update diesmal unproblematisch. Auch die recht lange Downloadzeit ist durchaus noch im Bereich des Erträglichen, wenn man bedenkt, dass ich dieses Release am Erscheinungstag heruntergeladen habe.
Firefox 3 Beta 5 macht einen recht stabilen Eindruck. Leider funktionieren bestimmte Add-Ons wie Linkifikation noch nicht, was aber nur ein Übergangsproblem darstellen sollte. Andererseits scheint Firefox 3 bei bestimmten Downloads sogar schneller zu reagieren.
Wie schon in einem vorherigen Beitrag erwähnt, ist dieses zumindest für die nächsten 3 Jahre wohl das letzte Update auf diesem Rechner, angesichts der Tatsache, dass der Rechner inzwischen auch schon mehrere Jahre alt ist, wohl auch überhaupt das letzte Update überhaupt. Vor allem da erst in 2 Jahren überhaupt ein Release erscheint, welches länger supportet wird als das jetzige.

Update vom 29.07.2008
Linkifikation funktioniert inzwischen, allerdings erst nachdem ich es neu installiert habe.