Ein verhängnisvolles RAM-Update.

Mitte Juli habe ich meinem PC ein größeres Arbeitsspeicher-Upgrade gegönnt. Die bis dato installierten 2 Gigabyte haben sich immer häufiger als Engstelle in der Arbeit erwiesen. Ich bin nun mal jemand, der punktuell sehr heftig arbeitet und wer schon mal Photoshop, Illustrator, Sony Vegas (Videoschnitt), nebenbei dann auch Firefox, Thunderbird und Tweetdeck geöffnet hält, merkt sehr schnell, dass 2 Gigabyte Arbeitsspeicher nicht mehr viel sind. Zuletzt machte dann auch der Nvidia-Grafiktreiber immer häufiger die Grätsche wegen Speichermangels.

Bei den aktuellen Speicherpreisen habe ich dann kurzfristig beschlossen, gleich den ganz großen Hammer zu holen und den Rechner auf volle 8 Gigabyte Arbeitsspeicher aufzurüsten. Vier mal 2 Gigabyte-Riegel und das dann mit einem netten Preis meines Haus-und-Hof-Hardwarelieferanten und gut. Da ich meinen Dualcore-Rechner schon von Anfang an mit einem 64-Bit-Windows betreibe, ist der Speicher soweit auch nutzbar. Und ich merke dieses Upgrade sehr deutlich, denn der PC ist zwar nicht schneller in seiner Verarbeitung (Dualcore 2,1 GHz reichen mir allerdings noch), allerdings läuft einfach mehr gleichzeitig.

Was ich allerdings nicht bedacht habe, ist der Umstand, dass RAM-Riegel defekt sein können. Und das war dann auch einer der vier Riegel. Gemerkt habe ich das gar nicht mal so direkt, sondern eher an subtilen Symptomen – unvermittelte Programm- und Diensteabstürze, merkwürdige Verarbeitungsfehler und heute Mittag dann mal ein inzwischen extrem selten gewordener Besucher – ein Bluescreen. Immerhin gingen keine Daten verloren.

Der lotste mich dann immerhin auch in die richtige Richtung. Die Meldung “PFN_LIST_CORRUPT” ist ein sehr deutlicher Hinweis darauf, dass der Arbeitsspeicher an einer Stelle fehlerhaft arbeitet. Also, Speicherriegel nacheinander und einzeln mit dem Memorytest im BIOS überprüft und tatsächlich einen Riegel gefunden, der Speicherfehler hat.

Immerhin war der Umtausch des Riegels bei der Firma Arlt mehr als unkompliziert. Ein kurzer Anruf, kurz vorbeigeschaut, freundlich bedient, eine Garantierechnung unterschrieben und schon gab es einen neuen Riegel. Der nun auch funktioniert. Warten wir es mal ab.

Hardware-Aufrüstungen.

Über’s Wochenende, gestern und heute war es an dieser Stelle ruhig, was auch daran liegt, dass einige hardware-spezifische Entscheidungen zu treffen und umzusetzen waren. Angenehmerweise ließen sich die meisten Dinge zueinander aufbauend regeln und entscheiden.

Windows 7 auf dem PC

Die Lizenz war schon vor einigen Wochen gekauft und wartete eigentlich nur darauf, endlich einmal installiert zu werden. Am Samstag ergab sich dann die Chance deshalb, weil ich plötzlich mit meinem vor drei Jahren installierten Windows Vista ein unangenehmes Problem bekam – die meisten Elemente der Systemsteuerung verursachten beim Aufruf den Absturz der explorer.exe. Das sind dann sehr elementare Probleme, den die explorer.exe ist der Fenstermanager von Windows und der stürzt eigentlich nur dann ab, wenn ihm irgendein anderes Programm oder ein Dienst in die Quere kommt. Fehleranalyse ist, wenn die Ereignisanzeige nichts besagt, quasi aussichtslos. Eine Wiederherstellung eines früheren Wiederherstellungspunktes fiel flach, weil – klar – eben auch genau dieser Programmpunkt in der Systemsteuerung nicht mehr starten wollte.

Kurzum, die Windows-7-Lizenz brachte sich freundlich in Erinnerung. Der erste Gedanke, einfach ein Upgrade auf die bestehende Vista-Installation zu machen und dann weitgehend (hoffentlich) keine Probleme zu haben, ließ ich gleich fallen, denn das beobachtete Problem mit der explorer.exe ließ mich misstrauisch werden und außerdem bin ich immer noch ein Fan von frischen und sauberen Windows-Installationen, zumindest bis zur Installation von iTunes. 😉

Speicherplatzmangel auf der Festplatte

Den Speicherplatzmangel hatte ich eigentlich schon beim Versuch, das Upgrade von Windows 7 zu starten, denn das ging mit meiner Konstellation insofern nicht, da das Setup gern 16 Gigabyte freien Speicherplatz auf der Systempartition sehen wollte, was ich jedoch nicht hatte. Kurzfristige Verschiebeaktionen führten nur bedingt zum Ziel, so dass bei der Gelegenheit zwei Lösungsmöglichkeiten zur Wahl standen: Neue Festplatte oder endlich mal die Anschaffung einer NAS, einem Network Attached Storage.

Es lief dann auf letzteres hinaus. Das hatte nicht nur seinen Grund mit quasi unendlich viel Speicherplatz (aus heutiger Sicht), sondern vor allem auch mit dem Damoklesschwert der sicheren Speicherung von Daten. Bisher habe ich mir immer damit ausgeholfen, dass ich die wichtigsten Daten auf meiner Festplatte in einer eigenen Partition und in streng organisierten Verzeichnisstrukturen abgelegt habe, die ich dann manuell auf diverse USB-Sticks wegsicherte. Das funktionierte mehr schlecht als recht, denn manuelle Backups macht man nie und im Ernstfall wäre Datenverlust höchstwahrscheinlich unumgänglich gewesen.

Eine NAS

Also eine NAS gekauft, und zwar eine Buffalo Link Station Duo 2 TB. Zwei 3,5-Zoll-Festplatten mit je 1 Terabyte Speicherplatz, die zusammen in einem RAID-1-Array organisiert werden können, sich also spiegeln. Fiele eine Platte aus, wäre die andere noch da und da beide alle abgelegten Inhalte spiegeln, gibt es theoretisch keinen Datenverlust.

Auf die Link Station Duo bin ich eigentlich darauf gekommen, dass sie mit schlappen 220 Euro die billigste NAS in der Kapazitätsklasse ist und von einem Markenhersteller kommt. No-Name-Ware kommt mir bei Datenspeicherung grundsätzlich nicht ins Haus und bei einigen fernöstlichen Marken halte ich bei dieser Thematik auch freundlichen Abstand. Am liebsten wäre mir ja aus Systemadministratorzeiten ja ein Gerät von QNAP gewesen, allerdings liegt selbst das Einsteigermodell beim mehr als Dreifachen des Preises der Link Station Duo und da sind dann noch keine Festplatten dabei …

Was bei der Buffalo Link Station Duo spontan auffällt, ist die atemberaubend schlechte Web-Oberfläche, die mit der Beta 2 von Firefox 4.0 einfach mal gar nicht läuft – sofort nach dem Login wird gemeldet, dass die Sitzung abgelaufen wäre. Mit dem IE 8 sieht das schon besser aus, allerdings ist die Oberfläche derart zäh, dass es keine Freude ist, die Box zu konfigurieren. Dazu kommt, dass dem Gerät keine Anleitung beiliegt (eine grassierende Unart, muss man echt mal so sagen) und das Handbuch nur umständlich über die Web-Oberfläche zu bekommen ist, da immerhin mit einem Link auf die japanische Website von Buffalo.

Ansonsten glänzt das Gerätchen mit Schnelligkeit und vieeeeeel Platz. Nach Auslagern meiner Musikbibliothek und meiner Fotos mit insgesamt 20.000 Dateien sind gerade mal 4,7 Prozent des Speicherplatzes belegt. Und die Anzeige, dass die Speicherkapazität insgesamt 984.697.667.584 Bytes betrüge, macht einfach etwas her. 🙂

Detailierter Bericht zu dieser NAS folgt.

Ein Switch, ein Switch!

Ich habe mir heute tatsächlich einen Switch gekauft! Jetzt echt mal. Um dieses Thema habe ich mich nun erfolgreich siebzehn Jahre drücken können, aber heute war es mit der Lieferung der NAS unumgänglich. Ein D-Link 5-Port-Switch mit 10/100-MBit-Ports – und das war eine dämliche Entscheidung, denn ohne Gigabit-Switch macht der Datentransfer zwischen PC und NAS – zumindest beim initialen Verschieben von Daten – absolut keine Laune. Nun gut, für den ersten eigenen Switch meines Lebens sind die 20 Euro gut angelegt.

Aber nennt es gern den Treppenwitz des Jahres, dass ein ehemaliger Systemadministrator, Internet-Fachmensch und Computerbesitzer seit 21 Jahren erst nach genau diesen 21 Jahren seinen ersten Switch gekauft hat.

Apple Protection Plan für iPad

Und weil ich Ende letzter Woche so in Geberlaune war, habe ich die Garantieerweiterung für mein iPad gekauft. Das gab es als Schnäppchen anstatt für 99 Euro für schmale 81 Knödel. Ein richtig freiwilliger Kauf ist das allerdings nicht, denn ich ahne, dass mein jetziges iPad nicht mein ewiger Begleiter sein wird und demnächst eine Reise zur Reparatur/zum Austausch antreten wird. Schon nach zwei Wochen fand sich hinter der Displayscheibe und vor dem eigentlichen Display die ersten Staubteilchen, was sehr für eine eher miese Verarbeitung spricht. Und tatsächlich sitzt der Feind zwischen Glasscheibe und dem Alurahmen, denn das, was da als Dichtungsring verbaut ist, hat ein Spaltmaß, dass es einem die Barthaare aus der Backe zieht.

Was noch?

Nichts mehr. Der Festplattenkauf am PC hat sich nun glücklicherweise erledigt und da man mit Windows 7 inzwischen sehr komfortabel Partitionen erweitern kann, konnte ich nun der Systempartition endlich den Platz gönnen, den sie mittelfristig brauchen wird.

Ansonsten sollte nun bitteschön alles laufen und möglichst wenig Ärger machen, denn die Hardwareinvestitionen sind jetzt am Limit.

Hire-and-Firewire.

Hardware, die mit Firewire zu tun hat, also meist Firewire-Controller, gehört bei mir in meiner ewigen Hitliste der defektgegangenen Hardware zu den absoluten Gewinnern. Mit keiner anderen Hardwaregruppe habe ich im Laufe der Jahre so viele Defekte gehabt, wie damit. Zu diesem Friedhof gehören: Zwei PCI-Controller, 1 PCMCIA-Karte, 1 PC-Card, 1 Buchse an einem Sony-Camcorder.

Ich bin mir nicht so ganz sicher, was die Ursache dieser wirklich auffälligen Fehleransammlung ist, es sind jedoch einige Dinge, die mich an Firewire stören:

  1. Die verhältnismäßig starren 4-Pin-Stecker (das ist der „kleine“ Firewire-Stecker“). Die „Männchen“ sind fast so lang wie ein USB-„Männchen“, aber erheblich kleiner. Dazu kommt, dass der Stecker viel weniger Toleranz hat, als ein USB-Stecker und in kleineren Arbeitsumgebungen viel schneller mal eben die Buchse ruiniert ist. Das ist mit beim Camcorder passiert, der aber immerhin auf Garantie repariert wurde. Bei Camcordern und bei Profikameras ist nicht auszudenken, wie teuer eine entsprechende Reparatur wird, bei Sony allemal.
  2. Geschirmte und damit ebenfalls starre Kabel machen die obige Situation am Arbeitsplatz und Unterwegs nochmal ein Stück prekärer. Vor allem Adapterkabel, die an einem Ende den „kleinen“ 4-Pin-Stecker und am anderen den „großen“ 6-Pin-Stecker haben, sind richtig „ungelenkige“ Kabel und zerren mit ihren Steckern mitunter hübsch an der Buchse.
  3. Schlechte Abschirmung bei statischer Aufladung setzen auch Firefire ordentlich zu, denn die meisten Schnittstellen – da zählt auch USB dazu – haben auf Controllern oder auf dem Mainboard nur sehr eingeschränkte Toleranzbereiche in Sachen statischer Aufladung. Dieses Thema ist bei „toten“ Gerätschaften wie USB-Sticks kein wirkliches Thema, bei fremdgespeister Technik wie eben akkubetriebenen Camcordern, die bei der Übertragung möglicherweise per Ladegerät am Stromnetz hängen, durchaus ein Thema. Wie stark genau, kann ich leider nicht einschätzen, aber die Controller-Ausfälle sehe ich durchaus in diesem Zusammenhang.
  4. No-Name-Hardware mit entsprechend schlechtem Support setzt dem ganzen Drama dann noch das Krönchen auf.  Die meisten Controller arbeiten mit üblichen Chipsätzen (bzw. einem einzigen Chip), für den es für Windows mitgelieferte Treiber gibt – und das war es dann auch. Analysetools, die man bei teurerer und besserer Hardware bekommen würde, gibt es in diesem Bereich in der Regel nicht, so dass man einzig und allein auf den Windows-Gerätemanager angewiesen ist, der in der Regel aber nur anzeigt, ob ein Gerät eben nun geht oder nicht.

Würde USB so zicken, wie Firewire das bisweilen tut, würden wir heute wirklich noch mit Disketten arbeiten müssen. Und das ist gerade deshalb bitter, weil Firewire in seinem Ur-Format (IEEE 1394a) schon eine überlegene Übertragungsbandbreite von 400 Megabit pro Sekunde übertragen kann und einen Übertragungsbus mit mehreren Firewire-Geräten weitgehend autonom organisiert, ohne dass man sich mit ID oder externen Terminatoren herumschlagen müsste. Wer sich mal mit SCSI herumschlagen musste, weiß das zu schätzen. Aber bei der jetzigen Ausfallquote fällt mir das wirklich schwer, von einem Fortschritt zu reden. 🙁