• Magie der Defragmentierung.

    Ich war ja eigentlich kurz davor, mich bitterlich über die Remote-Desktop-Performance von Windows Vista zu beschweren, weil die essentiell für mich ist. Vermutlich bin ich länger per Remote Desktop auf meiner privaten Kiste, als direkt an der Konsole, deshalb ist das schon ein erheblicher Leidensdruck gewesen die letzten Wochen.

    Ich hätte natürlich auch einfach mal den Kauf der aktuellen Version von Raxco PerfectDisk vorziehen können, sozusagen der Rolly-Royce unter den Windows-Defragmentierern. Und siehe da: Nach einem zweistündigen Durchlauf und vor allem einem Defragmentieren und Optimieren der Auslagerungsdatei sieht die Welt schon wieder runder aus. Mit 30 Euro war das an sich ein Schnäppchen, ich kann mich erinnern, dass die früheren Versionen teurer waren.

  • Warum USB-Sticks als Werbegeschenke mit Vorsicht zu genießen sind.

    Unlängst ist mir ein USB-Stick untergekommen, der als Werbegeschenk von einem befreundeten Unternehmen verteilt wird. Das Unternehmen ist technisch etwas unbegabt, was aber überhaupt kein Problem ist, da wir zugegebenermaßen auch recht unbegabt in der Materie sind, die der das Unternehmen zu den Weltmarktführern gehört.

    Rein optisch gefiel mit der USB-Stick ganz gut, weil er komplett in einem Metallgehäuse steckt und an sich einen robusten Eindruck macht. Auf dem Stick ist optisch recht nett das Firmenlogo eingeätzt, das Ding erfüllt augenscheinlich seinen Zweck als edles Werbegeschenk ganz gut.

    Eben aber nur augenscheinlich, denn der USB-Stick ist leider unzuverlässig. Das USB-Stick-Testprogramm der c’t zeigte nach einer spaßeshalber durchgeführten Prüfung, dass von 512 Megabyte Speicherkapazität insgesamt 2,2 Megabyte defekt sind. Das ist enorm, wenn man bedenkt, dass eigentlich 0,0 Bytes in einem USB-Stick defekt sein sollten. Ärger ist dann vorprogrammiert, wenn man das Ding nett der Kundschaft schenkt, die Kundschaft die USB-Sticks eifrig nutzt, damit dann Daten verliert und auf dem Stick wunderschön das Firmenlogo prangt.

    Ergo: Vorsicht bei personalisierten USB-Sticks als Werbegeschenke. Auf Qualität achten, nicht das günstigste wählen, den Lieferanten um mehrere Muster zum Testen bitten und bei bestellter Ware Stichproben machen.

    Für Beschenkte gilt: Vorher den USB-Stick testen! Also frisch formatieren und mit obigem Programm einmal komplett beschreiben und auslesen lassen.

  • Sternenhimmel.

    Irgendwie kommt mir in der HP-Prämienwelt der Stern im symbolisierten Kopf sehr bekannt vor. 😉

    Ist aber nur auf den ersten Blick ähnlich. Zum einen haben meine netplanet-Sterne nur sieben Beinchen (weiß der Geier, warum) und zum anderen symbolisieren meine Sterne einzelne Netzwerke, während mir der Sinn der HP-Sterne im Kopf unerfindlich bleibt. Naja, nicht jede gut aussehende Idee muss auch etwas symbolisieren.

  • Huch, ein paar IP-Adressen!

    ICANN hat heute gestern in einer Pressemeldung verkündet, dass, wie der Zufall es will, doch noch ein großer IP-Adressblock für die IP-Adressvergabe zur Verfügung steht. Genau handelt es sich um 14.0.0.0/8, also ein „Class-A“-Netzwerk. Dieses Net-14 war bislang reserviert für andere Netzwerke, die mit dem Internet verbunden werden sollten. Sprich: Uralte Historie und schon seit Jahren schlicht ein geparkter Netzblock – wie übrigens noch weitere 43 (!) Netzblöcke in der gleichen Größe, die zu Urzeiten Firmen wie IBM und Daimler-Benz (inzwischen durch ständige Weitergabe der IT-Sparte gehörig zu T-Systems) vergeben wurden und die damit weitgehend nichts anfangen.

    Keine Frage: Der Umstieg auf IPv6 ist sinnvoll. Je früher der Wechsel stattfindet, desto besser für das Internet und die zukünftige Adressvergabe. Das plötzliche Finden von Net-14 aber mit dem Spruch zu kommentieren, „man habe nun wieder etwas Luft zu atmen“, ist angesichts der noch riesigen Netzblöcke, die brachliegen, etwas seltsam. Wenn jetzt jede zukünftige Pressemeldung so geschrieben wird, wenn wieder plötzlich ein neues, altes Netzwerk aus der Schublade springt, macht das die Angelegenheit sicherlich nicht wenig prekärer.

  • Der rote Faden in Sachen Multiblogging.

    Ich überlege ja nun schon eine Weile im Hinterkopf, wie ich denn meine Multiblogging-Aktivitäten, also das Schreiben in mehreren Blogs, sinnvoll aggregieren kann. Wer das alte BesimBlog noch kennt, dem kann ich sagen, dass ich das deswegen eingestellt habe, weil es irgendwann thematisch so aus dem Ruder gelaufen ist, dass es überhaupt keine sinnvolle Basis mehr hatte.

    Ich bin da durchaus Verfechter der stark konservativ müffelnden Meinung, dass ein vernünftiges Blog in den meisten Fällen nicht zu viel Themen verträgt und dass man sich gerade mit politischen Meinungen, etwas ungeschickt vorgetragen, leider sehr viel Kundschaft vergrault. Offenkundig nehmen viele Leute einem zu laut hingestellte Thesen nicht immer gern ab, was mich zu der eher unangenehmen Erkenntnis gebracht hat, dass vor allem die Leute, die von sich gern sagen lassen, sie seien besonders liberal gegenüber anderen Meinungen, oft genug furchtbar konservativ reagieren und umgekehrt. Egal, das schweift hier etwas ab. Jedenfalls brachte es mich im Sommer dazu, dass BesimBlog einzustampfen und dieses Blog hier zu beginnen, weil ich ursprünglich eigentlich genau den Internet-Schwerpunkt ja bloggen wollte. Die politischen Ansichten sind in ein Blog ausgelagert, dass in der Blogroll rechts angesteuert werden kann. 😉

    Um nochmal auf den einleitenden Punkt zu kommen: Wie aggregieren? Und vor allem: Wie die alten Inhalte des BesimBlog verwursten? Diese Inhalte sind mir nach wie vor zu schade, sie einfach zu löschen. Die Lösung für dieses Dilemma kam mir (und ich weigere mich, weiter Gedanken darum zu machen, warum ausgerechnet dann), als ich gestern nachmittag zufällig zwei Folgen der Schwarzwaldklinik (jessas… 23 Jahre alt!) anschaute und etwas in alten Zeiten schwelgte und offenbar gut den Verstand defragmentieren konnte.

    Will man sinnvoll aggregieren, braucht es ein Portal. Eine zentrale Anlaufstelle, außerhalb der eigentlichen Kampfplätze, auf weitgehend neutral wirkendem Gebiet. In meinem Fall ist das meine Domain karadeniz.de, die eh weitgehend auf der Startseite brachliegt, allerdings einige dahinterliegende Projekte trägt. Hier lässt sich praktikabel mit einer der ultraschicken WordPress-Magazin-Layouts recht einfach ein entsprechendes Portal einrichten und auch die Feeds der Blogs einbinden, in denen ich schreibe. Und gleichzeitig lässt sich hier nebenbei der Inhalt des alten BesimBlogs würdig endlagern.

    Ich denke, ich ziehe mir nächsten Samstagnachmittag nochmal zwei Folgen Schwarzwaldklinik hinein, um die Projektidee näher auszugären. Der Weg scheint aber richtig zu sein.

  • Die Hürden einer Signaturkarte.

    Ich bin verschlüsselungstechnisch nun nicht unbedingt gänzlich auf die Nase gefallen. Okay, ich gebe zu, dass ich nicht weiß, auf welche mathematische Weisen Verschlüsselungsalgorithmen arbeiten (allein dieser Umstand genügt genügend so genannten Experten dazu, einen als kompletten Vollidioten abzustempeln), allerdings bin ich mir dem Sinn und Unsinn von Verschlüsselung und Authentizität in der elektronischen Kommunikation bewusst und versuche das bekanntlicherweise auch ein Stück weit in netplanet zu vermitteln (übrigens auch ohne mathematische Tiefgänge, was ebenfalls wieder genügend so genannte Experten dazu verleitet, mir zu empfehlen, das Thema lieber erst gar nicht anzuschneiden, was nun wirklich der absolut falsche Weg ist).

    Der Weg war also nicht weit zu einer Signaturkarte, mit der ich mich dann doch tatsächlich nach hiesigem Signaturengesetz im Internet eindeutig authentifizieren und mit Gegenstellen verschlüsselt kommunizieren kann. Das ist schon mal ganz nett für die ganzen Rechnungen, die ich als PDF-Datei per E-Mail versende und die ohne vernünftige Signatur rein rechtlich gesehen nicht zum Vorsteuerabzug berechtigen.

    Entschieden habe ich mich für Signtrust der Deutschen Post AG, einfach, weil sie die günstigsten derzeit sind. Dass der Markt der Elektronischen Signatur jedoch offenkundig nicht sonderlich groß ist, habe ich sehr schnell an der Dokumentation gemerkt. Die ist zwar nicht wirklich schlecht, aber auch nicht wirklich gut, weil das doch alles recht komplex ist:

    1. Online den Auftrag ausfüllen. Das ist noch das einfachste an der ganzen Geschichte. Name, Anschrift, Geburtstag ist weitgehend schon alles. Beim Absenden muss bestätigt werden, eine so genannte Unterrichtungsbroschüre heruntergeladen und gelesen zu haben, die FAQ-mäßig weitgehend die Elektronische Signatur und das hybride Verschlüsselungsverfahren erklärt. Das Dokument ist nicht vollkommen daneben, allerdings didaktisch auch nicht sonderlich ausgefeilt. Ob Otto Normalverbraucher das versteht, wage ich schwer zu bezweifeln.
    2. Den generierten Auftrag ausdrucken, zur Post wackeln und ein Postident-Verfahren machen. Auch das geht noch, denn dazu halte ich der Postangestellten lediglich meinen Ausweis unter die Nase und unterschreibe das Ding, das sie am Schalter ausdruckt und als Identifikation meiner Person zusätzlich zum Antrag an Signtrust sendet.
    3. Warten. Drei Wochen. Ohne Auftragsbestätigung.
    4. Schließlich kommt die Signaturkarte. Mit dem Hinweis, dass aus dem Anschreiben der untere Teil ausgeschnitten werden und unterschrieben als Empfangsbestätigung an Signtrust zurückgesendet werden muss. Die beiden PIN stehen übrigens auf dem Anschreiben ebenfalls drauf, eine für das „qualifizierte Signaturzertifikat“ und eine für „Verschlüsselung und Authentisierung“. Beide müssen umgehend auf eigene Nummern geändert werden. Würde das nicht gehen, „liegt der Verdacht nahe, dass die Karte manipuliert wurde“. Ach! Wo bleibt eigentlich der Kartenleser und die Software?
    5. Vier Tage später bringt der Paketbote ein Paket von Signtrust, handgeklebt. Mit dem endlich bestellten Kartenleser und der Software Openlimit. Beides lässt sich installieren und sollte es auch, denn Signtrust macht Support für alles, nur für Kartenleser und Software nicht und die Hotline für letzteres kostet schlappe 1,99 Euro pro Minute.
    6. Als erstes will ich die PIN der Karte ändern. Geht aber mit der Software nicht, denn die meldet, dass die PIN ungültig seien. Super. Irgendeine Meldung, mit der man etwas anfangen könnte? Nein. Aus der Installation von der Openlimit-Software geht aber heraus, dass diese vor dem ersten Einsatz die Eingabe der Lizenznummer erfordert und diese Lizenznummer dann mit der eigenen Signaturkarte signiert werden muss. Mir dämmert es, dass das eventuell damit zusammenhängen könnte, dass meine Signaturkarte mit den noch nicht geänderten PIN das vielleicht nicht kann.
    7. Das bestätigt sich dann, nachdem ich auf Seite zwei des Begleitschreibens einen Hinweis im vierten Absatz herauslese, dass meine Beobachtung möglicherweise tatsächlich auftreten könnte und man in so einem Falle eine gesonderte Software zur PIN-Änderung einer neuen Signaturkarte von der Signtrust-Homepage herunterladen könne. Super Sache. Kann man da nicht einfach eine CD beilegen oder sowas einfach als normale Vorgehensweise in eine Anleitung packen?
    8. Diese PIN-Änderungssoftware ist in der Tat nur ein einfaches Programm und auch nicht sonderlich schwer zu bedienen, allerdings variieren hier die Bezeichnungen für die PIN: Die PIN für das „qualifizierte Signaturzertifikat“ ist wohl die „globale PIN“, weil ich annehmen kann, dass die PIN für „Verschlüsselung und Authentisierung“ die „Verschlüsselungs-PIN“ sein müsste. Dito.

    Schade, dass der Benutzer offenkundig mit dem Produkt etwas allein gelassen wird. Man hätte sicherlich alles noch viel komplizierter machen können und hat sich durchaus an einigen Stellen viel Mühen gegeben, aber man kann das alles auch didaktisch einheitlich erläutern und eine wirkliche Hilfestellung für die Kundschaft erstellen. So muss sich keiner wundern, wieso die Elektronische Signatur nicht bis in die Niederungen der elektronisch kommunizierenden Gesellschaft ankommt und das ist sehr bedauerlich.

    Fairerweise sei angemerkt, dass Signtrust nicht alleine dasteht. Mein Chef hat seine Signaturkarte von D-Trust und hat mit ähnlichen Erfahrungen gestartet. Wenn wir in unserer Firma nicht mit dem unnachahmlichen Gespür für etwas Herumspielen und Ausprobieren ausgestattet wären, wäre das alles ein wirklich teurer Spaß.

  • Kampf der Kommentarflut.

    Kommentarspam kommt vor allem über ältere Blog-Artikel herein. Das ist auch nachvollziehbar, denn Spammer sind nicht so hell, Feeds zu abonnieren und dann immer nur die neuesten Artikel mit Spam-Versuchen zu beglücken. Um das jetzt zumindest etwas einzudämmen (und nebenbei die Pflege von Kommentaren auf Alt-Artikel zu sparen), wird die Kommentarfunktion mit dem WordPress-Plugin Comment Timeout bei älteren Artikeln automatisch deaktiviert. Trackbacks sind davon vorerst nicht betroffen.

    Das Plugin bietet übrigens recht ausgefeilte Einstellungsmöglichkeiten, besonders für Artikel, die bereits kommentiert wurden. Ein näheres Anschauen ist sicherlich nicht falsch.

  • Schwarze Löcher am CERN und so.

    Golem.de hat ein schönes Interview mit dem Wissenschaftler Otto E. Rössler, der über die Gefahren des im Bau befindlichen Large Hadron Collider (LHC), dem neuen Teilchenbeschleuniger, referiert. Oder mutmaßt. So recht weiß keiner, was das CERN in seinem zukünftigen Teilchenbeschleuniger am Ende erzeugt, am allerwenigsten die CERN-Wissenschaftler selbst. Eines wissen sie aber: Es ist absolut ungefährlich. Richtig niedlich ist das ebenfalls im Artikel angehängte Interview mit Michelangelo Luigi Mangano, einem leitenden Wissenschaftler am LHC-Projekt.

    Einem Zitat von Mangano kann ich nicht widerstehen, dass es mir als eingefleischten Science-Fiction-Liebhaber sehr angetan hat:

    „Wir sind uns der Sorgen bewusst, die in der Öffentlichkeit kursieren. Das CERN wird in ungefähr einem Monat eine Broschüre zum Thema veröffentlichen. Wir haben hier alle Familie, Freunde, Kinder und Verwandte und wir würden sie nie Gefahr aussetzen. Wir haben uns hier sehr intensiv mit diesen Fragen beschäftigt. 99,99 Prozent meiner Kollegen glauben, dass die schwarzen Löcher zerstrahlen werden. Nichtsdestotrotz nehmen wir in der genannten Publikation an, dass sie stabil bleiben könnten. Doch selbst dann sollten sie ungefährlich sein: Schwarze Löcher bewegen sich sehr schnell. Somit würden sie theoretisch direkt durch die Erde hindurchfliegen. Jene, die etwas langsamer wären und von der Erdanziehung eingefangen würden, blieben zwar im Erdkern bestehen und könnten tatsächlich Materie aufnehmen. Doch würden sie selbst nach 5 Billionen Jahren – die Zeit, bis die Sonne erlischt – nur ein paar Kilogramm wiegen. Schwarze Löcher verhalten sich ein wenig wie das elektrisch neutrale Neutrino. Sie reagieren nur sehr langsam und können durch mehrere tausend Kilometer Eisen fliegen, bevor sie überhaupt mit etwas zusammenstoßen.“

    Das kann ja heiter werden. Dem mündigen, deutschen Bürger will man gewalttätige Computerspiele verbieten und ein paar Physiker, die viel glauben, wenig wissen, aber immerhin sicher sind, dass alles ungefährlich ist, dürfen am Schalter der Apokalypse herumspielen und ein kleinwenig Gott spielen. Haben die vorher gefragt? Wissen eigentlich die Politiker, die solche Förderanträge unterschreiben, was sie da eigentlich genehmigen? 😕

  • “.eu ist eine Katastrophenzone.”

    John McCormac, Autor des WhoisIreland Review Blog (WhoisIreland ist eine Art Webverzeichnis für Irland), hat ein niederschlagendes Ergebnis einer Prüfung der „.eu“-Top-Level-Domain zusammengetragen.

    „The latest WhoisIreland.com .eu web survey shows that the .eu ccTLD is in serious trouble. Out of 1723638 websites checked, only 13.37% of sites were active/unique. As a ccTLD for Europe, it is a disaster zone. Brand registrations accounted for 7.78% of registrations. The percentage of duplicate content sites was 6.02%. The percentage of websites that redirected elsewhere was 16.68%. The percentage of PPC/warehoused websites was 14.22%. The percentage of holding page sites was 16.79%.“

    Das hört sich in der Tat nicht wirklich erfolgsträchtig an: Nur 13,37 % aktive bzw. eindeutige Websites für die „.eu“-Domain und überhaupt sehr ungepflegte Weiterleitungen und Anbindungen. Allerdings muss man das auch alles etwas relativieren.

    • Die Identifizierung mit „.eu“ ist ähnlich wie mit Europa selbst. Wir leben zwar darin, müssen auch genügend EU-Richtlinien ertragen und haben eine Währung, die so heißt, aber so richtig greifbar ist Europa als Staat nach wie vor nicht für uns. Noch viel schlimmer ist, dass Europa oft genug im Negativen verwendet wird, als Bürokratiemaschine oder einfach als dankbarer Sündenbock.
    • „.eu“ hat als neu eingeführte Top-Level-Domain das genau gleiche Problem wie jede andere, neu eingeführte Top-Level-Domain. Zuerst kommen diejenigen mit oft genug obskuren Namensrechten zum Zuge, dann die Domainsquatter und am Ende Unternehmen und Personen, die meist schon irgendeine andere Domain in einer anderen Top-Level-Domain besitzen. Es ging bei den Landrush- und Sunrise-Phasen zwar nicht ganz so in Wildwest-Manier zu, wie in so manch anderen Top-Level-Domains, Fakt ist jedoch, dass der kleine Mann und das kleine Unternehmen im Schwarzwald hier nur mit viel Glück oder einem eher peinlichen Namen zum Zuge kommt.
    • Die Abgrenzung ist kompliziert und aufwendig, denn letztendlich müsste eine neue Homepage erstellt werden, wenn man wirklich für die EU-Domain sinnvoll neuen Content aufbereiten wollte. „.eu“ ist, wenn überhaupt, am ehesten interessant für „europäische“ Unternehmen, die also in mehreren EU-Ländern aktiv sind.

    Rat habe ich keinen, außer: Von neuen Top-Level-Domains haben in der Regel nur die Registrare und Domain-Glücksritter etwas, denn eine neue Top-Level-Domain macht noch lange keine Identifikation mit einer Thematik oder einer Nation aus und bringt auch nicht automatisch Kundschaft herbei. Ich bin deshalb nach wie vor extrem skeptisch über Bemühungen diverser Lobbyisten und Politiker, solche Schrapnellen wie „.berlin“ oder „.bayern“ einzuführen. Besitzer von Namensrechten werden schlicht und einfach ihre Namen auch dort registrieren müssen, vielleicht wird der Lokalpatriot auch noch damit glücklich gemacht werden können, aber dann?

  • Neuer Upgrade-Pfad für TiddlyWiki.

    Ich sehe gerade, dass auf der TiddlyWiki-Homesite eine neue Anleitung zum Upgraden eines bestehenden TiddlyWiki existiert. Der bisherige Weg war ja so, dass zum Upgraden eine lokale TiddlyWiki-Datei im Browser geöffnet wurde, die eigentliche Datei dann mit einer gleichnamigen Datei mit neuerer Version überschrieben und schließlich im Browser das TiddlyWiki wieder abgespeichert wurde. Das funktioniert zwar so auch heute noch, allerdings gibt es immer wieder delikate Probleme, wenn in einer neuen TiddlyWiki-Version ältere Plugins nicht mehr funktionierten.

    Da neue TiddlyWiki-Versionen mit dem Backstage-Bereich eine Importfunktion für Tiddler haben, hat Jeremy Ruston diese Möglichkeit nun auch für das Upgraden adaptiert. Macht Sinn und ist vor allem stabiler gegenüber älteren Plugins, da beim Importieren gewählt werden kann, was importiert werden soll und was nicht.

    Ich werde mal in den nächsten Tagen die Upgrade-Anleitung in meiner kleinen Übersetzungsseite überarbeiten und den gleichen Weg auf Deutsch vorschlagen.

Letzte Beiträge
Schlagwortwolke

Android Barack Obama Bloggen Blogroll Bundesregierung CDU Facebook Fatal Error Google iPhone Online-Sperre Pforzheim Politik 2.0 PS3 Social Networking SPD Testbericht Twitter Update Video Wahlkampf Web 2.0 Werbung WordPress ZDF

Archiv
Seiten