Die neue Vene

Ein Kunde von mir aus alten Systemadministrator-Zeiten hat für sein kleines Rechenzentrum als Zugangskontrolle einen Venen-Handscanner installiert. Das mehr als Spielzeug und zum Beeindrucken von Kundschaft, denn so richtig spektakulär ist das Gerätchen in der Wand (das ich leider nicht fotografieren durfte) nicht, denn es funktioniert eben. Einmal eine Hand eingescannt und mit einem Benutzer verknüpft und das Ding funktioniert ewig. Zumindest so lange die Hand des Benutzers durchblutet wird.

Und da kommen wir tatsächlich zum Thema. Es tat nämlich heute bei einem Besuch nicht mehr. Gerät funktioniert, alle anderen, getesteten Benutzer können die Türe öffnen, ich aber nicht mehr. Das Venenmuster meines rechten Handrückens wird nicht mehr akzeptiert. Bitte, was?

Eine Analyse des Scans und der Vergleich mit dem hinterlegten Venenmuster ergab, dass ich auf dem Handrücken auf der linken Seite unterhalb des Mittel- und des Zeigefingers eine neue Vene habe. Meinen staunenden Gesichtsausdruck dürft ihr euch plastisch vorstellen, als ich die beiden Bilder im Vergleich gesehen hatte. Rechts die „alte“ Hand ohne neue Vene, „links“ die gleiche Hand mit einer neuen, zusätzlichen Vene.

Nach etwas Nachdenken habe ich aber des Rätsels Lösung gefunden. Es ist tatsächlich eine neue Vene. Die ist offenbar als Nachwirkung meines Krankenhausbesuchs im Mai 2020 entstanden, als ich über den rechten Handrücken eine Infusion bekam. Und zwar nicht mit irgendwelchem harmlosen Zeug, sondern mit dem Rhythmusmedikament Amiodaron. Und da gleich mal die volle Packung mit schlappen 1 Gramm auf 500 ml Kochsalzlösung. Das macht man, wenn man möglichst zügig einem vor sich hinstolperndem Herzen nach einer Kardioversion beibringen möchte, das Ergebnis der Kardioversion auch beizubehalten.

Nicht so wirklich toller Nebeneffekt von Amiodaron in so hoher Dosierung ist die Reizung von Blutgefäßen, vor allem nahe des Venenkatheters. Daher gibt man größere Mengen von diesem Medikament eigentlich auch am liebsten in Blutgefäße mit großem Kaliber wie beispielsweise einer Halsvene, aber so ein Zugang ist dann halt auch gleich eine größere Show. Im Notfall tut es eine Vene am Handrücken.

Die hatte sich dann allerdings in den Wochen und Monaten danach munter entzündet und wurde dick. Nichts, was wirklich wehtat oder gefährlich war. Und auch die „alte“ Vene ist wieder gesund und lässt Blut fließen. Bis dahin hatte aber mein Körper offenbar beschlossen, eine „Umleitung“ zu legen, die jetzt eben auch da ist.

Wie gesagt, es funktioniert alles prima an der rechten Hand, nur eben der Venenscanner, der musste jetzt neu eingelernt werden. Mensch trifft auf Technik.

I ❤️ RSS.

Der Alex Olma vom iPhoneBlog.de, das ich trotz fehlendem iPhone seit vielen Jahren mitlese, schreibt in einem aktuellen Artikel, dass er RSS liebt und schreibt, dass er seinen Nachrichtenkonsum vorwiegend per RSS stillt. Ein Lied, das ich liebend gern mitsingen möchte.

RSS bzw. RSS-Feeds werden gern als „unnützes Beiwerk“ von Websites angesehen. Unter anderem WordPress liefert standardmäßig viele RSS-Feeds, unter anderem einen Feed mit allen aktuellen Artikeln. Genau für diese Zwecke – aktuelle Beiträge – ist RSS die Faust auf’s Auge, denn es liefert exakt das, was es zu liefern hat. Aktuelle Nachrichten von Websites, praktisch gleichzeitig mit dem jeweiligen Beitrag auf diese Weise veröffentlicht.

Nun ist ein RSS-Feed erst einmal schnödes XML, in der Regel unformatiert und nicht hübsch lesbar. Nicht hübsch lesbar für das Auge. Aber dafür lesbar für einen RSS-Aggregator, also einer Plattform oder Software, mit der man viele RSS-Feeds aus den unterschiedlichsten Quellen abonnieren und zentral steuern kann.

In meinem Fall läuft das mit einer Installation des RSS-Aggregators TTRSS. Etwas frickelig auf einem Webserver zu installieren, auch nicht ganz einfach zu konfigurieren, dafür aber das Schweizermesser der RSS-Szene. In Hierarchien kann ich hier RSS-Feeds ablegen und abonnieren, mir entweder alle neuen Beiträge anzeigen lassen oder je nach Hierarchie, das in verschiedenen Ansichten im Browser und vor allem auch mit speziellen TTRSS-kompatiblen Apps auf Smartphone und Tablet.

Noch viel besser wird es, wenn man in TTRSS die Funktionen des Filterings lernt, was leider einige Kenntnisse in Sachen Reguläre Ausdrücke erfordert. Denn dann passieren beispielsweise so hübsche Sachen, dass ich mir eine ganze Reihe von RSS-Feeds abonnieren kann und diese automatisch nach Stichworten durchsucht werden. Die entsprechenden Treffer kann ich dann z.B. mit einer höheren Wichtigkeit markieren und mir vorrangig anzeigen lassen.

Noch eine Stufe weiter geht das Aggregieren, wenn man in TTRSS noch tiefer einsteigt, RSS-Feeds bündelt und diese wiederum als eigenen Feed zur Verfügung stellt. Das mache ich beispielsweise hier in meinem Regionalblog PF-BITS mit meiner Übersicht über Podcasts meiner Heimatstadt Pforzheim. Hier wertet meine TTRSS-Installation die entsprechenden Podcast-Feeds aus (die nichts anderes als RSS sind), bündelt die in einer Gruppe und die wiederum lasse ich dann auf der entsprechenden Seite anzeigen. Und auch das mit Bordmitteln, denn der Gutenberg-Editor von WordPress kennt einen eigenen RSS-Block.

Ergebnis: Eine ständig aktuelle Übersicht über Podcasts und allen darin befindlichen Folgen, ohne dass ich nach dem eigentlichen Erstellen der Seite nachträglich je etwas von Hand ändern muss. Aktueller geht es kaum noch.

RSS als Nachrichtenmaschine.

RSS ist aber nicht nur etwas für Nachrichtenfreaks, sondern vor allem ein Nachrichtenaustauschformat. Und damit, dank der weitgehenden Standardisierung, auch eine vortreffliche Quelle für Suchmaschinen. Hat Google, Bing & Co. erst einmal eine Website mit RSS-Feed gefunden, überrascht es immer wieder, wie ein neuer Beitrag teilweise innerhalb weniger Minuten in den Suchmaschinen auch zu finden ist.

Die spezialisierten Nachrichten-Websites wie Google News oder Bing News arbeiten mit eigenen, abgewandelten, aber immer noch verwandten Austauschformaten, die eine Aktualisierung innerhalb weniger Sekunden (!) ermöglichen. Selbst mit einem kleinen Regionalblog und einem Zugang zu Google News lassen sich so Beiträge in realen „Breaking-News“-Geschwindigkeiten veröffentlichen.

Zahlen als Vergleich.

Meinen RSS-Konsum kann ich am besten mit Zahlen visualisieren. Aktuell habe ich 174 RSS-Feeds abonniert, die mir täglich 200 bis 300 neue Beiträge liefern. Dazu gehören große Feeds wie beispielsweise der Heise-Newsticker oder der von Golem, aber auch einzelne Spiegel-Online-Rubriken oder der zentrale Feed von Rivva.de.

Für mein Regionalblogprojekt werte ich in der gleichen TTRSS-Installation aktuell 135 (!) RSS-Feeds aus, allesamt von Websites aus Pforzheim. Da passiert zwar deutlich weniger, aber dennoch gibt es auch hier angenehme Nebeneffekte. So ist mir auf diesem Weg nämlich vor vielen Monaten ein Beitrag einer Sanitärinstallateurs auf den Schirm gefallen, der in seinem Hinterhof eine kostenlose Ladestation für Elektroautos aufgebaut hat. Abonniert, gelesen und darüber geschrieben, mit dem Ergebnis, dass diese Nachricht, die der Betrieb eigentlich unter „ferner lief“ auf seiner Website veröffentlicht hatte, so ein Publikum erreicht. Dafür war keine Pressemitteilung und kein Presseverteiler notwendig, sondern einfach nur ein Beitrag auf der Unternehmenswebsite, die einen RSS-Feed generiert, den ich auswerten kann.

Was zu tun wäre.

Wenn du einen Kunden mit einer Website betreust, gib ihm die Möglichkeit zum Futterherstellen in die Hand, bevor du ihm ominöse Suchmaschinenoptimierung verkaufen willst, deren Wirkung du sowieso nicht versprechen oder messen kannst:

  1. Aktiviere RSS, falls nicht schon mit Bordmitteln vorhanden. WordPress kann es, andere Redaktionssysteme wie z.B. Typo3 können mit wenig Aufwand dazu gebracht werden.
  2. Binde den RSS-Feed über die Webmastertools von Google und Bing ein. Die Suchmaschinen freuen sich wie Bolle über diese Quellen der Neuigkeit.
  3. Animiere den Kunden dazu, auch aktuelle Nachrichten zu schreiben. Der wiederum kann sich dann darüber freuen, dass er mit seinen Beiträgen in kürzester Zeit auch in Suchmaschinen landet, mit allen für ihn relevanten Keywords, wenn er die eben in seinem Artikel auch verwendet.

Der beunruhigende Wandel von Wahlkampf hin zu Social Campaigning.

Replik und Kommentar auf den Text von Mikael Krogerus und Hannes Grassegger, veröffentlicht in „Das Magazin“. Bitte vorher die Zeit nehmen, den Text lesen, einen Kaffee trinken und dann meinen Kommentar lesen:

Ich kann mich noch sehr genau an die ersten Wahlkämpfe erinnern, die ich online beobachtet und später dann auch mit gestaltet habe. Kreativ, informativ, fast schon unterhaltsam warf man sich 2008 in die Netze, da zog Barack Obama mit seinen Beratern einen Siegeszug durch Social Networks. Und auch ganz kleine Dinge daraus schienen zu funktionieren, zum Beispiel ein Wahlkampf-Weblog. Ich bin immer noch ein großer Verfechter von das, was man im großen und ganzen unter „Politik 2.0“ zusammenfasst.

Nur: In der nächsten Generation meiner Visitenkarten und meiner Website wird „Politik 2.0“ sehr sicher nicht mehr draufstehen.

Ich kann mich noch gut an Gespräche vor einigen Wochen erinnern, wo ich mich mit darüber wunderte, warum die Kampagne von Donald Trump den Anschein macht, völlig planlos zu sein. Argumentativ ist seine Website wirr gewesen, seine Äußerungen auf Twitter sind – gelinde gesagt – bizarr und auf allem stand das große Fragezeichen, warum Trumps Kampagne deutlich weniger Etat hat, als die der Konkurrenz und vergleichbaren, früheren Kampagnen.

Eine mögliche und plausible Antwort hat der obige Artikel anzubieten, der im Prinzip folgende Theorien verbindet:

  • In der Zwischenzeit lassen sich ein Großteil der US-Gesellschaft (und vieler anderer auch) via Facebook erreichen.
  • Es gibt Unternehmen, die Informationen der Gesellschaft aus vielen unterschiedlichsten Quellen bündeln und diese zu personifizierten Profilen zusammenstellen.
  • Diese Profile werden mit eigenen Unternehmenswerkzeugen ergänzt, die scheinbar ein Psychoquiz in Form einer Facebook-App darstellen, die gewonnenen Informationen aber nicht nur zur Unterhaltung an den Benutzer liefern, sondern in Form eines recht ausgefeilten Psychogramms mit den bisher gesammelten Profildaten verheiratet. Die so gewonnenen Profile sollen erstaunlich/erschreckend genau den wahren Persönlichkeiten entsprechen, bis hin zu intimsten Vorlieben und politischen Ausrichtungen.
  • Anhand dieser Profile werden dann viele zehntausend einzelne Kampagnen in Form von „Social Ads“ gestaltet, die dann passend den Personen z.B. in Facebook eingeblendet werden. Die Granulierung geht dabei so weit, dass der Wohnort einbezogen wird, die politische Ausrichtung, die Hautfarbe, der wirtschaftliche Status und so weiter und so fort. Die umfassenden Möglichkeiten, die Facebook dabei zur Profilierung anbietet, sind bereits heute schon unglaublich detailiert.

Kurzum: Armageddon. Die Dystopie, dass unsere Profile, die wir in vielen Ecken dieser Welt anhäufen, von anonymen Firmen völlig unkontrolliert zu erschreckend genauen Psychogrammen zusammengebaut werden, die uns möglicherweise haargenau gleichen und daher exakt so angesprochen werden können, wir wir uns tatsächlich ansprechen lassen. Die unsere möglicherweise gar nicht real ausgesprochenen Vorlieben genauestens beschreiben und uns in unserer Wahlentscheidung mehr oder weniger beeinflussen lassen.

Nichts von alledem ist abwegig, sondern alles für sich mit dem Stand der Wissenschaft und der Technik nachvollziehbar. Und auch der Ansatz, dass irgendwann Menschen auf die Idee kommen, all diese Ansätze miteinander zu verheiraten, ist zumindest erwartbar gewesen, wenn auch meist nur in düsteren Science-Fiction-Romanen oder für den Horror-Part in Privacy-Vorträgen.

In Wirklichkeit sind wir nicht mehr am Anfang von hauptsächlich datengetriebenen Wahlkämpfen, sondern schon mittendrin. Während der Faktor Mensch noch wenigstens dafür gebraucht wurde, Wähler anzurufen oder bei ihnen an der Tür zu klopfen, bewegt sich maßgeschneiderte Werbung via Facebook schon direkt an die Bildschirme der Wähler und es ist rein eine Frage der Zeit, bis das nicht nur in Facebook so passiert, sondern auch via Smart-TV, via dem viel besagten „Internet der Dinge“ und dann später über allen anderen Medien, die nachrangig aus Datenbanken gespeist werden, die hauptsächlich die Online-Kanäle bespielen.

Ich muss zugeben: Nach der Lektüre des obigen Textes war ich so beunruhigt, wie selten. Wir haben schlicht abgekackt und die jahrzehntelang müßig geführten Debatten darüber, ob man dem Datenmissbrauch einen Riegel vorschieben sollte, sind bereits beantwortet. Gegen uns. Gegen den denkenden und freien Bürger.

Denn ich sehe folgende Dinge:

  1. Firmen, die Daten aus verschiedenen Quellen sammeln und via Social Networks mit realen Personen so verbinden können, dass am Ende sehr genaue Psychogramme herausspringen, gibt es und es wird kaum möglich sein, die jemals wieder loszuwerden. Geschweige denn, die gesammelten Profile.
  2. So Firmen wie Facebook ist nicht über den Weg zu trauen, die Selbstregulierung hat nie funktioniert und wird niemals funktionieren. Facebook ist geldgetrieben und skrupellos und wird zur Generierung von Werbegeldern problemlos noch viel detailiertere Werbe- und Profilierungsmöglichkeiten anbieten, wenn auch nicht unbedingt jedem.
  3. So Firmen wie Facebook und auch Unternehmen, die Werbekanäle anhand von psychometrischen Profilen anbieten, werden sich auch deshalb nicht verbieten lassen, weil sie den Leuten, die solche schrecklichen Dinge am ehesten verbieten könnten, die Wahlen gewinnen und verlieren lassen können.
  4. Noch viel weiter gedacht ist eine umfassende Profilierung einer Gesellschaft ein perfektes Mittel für einen Staat, der wenig auf Demokratie und Freiheit gibt und die Gesellschaft kontrollieren will. Psychogramme wären dabei mehr als hervorragend für „Risikoanalysen“ und die darauf exakt steuerbare Überwachung von den Teilen der Bevölkerung, von der am ehesten Aufruhr zu erwarten ist.

Eine unheilvolle Industrie hat sich da gebildet, die mit wiederum skrupellosen Politikern und Terabytes an Profildaten der Gesellschaft nicht weniger als den direkten Zugang in den mehr oder weniger kritischen Verstand eines Großteils der Wähler haben.

Wie gesagt, es beunruhigt mich sehr. Ich bin eigentlich ein durch und durch positiv denkender Mensch, aber mir versagt da der Optimismus, auch hinsichtlich den Erfahrungen mit „echtem“ Online-Campaigning der letzten Jahre. Wir erreichen zwar immer noch viele Menschen, aber bei denen gehen wir davon aus, dass sie für echte Argumente und Programmatiken noch erreichbar sind. Wir haben es daraufhin mit Programmen versucht, die in „einfacher Sprache“ gehalten sind, mit unterhaltsam gemachten Videos, kurzen Twitter- und Facebook-Nachrichten.

Wie wir, die noch für Programme, Ideen und Visionen zu erreichen sind, das aber gegen exakt ausgesteuerte Social Ads mit strengen Themen tun können, ohne diesen unheilvollen Weg selbst zu gehen, wird ein spannendes Thema, das in ganz großen Dimensionen möglicherweise über so Fragen wie globale Kriege oder Frieden entscheiden wird.

So war die Idee des Internets, der vermeintlich grenzenlosen Kommunikation, des Informationsaustausches zum Wohle der Gesellschaft (hier bitte weitere Visionen einfügen) nicht gemeint.

Hier noch einige weitere Meinungen, die ich nach und nach aus Blogs sammeln werde. (Wer etwas findet, bitte kurz als Kommentar zu diesem Artikel hinzufügen.)

Das Smartphone.

Wenn es etwas gibt, auf was viele Menschen nur sehr ungern verzichten würden, dann ist es das Smartphone. Wie unglaublich praktisch es sein kann. Man kann Nachrichten verschicken, fast in Echtzeit Kontakt zu seinem Freundeskreis halten, hat die Bilder seiner Liebsten immer dabei, wichtige Daten, die Landkarte, den Übersetzer, das Adressbuch, den Kalender, praktische Apps und sogar ein Telefon.

Wenn es etwas gibt, was mir in der Ferne nach dem Zeitpunkt, an dem das Heimweh einsetzt (tut es bei jedem), eine helfende Hand darstellt, ist es mein Smartphone. Ich finde sofort den Weg überall hin, kann mich in Sachen Restaurant und Unterkunft kundig machen und buchen und wenn ich abends allein im Hotelzimmer herumlungere, kann ich Freunde anmailen oder mal kurz zu Hause anrufen. Das geht heute sogar ja schon mit Bild. Ich kann überall sein und immer ist irgendwo „das Netz“. Und wenn vorübergehend nicht, dann ist ja immer noch mein Smartphone da und kann mich mit seinem Inhalt unterhalten, zum Lachen bringen oder trösten.

Smartphones sind inzwischen auch schicke Geräte, erhältlich in allen Preisklassen. Vom vielen Hundert Euro teuren Luxusdampfer bis hin zum kleinen Flußkreuzer. Das eine schnell, das andere langsam. Aber alle liefern sie eines: Freiheit, Sicherheit und die Verbindung zur Heimat, zum Freundeskreis und zur Familie. Und die Daten, die darauf gespeichert sind, sind im höchsten Maße individuell und persönlich, wie sie in keinem anderen Medium sein können. Man muss diese und die im Smartphone verarbeiteten Gedanken mit niemandem teilen, sondern darf. Das Smartphone ist das Wunderkästchen, das einerseits Sender für das Massenmedium sehr kommunikativer Menschen sein kann, andererseits aber auch ein sehr behütetes Schatzkästchen mit all den nicht greifbaren, digitalen Habseligkeiten, die man im Leben so sammelt. Geschriebene und gesprochene Worte der Familie, von lieben Menschen, Fotos von Orten, an denen man war. Lebensumstände aus guten und aus weniger guten Zeiten.

Denke genau an all das, wenn du das nächste Mal jemanden darüber sprechen hörst, dass Flüchtlinge ja gar nicht so arm und hilflos sein können, wenn sie sich ein Smartphone leisten können. Man kann.

Das Domain-Name-Chaos.

Wie es sich fühlt, als Eltern von den eigenen Kindern aufgefressen zu werden, kann ich aktuell in etwa nachvollziehen. Zur Zeit schreibe ich nämlich den netplanet-Artikel zu Top-Level-Domains um, und zwar fundamental. Denn die Zeiten, wo man mal eben so alle existierenden Top-Level-Domains auf eine Seite schreiben konnte, ist vorbei. Das an sich einst sehr strenge und dann aufgelockerte System der Top-Level-Domains ist einem wahren und nahezu chaotischen Wildwuchs gewichen. Glaubt man nicht?

Wer kennt die Domain-Endung „.club“? Oder „.archi“? Oder wer kommt darauf, dass die ebenfalls existierende Domain-Endung „.airforce“ gar nicht einer Militärbehörde gehört? Was macht man mit einer Domain-Endung „.blackfriday“? Oder „.xyz“? Für Zahnbelange soll wohl „.dental“ gelten, aber warum gibt es auch noch „.dentist“? Welcher Logik folgen Top-Level-Domains für Unternehmen wie z.B. „.neustar“ oder „.bmw“?

Und das sind nur einige Beispiele in einer inzwischen völlig außer Kontrolle geratenen Liste von Top-Level-Domains. Das Domain Name System ist der Idee einer halbwegs strengen Ordnung gewichen einem System des reinen Kommerzes. Wer die Kohle hat, kauft sich keine Domain mehr, sondern gleich eine Top-Level-Domain. Die Hürden von rund 100.000 US-Dollar zur Stellung eines Antrages, die bei einer Ablehnung auch nicht zurückerstattet werden können, sind für viele Unternehmen schlicht ein Klacks, der sich auch noch problemlos abschreiben lässt.

Rein an Systematik und Ordnung gewonnen ist mit diesem entstandenen Wildwuchs nichts. Internet-Provider haben ihre liebe Mühe, in diesem System halbwegs kostendeckend Registrierungen in exotischen Top-Level-Domains durchführen zu können und Inhaber von Markenrechten schaffen den Überblick kaum noch ohne entsprechende Dienstleister. Verdienen tun die großen Registrare, die lange Jahre mit exzessiver Lobbyarbeit bei einschlägigen Gremien und Regierungen dafür gesorgt haben, das Domain Name System zu einem modernen Klondike River umzudefinieren. Das Ergebnis ist – ich wiederhole mich – totales Chaos. Adressen sind plötzlich Adressen und nur noch wenige können erkennen, ob eine Adresse wirklich eine Adresse ist. Wer käme auf die Idee, dass abc.xyz nun tatsächlich einen gültigen Host-Namen darstellen könnte? Und was wird eigentlich passieren, wenn der Betreiber einer Top-Level-Domain die finanzielle Grätsche macht und möglicherweise hunderte Domain-Namen verlorengehen?

Nichts ist mehr so, wie es war. Das muss nicht unbedingt schlecht sein, aber ich bezweifle es, dass der radikale Wechsel von einem Verzeichnissystem hin zu einer Ansammlung von mehr oder weniger ernstzunehmenden Litfaßsäulen tatsächlich der richtige Weg ist. Andererseits lohnt die Diskussion darüber auch nicht sonderlich, denn umkehrbar ist dieser Wandel nicht mehr. Das Domain Name System ist technisch zwar immer noch funktionsfähig, aber eigentlich ist es kaputt.

MyFRITZ als DynDNS-Ersatz für die Fritzbox.

Da meine Fritzbox alle 24 Stunden mit einer neuen IP-Adresse ins Netz geht, braucht es eine vernünftige Lösung, um die Box dennoch von außen jederzeit zu erreichen. Dazu habe ich bisher den Klassiker in Sachen dynamisches DNS verwendet, DynDNS bzw. „Dyn“, wie der Dienst nur noch heißt. Technisch funktioniert es so, dass nach jedem Neustart der DSL-Verbindung die Fritzbox Kontakt zu Dyn aufnimmt, sich dort mit meinen Zugangsdaten einloggt und den dort hinterlegten DynDNS-Namen mit der jeweils aktuellen IP-Adresse aktualisiert.

Das funktioniert soweit auch technisch gut, allerdings nervt Dyn seit einer Weile recht beständig. Okay, klar, der Basisdienst ist kostenlos und auch die Leute bei Dyn müssen von irgendetwas leben, aber die Mail, die alle 30 Tage kommt und bestätigt werden muss, da ansonsten der Account gesperrt wird, ist nervig. Da habe ich einfach keine Lust mehr dazu, zumal AVM für seine Fritzboxen einen eigenen Dienst namens MyFRITZ anbietet, der ebenso funktional ist, nichts kostet und eben nicht regelmäßig nervt. Und eingerichtet ist das ganze auch ziemlich schnell.

Eigentlich ist MyFRITZ ein Dienst, mit dem man von überall aus dem Internet auf die Bedienoberfläche der eigenen Fritzbox zugreifen können soll, aber die Funktion des dynamischen DNS-Hostnamens fällt quasi als Abfallprodukt an.

Anmeldung bei MyFritz.

Das Anmelden geht flott und muss von der Fritzbox aus initiiert werden. Dazu braucht es eine Fritzbox mit einer Software der Version 5.2 oder neuer. Dort findet sich in der Navigation unter „Internet“ der Menüpunkt „MyFRITZ!“. Genau dorthin wollen wir und dort erscheint dann die Option „MyFRITZ! für diese FRITZ!Box aktiv“.

MyFRITZ-Bedienoberfläche auf der Fritzbox 7270

Wir machen da einen Haken hinein und lassen uns auf die MyFRITZ-Website führen. Dort müssen wir einen MyFRITZ-Account erstellen, der aus der eigenen Mailadresse und einem selbst erdachten Passwort besteht. Nach der Registrierung gibt es eine E-Mail zur Bestätigung – dort einfach auf den integrierten Link klicken und schon ist der Account registriert. Der nächste Schritt ist nun, die eigene Fritzbox mit diesem Account zu registrieren, aber auch das ist menügestützt und weitgehend selbsterklärend.

Ist alles passiert, erscheint in der Fritzbox auf der MyFRITZ-Seite („Internet“ und dort unter „MyFRITZ!“) der Hinweis, dass MyFRITZ nun aktiv sei. Grünes Signalbällchen und so.

Meldet man sich nun auf https://www.myfritz.net/ mit den MyFRITZ-Zugangsdaten an, kommt man auf die Übersichtsseite und kann von hier aus direkt auf die Benutzeroberfläche der eigenen Fritzbox rüberwechseln. Das funktioniert intern mit nichts anderem wie dynamischem DNS. Die Fritzbox bekommt intern einen DNS-Hostnamen und die Fritzbox meldet sich mit diesem Hostnamen und den MyFRITZ-Zugangsdaten im Hintergrund bei jedem Neustart der DSL-Verbindung beim MyFRITZ-Dienst an und übermittelt seine IP-Adresse.

Wie aber kommen wir nun an den Hostnamen der Fritzbox heran? Dazu müssen wir ein kleinwenig hinter die Kulissen schauen.

Den dynamischen DNS-Namen der Fritzbox ablesen.

Wir melden uns bei MyFRITZ unter https://www.myfritz.net/ an und wählen oben den Button „Mehr“ aus. Ein Menü erscheint und dort wählen wir den Menüpunkt „Geräteübersicht“:

MyFRITZ-Startseite

Auf der Seite mit der Geräteübersicht findet sich nun die registrierte Fritzbox wieder. Wer mehrere Fritzboxen mit einem Account registriert hat, findet natürlich hier mehrere vor. (Kleiner Tipp an dieser Stelle: Man kann hier bei mehreren Fritzboxen jeder Fritzbox einen individuellen Namen verpassen. Das macht aus Übersichtsgründen richtig Sinn.)

Geräteübersicht bei MyFRITZ

Wir wollen aber nun den dynamischen DNS-Namen meiner Fritzbox auslesen und dazu schauen wir uns einfach an, mit welcher Adresse der Link versehen ist, der hinter dem Bild der jeweiligen Fritzbox und der Überschrift steckt. Unter Windows also den Mauspfeil einfach über die Fritzbox-Grafik steuern, rechte Maustaste und den Menüpunkt „Link-Adresse kopieren“ auswählen. Die Linkadresse wird dann in die Zwischenablage übernommen.

Wenn wir den Inhalt der Zwischenablage dann in einen Editor o.ä. kopieren, sieht dieser wie folgt aus:

https://zufallszeichen.myfritz.net/myfritz?user=eigene@mailadre.sse

„Zufallszeichen“ sind übrigens tatsächlich Zufallszeichen – MyFRITZ erzeugt den Hostnamen bei der Geräteregistrierung individuell und legt daraus den DNS-Namen der Box fest. Das ist vom Nutzer selbst nicht änderbar, aber auch gar nicht notwendig.

Wir müssen jetzt das ganze einfach dadurch vereinfachen, indem wir alles Unnötige aus dieser Linkadresse entfernen, nämlich alles, was hinter „myfritz.net“ kommt. Der Hostname meiner fiktiven Fritzbox heißt also:

https://zufallszeichen.myfritz.net

Unter dieser Adresse ist nicht nur die Administrationsseite meiner Fritzbox erreichbar (sofern von Zugriffen aus dem Internet freigeschaltet), sondern eben die gesamte Fritzbox mit allen aktivierten Diensten wie z.B. auch VPN. Hat man auf seiner Fritzbox VPN aktiviert und eingerichtet, ist die Zieladresse genau diese MyFRITZ-Adresse.

Website optimieren als AdSense-Sofortmaßnahme.

Obwohl ich seit 1998 Websites betreibe und praktisch ununterbrochen Inhalte im Web veröffentliche, habe ich mich um das Thema Website-Optimierung bis dato kaum gekümmert. Ich rede hier nicht von „SEO“, sondern von rein technischer Optimierung, also vornehmlich in Sachen Geschwindigkeit. Hier ist gerade bei dynamischen Websites einiges machbar und der eigentliche Antrieb dazu kam bei mir ausgerechnet wegen des schnöden Mammons – wenn auch auf sehr niedrigem Niveau.

Die Werbebanner von Google AdSense setze ich seit 2004 ein. Der große Reichtum hat sich durch AdSense dadurch nicht ergeben, allerdings hat es in den vergangenen Jahren immer dazu gereicht, einen Großteil des Hostings abzudecken und das ein oder andere Fachbuch zu kaufen. Genau Zahlen darf man ja nicht nennen, aber immerhin reichte es für eine regelmäßige Auszahlung der Einnahmen alle zwei Monate und das geht derzeit bei einem Guthaben ab 70 Euro.

Die letzten ein, zwei Jahre lief AdSense nicht mal mehr mittelprächtig. Mit Ach und Krach schaffte ich eine Auszahlung alle drei Monate und die Click-Through-Raten, also das Verhältnis zwischen Bannereinblendungen und Klicks bewegte sich nicht über 4 Promille hinaus. Für das netplanet-Lexikon und dieses Blog ein eher schlapper Zustand. Und da man so viel darüber liest, dass man als erstes einmal eine technische Optimierung einer mit AdSense bestückten Website probieren sollte, habe ich das einmal in Angriff genommen.

Eine technische Optimierung geschieht zunächst einmal mit folgenden Schritten:

  • Website und/oder Theme ausmisten.
    Man glaubt es nicht, was man bei einem CMS-Theme und/oder auf einer älteren Website alles für Mist mit sich herumschleppt. Alte Grafiken, Links auf längst gestorbene Websites, doppelte CSS-Dateien, nicht verwendete JavaScript-Bibliotheken, längst vergangene Experimente, eingebettete Analysecodes und so weiter und so weiter. Beispielsweise für den Firefox gibt es ein Add-In namens Firebug, mit dem sich Seitenabrufe analysieren lassen. Unter dem Reiter „Netzwerk“ lässt sich ein vollständiger Abruf aufzeichnen, inklusive aller von einer Web-Seite nachgeladenen Inhalte wie Grafiken und Scripte. Alles, was unnötig ist oder HTTP-Fehler erzeugt, sollte man genau nachprüfen.
  • Caching auf dem Webserver aktivieren.
    CMS bauen normalerweise, wenn man sie auspackt und installiert, Seiten immer dynamisch auf. Bei jedem Seitenaufruf wird im Hintergrund vom CMS die Seite aus Codeeinzelteile zusammengebaut und ausgeliefert. Das ist gut für die Aktualität, allerdings schlecht für die Website-Geschwindigkeit, denn je mehr eine Website aufgerufen wird, desto langsamer wird das ganze. In Sachen WordPress hilft hier ein Plug-In namens WP SuperCache, um die gröbsten Geschwindigkeitsdefizite auszugleichen. Die Grundeinstellungen des Plug-Ins sind schon recht gut, mit etwas Feintuning lässt sich hier gewaltiges Geschwindigkeitspotential hereinholen.
  • Browser-Caching von statischen Website-Elementen.
    Seiten-Caching (siehe oben) ist eine Sache, das Caching von statischen Elementen wie Grafiken, CSS- und JavaScript-Dateien im Browser des Besuchers eine andere. Hier hilft ein CMS logischerweise nicht sonderlich viel, sondern hier muss der Webserver ran. Mit dem Apache-Webserver bewerkstelligt man dies am einfachsten mit einer .htaccess-Datei und entsprechenden Einträgen und sorgt dafür, dass allen abgerufenen Dateien noch zusätzliche Parameter mitgegeben werden, die empfehlen, wie lange die entsprechenden Dateien im Webbrowser des Besuchers gespeichert werden dürfen und sollen.
  • HTTP-Komprimierung aktivieren.
    Auch eine Webserver-Einstellmöglichkeit, die nicht jeder Webhoster anbietet, aber zumindest die meisten. Auch das lässt sich meist über eine .htaccess-Datei aktivieren und sorgt dann dafür, dass alle ausgelieferten Web-Seiten und Seitenelemente vor dem Übertragen an den Webbrowser des Besuchers komprimiert und damit deutlich kompakter übertragen werden können. Gerade bei Textdateien wie HTML-, CSS- und JavaScript-Dateien ist hier eine deutliche Komprimierung der Übertragungsmengen möglich.

Das Optimieren kann man selbstverständlich noch weiter treiben bis zum Exzess. Allerdings hat man schon nach diesen vier großen Schritten einiges an Optimierung getan. Im Google-Reich kann man die Bemühungen an der eigenen Website mit den Google PageSpeed Tools begleiten und kontrollieren und sich – aus Google-Sicht – die Optimierung der Website in einer Punkteskala von 0 bis 100 bewerten lassen. Je höher, desto besser. Anfangs krebste mein Blog hier noch mit einem Wert von etwa 60 Punkten und liegt aktuell bei über 90. Das ist für mein Gefühl schon ganz gut und auch die Responsetime beim Seitenabruf ist deutlich schneller.

Und, AdSense? Nach zwei Wochen Testen hat sich die Click-Through-Rate tatsächlich deutlich gebessert und liegt nun bei rund 6 Promille. Kurz- und mittelfristig ist also tatsächlich einiges drin, was man durch eine technische Optimierung herausholen kann. Langfristig wird sich das noch zeigen.

Bye, Google Reader. :-(

Google ReaderEigentlich hatte man ja bis zuletzt darauf gehofft, dass Google noch mal ein Einsehen mit den vielen Fans des Google Readers hat und die Einstellung des Dienstes zum 1. Juli vielleicht doch nochmal zurücknimmt. Das wäre ziemlich unwahrscheinlich gewesen, aber so ist das halt, wenn man sich von einem guten Freund verabschieden muss. Und nun ist es wohl soweit. Das wird wohl mein letzter Blog-Artikel sein, den die über 120 Feed-Abonnenten, die über den Google Reader mitlesen, dort von mir finden werden.

Den Google Reader habe ich lange Zeit nicht wirklich beachtet gehabt, weil ich meine Feeds ursprünglich mit einer Software namens FeedReader direkt auf meinem PC aggregiert hatte. Irgendwann fiel es mir auf, dass es ziemlich sinnlos und in Sachen Stromverbrauch auch spürbares Geld kostet, wenn der PC auch tagsüber nur wegen Feeds läuft und zudem hatte ich auch das Problem, dass das Feed-Lesen nur am PC funktioniert. Der Google Reader war in Sachen Importieren meiner Feeds genügsam und funktionierte vom ersten Tag dann auch genau so, wie zu erwarten war. Einfach, übersichtlich, flott, zuverlässig.

Nun eben ab morgen nicht mehr. Ich hoffe, dass alle diejenigen, die bisher mein Blog über den Google Reader gelesen haben, ein neues Zuhause für ihre Feed-Sammlungen finden. Ich habe mir selfoss auf meinem Webhosting-Account installiert, bin damit nicht wirklich so recht zufrieden, allerdings auch nicht mit den vielen gehosteten RSS-Feed-Aggregatoren. Vielleicht muss es erst die ab morgen beginnende Leidenszeit richten, den dauerhaft funktionierenden Aggregator zu finden.

Schade. Ich bedaure die Einstellung des Google Readers immer noch.

Das Corporate Weblog als Verkaufsraum.

Bei all dem Bohei, das wir drüben im Gerstelblog, dem Corporate Weblog des Pforzheimer Autohauses Gerstel, machen, blieb immer eine Frage etwas schmerzhaft unbeantwortet: Haben wir es jemals geschafft, ein Auto über das Blog zu verkaufen? Okay, zweifellos wertvolle Öffentlichkeitsarbeit und Vernetzung in Social-Media-Netzwerken hin oder her, aber gefährlich wird immer die ultimative Frage: Können wir mit Social-Media-Aktivitäten nachvollziehbar einen direkten, hochwertigen Lead generieren, der dann im Verkaufsprozess auch tatsächlich landet?

Ich war immer davon überzeugt, dass das geht. Als Realist weiß ich allerdings, dass es dazu ein paar Dinge braucht, in etwa sogar in dieser Reihenfolge:

  • Ein Unternehmen, dass ein Corporate Weblog will und auch daran arbeiten kann.
  • Ein echtes Standing aller Chefs und Mitarbeiter zum eigenen Unternehmen und zur eigenen Marke.
  • Der unbedingte Wille zur direkten Öffentlichkeitsarbeit.
  • Atem. Viel Atem.
  • Ein vernünftiges, rational und emotional aufladbares Verkaufsprodukt.
  • Eine Geschichte drumherum.
  • Ein passendes Wording.
  • Blitzschnelle Reaktion auf einen Lead.

Et voilà: Das erste echte Gerstelblog-Auto, ein Opel Adam.

How we did it.

Beim Autohaus Gerstel hat es eine Weile gedauert, bis es zum ersten direkten Lead in Sachen Autoverkauf kam. Es gab zwar schon in den vergangenen Monaten immer wieder Leads, die aus dem Internet und dem näheren Gerstelblog-Umfeld zu kommen scheinten, allerdings haperte es vor allem an einer Sache: An einem emotional aufladbaren Verkaufsprodukt. Einen Opel emotional aufzuladen, das ist ein Herkules-Job, den leider viele Autohändler – meine Einschätzung – weitgehend aufgegeben haben.

Dabei ist in den letzten drei Jahren, in denen ich die Marke Opel von Berufswegen ja recht genau beobachte, gewaltiges dort passiert.

  • Ein großes Stück der Krise der Automobilindustrie ist über General Motors und Opel hereingebrochen und während sich die anderen großen Marken mit der Automobilkrise jetzt dann beschäftigen dürfen, hat Opel dieses Thema zu einem großen Teil schon durch.
  • In den vergangenen Monaten kamen eine Reihe von neuen Modellen auf den Markt, die sich sehen lassen können: Der Opel Ampera als funktionierendes Elektrofahrzeug, der Opel Astra GTC als flotter (und leider viel zu wenig beachteter) Flitzer, der Opel Mokka als günstiger SUV, der Opel Cascada als Cabriolet und eben der Opel Adam als Lifestyle-Fahrzeug im Segment des Mini One, des Fiat 500, des VW Up und des Citroen DS3.

Gerade der Opel Adam ist ein spannendes Auto, weil in diesem Segment, in dem dieses Auto positioniert ist, einiges sehr anders läuft. Einen Mini One kauft man nicht wegen eines günstigen Preisleistungsverhältnisses, sondern weil man so ein Auto offensichtlich haben will, egal was es unterm Strich dann kostet. Das Auto ist in diesem Lifestyle-Segment nicht einfach nur ein Fortbewegungsmittel, sondern ein Stilelement. Hier braucht es im Fahrzeugverkauf weniger den Ingenieur, der die Motorentechnik auf dem Effeff erklären kann, sondern eher den Berater, der sich mit dem Lifestyle des potentiellen Interessenten auseinandersetzen kann.

Dieses Auto lässt sich emotional aufladen und zwar bestens. Als kleiner „Herzensbrecher“, als „urbanes Stadtauto“, als „Abschleppwagen“, „klein und oho„, als „Baby-Opel“. Als defensiv wirkendes Kleinauto mit einem sympathischen Aussehen und vielen Individualisierungsmöglichkeiten gibt diese Karre Raum, es lieb zu haben. Damit muss man erst einmal klarkommen, wenn man lange Jahre Autos verkauft hat, die quasi den Standard in Sachen langweilige Autos definierten.

Aber dann? Ein solches Auto und eine solche Marke wie Opel nimmt einem Emotionen und auch gut gewürzte Ironie nicht übel – ganz im Gegenteil. Das entsprechend positionierte Auto steht mittendrin und streckt dabei – sinnbildlich gesehen – die Zunge heraus. Und das erzeugt wiederum genau die Menge an Sympathie, die den Kreis wieder schließen lässt.

15 Jahre netplanet.org.

Mit dem heutigen Tage ist die Domain „netplanet.org“, die Haupt-Domain für das Internet-Lexikon und auch für dieses Weblog, genau 15 Jahre alt. Tatsächlich im Jahre 1998 wirklich von Hand beim damaligen Monopolisten Network Solutions registriert und tatsächlich damals doch schlappe 70 US-Dollar per Kreditkarte bezahlt. Online. Das war damals auch der erste Einsatz meiner extra für diesen Zweck angeschafften Kreditkarte und meine damalige Hausbank fand diesen Online-Kauf mit meiner privaten Kreditkarte nicht sehr witzig, weil die Zahlung zu einer späteren Nachfrage und beinahe zu einer Kartensperrung führte. Mit privaten Kreditkarten zahlte man damals nicht im Internet.

Die Registrierungs lief übrigens nicht über ein Webformular o.ä. ab, sondern mit einer E-Mail und einem darin einkopierten Vorlagetext, den man dort auszufüllen hatte. Und zwar penibelst genau, selbstverständlich keinesfalls als HTML-Datei. Und als Ergebnis der Registrierung kam eine E-Mail-Bestätigung zurück (irgendwann morgens um vier Uhr) und einige Tage später ein Brief mit Rechnung.

Und siehe da: Ich habe in meinem Akten sogar noch die damalige Registrierungsbestätigung und Rechnung gefunden (und ein Klick macht alles groß):

Rechnung von Network Solutions für die Domain "netplanet.org" aus dem Jahre 1998.

Bezahlen konnte man dann eben per Kreditkarte oder auch per Scheck. Für letzteres lag sogar noch ein Rückumschlag bei. Und ich habe sogar noch den Briefumschlag aufgehoben, in dem all das einst zugeschickt wurde:

Briefumschlag von Network Solutions

Zweifellos inzwischen historische Stücke Papier, denn im geschäftlichen Umfeld sind rechnungsrelevante Unterlagen nach zehn Jahren nicht mehr archivpflichtig und solch Registrierungsgefledder ist bei den meisten Providern schon längst in den Schredder gewandert.