Website optimieren als AdSense-Sofortmaßnahme.

Obwohl ich seit 1998 Websites betreibe und praktisch ununterbrochen Inhalte im Web veröffentliche, habe ich mich um das Thema Website-Optimierung bis dato kaum gekümmert. Ich rede hier nicht von „SEO“, sondern von rein technischer Optimierung, also vornehmlich in Sachen Geschwindigkeit. Hier ist gerade bei dynamischen Websites einiges machbar und der eigentliche Antrieb dazu kam bei mir ausgerechnet wegen des schnöden Mammons – wenn auch auf sehr niedrigem Niveau.

Die Werbebanner von Google AdSense setze ich seit 2004 ein. Der große Reichtum hat sich durch AdSense dadurch nicht ergeben, allerdings hat es in den vergangenen Jahren immer dazu gereicht, einen Großteil des Hostings abzudecken und das ein oder andere Fachbuch zu kaufen. Genau Zahlen darf man ja nicht nennen, aber immerhin reichte es für eine regelmäßige Auszahlung der Einnahmen alle zwei Monate und das geht derzeit bei einem Guthaben ab 70 Euro.

Die letzten ein, zwei Jahre lief AdSense nicht mal mehr mittelprächtig. Mit Ach und Krach schaffte ich eine Auszahlung alle drei Monate und die Click-Through-Raten, also das Verhältnis zwischen Bannereinblendungen und Klicks bewegte sich nicht über 4 Promille hinaus. Für das netplanet-Lexikon und dieses Blog ein eher schlapper Zustand. Und da man so viel darüber liest, dass man als erstes einmal eine technische Optimierung einer mit AdSense bestückten Website probieren sollte, habe ich das einmal in Angriff genommen.

Eine technische Optimierung geschieht zunächst einmal mit folgenden Schritten:

  • Website und/oder Theme ausmisten.
    Man glaubt es nicht, was man bei einem CMS-Theme und/oder auf einer älteren Website alles für Mist mit sich herumschleppt. Alte Grafiken, Links auf längst gestorbene Websites, doppelte CSS-Dateien, nicht verwendete JavaScript-Bibliotheken, längst vergangene Experimente, eingebettete Analysecodes und so weiter und so weiter. Beispielsweise für den Firefox gibt es ein Add-In namens Firebug, mit dem sich Seitenabrufe analysieren lassen. Unter dem Reiter „Netzwerk“ lässt sich ein vollständiger Abruf aufzeichnen, inklusive aller von einer Web-Seite nachgeladenen Inhalte wie Grafiken und Scripte. Alles, was unnötig ist oder HTTP-Fehler erzeugt, sollte man genau nachprüfen.
  • Caching auf dem Webserver aktivieren.
    CMS bauen normalerweise, wenn man sie auspackt und installiert, Seiten immer dynamisch auf. Bei jedem Seitenaufruf wird im Hintergrund vom CMS die Seite aus Codeeinzelteile zusammengebaut und ausgeliefert. Das ist gut für die Aktualität, allerdings schlecht für die Website-Geschwindigkeit, denn je mehr eine Website aufgerufen wird, desto langsamer wird das ganze. In Sachen WordPress hilft hier ein Plug-In namens WP SuperCache, um die gröbsten Geschwindigkeitsdefizite auszugleichen. Die Grundeinstellungen des Plug-Ins sind schon recht gut, mit etwas Feintuning lässt sich hier gewaltiges Geschwindigkeitspotential hereinholen.
  • Browser-Caching von statischen Website-Elementen.
    Seiten-Caching (siehe oben) ist eine Sache, das Caching von statischen Elementen wie Grafiken, CSS- und JavaScript-Dateien im Browser des Besuchers eine andere. Hier hilft ein CMS logischerweise nicht sonderlich viel, sondern hier muss der Webserver ran. Mit dem Apache-Webserver bewerkstelligt man dies am einfachsten mit einer .htaccess-Datei und entsprechenden Einträgen und sorgt dafür, dass allen abgerufenen Dateien noch zusätzliche Parameter mitgegeben werden, die empfehlen, wie lange die entsprechenden Dateien im Webbrowser des Besuchers gespeichert werden dürfen und sollen.
  • HTTP-Komprimierung aktivieren.
    Auch eine Webserver-Einstellmöglichkeit, die nicht jeder Webhoster anbietet, aber zumindest die meisten. Auch das lässt sich meist über eine .htaccess-Datei aktivieren und sorgt dann dafür, dass alle ausgelieferten Web-Seiten und Seitenelemente vor dem Übertragen an den Webbrowser des Besuchers komprimiert und damit deutlich kompakter übertragen werden können. Gerade bei Textdateien wie HTML-, CSS- und JavaScript-Dateien ist hier eine deutliche Komprimierung der Übertragungsmengen möglich.

Das Optimieren kann man selbstverständlich noch weiter treiben bis zum Exzess. Allerdings hat man schon nach diesen vier großen Schritten einiges an Optimierung getan. Im Google-Reich kann man die Bemühungen an der eigenen Website mit den Google PageSpeed Tools begleiten und kontrollieren und sich – aus Google-Sicht – die Optimierung der Website in einer Punkteskala von 0 bis 100 bewerten lassen. Je höher, desto besser. Anfangs krebste mein Blog hier noch mit einem Wert von etwa 60 Punkten und liegt aktuell bei über 90. Das ist für mein Gefühl schon ganz gut und auch die Responsetime beim Seitenabruf ist deutlich schneller.

Und, AdSense? Nach zwei Wochen Testen hat sich die Click-Through-Rate tatsächlich deutlich gebessert und liegt nun bei rund 6 Promille. Kurz- und mittelfristig ist also tatsächlich einiges drin, was man durch eine technische Optimierung herausholen kann. Langfristig wird sich das noch zeigen.

Rechtsfahrgebot in Pusemuckel.

Da mache ich doch glatt mal mit, wenn die werten Herren Gassner und Theofel mit dem „Rechtsfahrgebot in Pusemuckel“, das dort ausdrücklich nicht gilt, weil es kein Pusemuckel gibt, zeigen wollen, wie unsinnig SEO ist und wie einfach man mit echtem Blog-Content Begrifflichkeiten in Google ganz, ganz nach oben bekommt. Einen weiteren Artikel gibt es auch im Weblog meines Kunden, dem Autohaus Gerstel, nebenban. Und da ist es ein Heimspiel, denn das ist ein Automobilblog. 😉

Wer Pusemuckel übrigens findet, darf es gern behalten.

Bye-bye, webserver-basierte Statistikauswertung.

Seit den Anfangstagen von netplanet habe ich in Sachen Webserver-Auswertung fast durchgehend serverseitige Anwendungen am Start und immerhin seit 2004 den Webalizer. Webserver-seitige Statistiken haben den großen Vorteil, dass das Schreiben von Logfiles nahezu geräuschlos im Hintergrund des Webservers vonstatten geht und eine serverseitige Auswertung einst auch sehr lässig anzuschauen war.

Das funktionierte so lange, bis Weblogs und Kommentar-Spam kamen. Seit diesem Zeitpunkt beschäftigt sich früher oder später ein Webserver mit einem zu hostenden Weblog weitgehend nur noch mit Kommentar-Spam. Und „weitgehend“ ist ernst gemeint, denn als ich spaßeshalber einmal einen halben Tag dazu gebracht habe, die echten Apache-Weblogs nach eindeutigen Spuren von Versuchen, Kommentar-Spam abzulassen, durchforstete, traf mich der berühmt-berüchtigte Schlag – ich hätte eher nach Einträgen suchen sollen, die offensichtlich nicht Spam-Versuche sind, denn während dieses Weblog in der Woche normalerweise 3.000 bis 5.000 Pageviews zustandebringt, waren die Seitenaufrufe im Serverlog für die gleichen Zeiträume rund um den Faktor 10 höher. Wir reden davon, dass auf meinem Webserver für alle hier gehosteten Weblogs rund 90 % aller Seitenaufrufe purer Müll sind. Und ja, in dieser Rechnung ist berücksichtigt, dass Pageviews nicht Hits sind (Grafiken, RSS-Feed-Aufrufe und sonstige Dateien habe ich nicht mitgezählt). Solche Erkenntnisse erden. 🙁

Nun gibt es zwar für alle gängigen Web-Statistikprogramme auch mehr oder weniger ausführliche Filtermöglichkeiten, mit denen sich bekannte IP-Adressen von Kommentar-Spammer ausfiltern lassen, ebenso bestimmte Muster in den URL-Aufrufen. Nur: Was nützt diese Arbeit, wenn sich gerade die Liste der IP-Adressen ständig ändert? Schon zu meiner Zeit als Sysadmin bei einem ISP habe ich sehr schnell gelernt, dass die Pflege einer Installation einer Web-Statistik ein höchst undankbarer Job ist und einer gewaltigen Feineinstellung bedarf, um mit der Berechnung nicht den gesamten Server auszulasten. Bedanken tut sich für die Arbeit maximal der Chef, die meisten Kunden haben nicht ansatzweise eine Ahnung davon, was da im Hintergrund passieren muss, um eine aktuelle Web-Statistik zu produzieren.

Noch fataler wird es, wenn man der eigene Chef ist und man sich dann auch die Frage stellen darf, warum man eigentlich gegen eine elend mächtige Spammer-Front anzukämpfen versucht. Diese Frage habe ich vor einigen Wochen damit beantwortet, dass ich alles netplanetare nebenbei von unserer unternehmenseigenen Piwik-Installation auswerten lasse, also einem System, dass nach dem „Google-Analytics-Prinzip“ arbeitet: Im Seiten-Template meines Weblogs steckt ganz unten im Seitenfuß ein kleines Code-Schnipsel, der einen Aufruf in der Piwik-Installation erzeugt und alle notwendigen Aufrufparameter übermittelt.

Piwik bringt gleich eine ganze Reihe von Vorteilen mit: Die Spam-Aufrufe werden nicht mitgezählt, zudem pflegt die Piwik-Community solche Dinge wie Browser-, Betriebssystem- und Providerlisten. Alles Dinge, mit denen man sich einst mal gern beschäftigt hat. In der Zwischenzeit macht das alles nur noch wenig Spaß. Und noch weniger Sinn.

„SEO“ versus echtem Content.

In den vergangenen Tagen und Wochen haben Oliver und ich eine Menge darüber reden müssen, was eigentlich „richtiges“ Search Engine Optimizing ist. Damit verbunden sind, wie es bei uns üblich ist, teilweise sehr intensive Diskussionen darüber, was wir eigentlich gut finden und was nicht. Bei einigen Themen unserer gemeinsamen Arbeit in Sachen Web und Web 2.0 pflegen wir durchaus einen gesunden Diskurs zwischen unterschiedlichen Haltungen. Dafür schämen wir uns nicht und wenn ein Kunde uns zu speziellen Themen fragt, sagen wir auch ganz offen, dass wir dazu unterschiedliche Ansichten haben. Wir sind der festen Überzeugung, dass dies kein Wettbewerbsnachteil ist und gerade in der Web-2.0-Thematik gibt es sehr viele offene Punkte, zu denen man teilweise diametral unterschiedliche Ansichten haben kann.

In einem Punkt besteht jedoch weder bei Oliver noch bei mir eine Abweichung, nämlich der Haltung dazu, wie echtes Suchmaschinenmarketing auszusehen hat. Zusammengefasst passt es in einen Leitsatz, der quasi ein Untertitel unserer Unternehmung sein kann:

Content rules!

Eigentlich doch sehr einfach. Je mehr sich Oliver und ich an diesem Leitsatz abarbeiten – und das tun wir immer wieder als eine Art Sparring – desto mehr manifestiert er sich. Und dafür hat es eine Reihe von schwergewichtigen Gründen.

Die Relevanz von echtem Content kommt langsam, dann aber gewaltig.

Mein großes Hobby, das Erfinden von Analogien, kommt beim Themenfeld „Content“ voll auf seine Kosten. Ich vergleiche SEO und Content-Building da gern so:

Eine dicke Welle macht den Strand nass, korrekt. Content-Building kann nie eine große Welle sein, kommt aber meist als viele kleine Wellen daher. Auch die machen den Strand nass. Und im Gegensatz zur einen großen Welle, die vielleicht die extremen Surfer anzieht, haben die vielen kleinen Wellen einen anderen Vorteil: Sie erfrischen und sind ungefährlich, so dass an so einen Strand eher die Familien mit ihren Kindern kommen.

Eigentlich ist hier schon alles gesagt. Das Herumfummeln mit Keywords ist für die allermeisten Themenfelder keine wirkliche Kunst, sondern in meinen Augen ein teures Verkaufen einer an sich völlig normalen Vorgehensweise. Der überwältigende Teil des Informationsraumes wird gebildet aus Schlüsselwörtern, die belanglos sind und in Kombinationen eine völlig irrelevante Relevanz haben. Das heißt, dass es in den allermeisten Optimierungssituationen gar keine wirkliche Optimierung notwendig ist, sondern einfach das Nennen von Keywords. Daraus kann man natürlich erheblichen Hokuspokus machen und auch gigantisch Geld herausschlagen, wenn man es mit weitgehend unbedarften Kunden zu tun hat.

Tatsächlich ist aber eine große Welle eine sehr zweischneidige Sache. Es muss nur der nächste kommen, der ebenfalls die gleiche Methode anwendet und schon gibt es zwei dicke Wellen, die um die Vorherrschaft kämpfen. Und verlieren tut hier spätestens der, der nicht flexibel reagiert, also mit Inhaltsveränderungen Paroli bietet.

Ist das nicht ein Drecksjob, weil ohne Substanz?

Ist es. Weil es zu nichts führt. Außer zum Zeitschinden. Wer aber ausschließlich mit Voodoo und Zeitschinden sein Geld verdient, der macht einen schweren Job, bei dem gar nicht so sicher ist, ob er den lange machen wird.

Echter Content ist der gewünschte Humanfaktor, den eine Suchmaschine sucht.

Weil es vom mathematischen Standpunkt aus gedacht ist und damit rechnet, dass ein Herr Google sich von einer bestimmten Anzahl von Keywords, Backlinks und Alter einer Domain beeindrucken lässt, kann bisheriges Suchmaschinenoptimieren nicht mehr funktionieren. Aus dem Zeitalter sind, ebenfalls meiner Meinung nach, alle großen Suchmaschinen längst heraus oder sind zumindest dabei, sich daraus zu verabschieden.

Wenn man sich Google über Jahre hinweg anschaut, wird man erkennen können, dass man dort alles tut, der Suchmaschine „Menschlichkeit“ einzupflanzen. Das passiert meiner Meinung nach immer weniger mit dem kaum zu bewerkstelligenden Versuch, einen Algorithmus zu finden, der möglichst nahe an der Art und Weise rechnet, wie der Mensch denkt, sondern mit dem Ansatz, einfach alle Beteiligten im Web (also Anbieter und Suchender) für sich einzuspannen.

Glaubt der geneigte Leser nicht? Dann aber müsste der geneigte Leser glauben, dass Google tatsächlich nicht am „fundamentalen“ Index arbeitet, sondern viele Dinge macht und sie nicht miteinander verwebt, obwohl man alle Stränge in einer Hand hat. Glaube ich so nicht.

Für jeden, der im Web etwas tut, hat Google eine Möglichkeit, sich aus dessen Web-Arbeit das herauszunehmen, was für einen perfekten Index benötigt wird. Suchende können mit einem Google-Account kostenlose und sehr gute Collaboration-Dienste nutzen und sind im Gegenzug ständig bei Google angemeldet, damit auch bei der Nutzung der Suchmaschine. Google weiß, was wer sucht und auf welchen Ergebnislink am Ende geklickt wird. Web-Anbieter können sich Google Analytics einbinden, um genaue Statistiken ihrer Website zu erhalten, Google AdSense zum Erlösen von Werbebannereinnahmen, Google Reader zum Lesen von RSS-Feeds, Google Groups für die Nutzung des Usenet, Google Maps für Lokationsdienste, Google Mail als einfaches Postfach, YouTube zur Unterhaltung, Picasa zur Bereitstellung und Beschreibung von Bildern.

Alle diese Dienste sind zum einen angenehm für deren Nutzer, weil sie gut funktionieren, nützlich sind und darüber hinaus kostenlos, zum anderen ungemein notwendig für Google, weil Google dadurch lernen kann, wie der Mensch Information sucht, wie er sie selbst interpretiert und wie er vor allem eigene Information beschreibt, die wiederum gesucht wird. Ich habe das mal vor eine ganzen Weile in einem erheblich düsteren Unterton gebloggt („Von der so genannten Anonymität von Suchmaschinen„), sehe das aber inzwischen gar nicht mehr so. Wenn Google mir für meine menschliche Arbeitsleistung einen vernünftigen Gegenwert liefert und meine gesammelten Daten schützt, soll es mir recht sein.

Gar nicht mehr so steile These von mir: Google ist zwar eine Maschine, hat aber schon heute einen unübersehbaren Humanfaktor im Index. Und der kann zukünftig nur noch größer werden. Hochindividuelle Suchergebnisse für jeden einzelnen Suchenden können da nur das Ergebnis sein und spätestens da knallt das „klassische SEO“ dank fehlender Abfragemethodik schmerzhaft gegen den Prellbock.

Wer schreibt, der bleibt.

Die Kunst liegt darin, Content zu liefern und zwar in vielen kleinen Schritten, so wie es eben auch der Mensch in seiner Kommunikation tut. Wer auf diese Weise um ein bestimmtes Themenfeld ständigen Content bildet, bildet auf diese Weise in diesem Themenfeld nach und nach eine Autorität aus, die er ungleich schwerer wieder verlieren wird und die er auch umso stärker verteidigen kann, je länger er schon Content bildet.

Es geht also im modernen Suchmaschinenoptimieren von Websites nicht mehr darum, einfach nur die relevanten Keywords herauszusuchen, einen kopierten Metatag-Block damit zu bestücken und auf die uralte Webseite einzukleben, sondern es geht um viel mehr. Es geht darum, ob eine Website syntaktisch korrekt ist, ob sie Platz für dynamischen Content bietet, ob sie XML-Sitemaps und RSS-Feeds produzieren kann – und ob letztendlich sich auch jemand hinsetzt, Content zu schreiben.

Ich sehe deshalb das, was heute als „SEO“ bezeichnet wird, zukünftig in einer redaktionellen Arbeit. Content bilden, Content redigieren, Content „online-fähig“ machen. Aber eben echten Content, nicht einfach nur das plumpe Sammeln von Keywords im Metatag, die jeder ungebildete Affe mit schlechter Orthografie zusammengetragen bekommt.

„Was sollen wir denn regelmäßig schreiben? Wir haben doch nix!“

Wer das als Unternehmer so sagt und der Meinung ist, er könne seine Website nicht regelmäßig mit frischem Content befüllen, der macht etwas grundlegend falsch: Entweder hat er keine Lust oder Zeit, darüber zu schreiben, was tatsächlich in seinem Unternehmen passiert oder er hat ein totes Unternehmen, das tatsächlich keine Neuigkeiten produziert. Dann muss aber auch nichts mehr optimiert werden.

Es gibt de facto kein Unternehmen, das Information erzeugt bzw. erzeugen könnte. So Analogien wie „Im Gespräch bleiben“, „Wer nicht wirbt, stirbt“, „Tue gutes und rede darüber“ haben alle einen sehr tiefen Sinn in der Kommunikation und genau das liegt auch schon der Maßstab. Es muss geschrieben werden, was man tut, denn ein einfacher Telefonbucheintrag bringt nur in sehr kleinen Nischenmärkten Kundschaft und selbst da könnte es sicherlich mehr sein, wenn man sich nicht nur auf diesen Telefonbucheintrag verlässt.

Wer sich online an kommunikative Grundsätzlichkeiten hält, also in erster Linie schon mal versucht, menschlich und kommunikativ zu sein, tut den ersten Schritt und kann ab diesem Zeitpunkt nur noch gewinnen. Wir sind dann nur noch einen Schritt davon entfernt, tatsächlich loszulegen.

Technologie ist für die Kommunikation da, nicht die Kommunikation für die Technologie.

Wer das Web bereits geentert hat, ist schon mittendrin. Webhosting kostet heute selbst in einer professionellen „Enterprise-Klasse“ einen Bruchteil dessen, was eine vernünftige Broschürenauflage kostet. Dazu gibt es eine Reihe von Redaktionssystemen, die als Open Source daherkommen, also nur noch von einem Fachkundigen angepasst werden müssen. Und wer ein modernes Redaktionssystem mit einem gesonderten Neuigkeitenbereich einsetzt, dessen neue Artikel dann vielleicht netterweise auch noch in einem RSS-Feed propagiert werden, hat seine Rakete schon startklar.

Was danach kommt, ist Handarbeit und der Teil der Arbeit, den leider kaum ein Web-Dienstleister liefert: Nämlich einen Fahrplan dazu, wie man Content erzeugt, ein helfendes Händchen dafür, den ersten Content zu erstellen und später eine Beratungsdienstleistung dafür, wenn Fragen auftauchen oder Content von externer Seite erstellt werden soll. Das funktioniert.

Mein Paradepferd ist hier immer noch das Gerstelblog, das seit Ende Mai läuft und das Weblog des Autohaus Heinrich Gerstel in Pforzheim ist. Das, was ich schon nach einem Monat Gerstelblog zwischenbilanziert hatte, verfestigt sich immer weiter. Dass durch das Bloggen aber vor allem auch der Schlüsselwortraum beeinflusst wird, zeigt sehr schön das Schlüsselwort „Holzsitzbank“ bei Google, das lediglich in einem Artikel erwähnt wurde.

Selbstverständlich ist der eher exotische Begriff „Holzsitzbank“ nicht unter den hauptsächlichen Schlüsselwörtern eines Opel-Autohauses, allerdings zeigt es sehr deutlich, wie Google Relevanz einschätzt. Wenn man dann noch weiß, dass Google keine zwei Stunden nach Erscheinen des betreffenden Holzsitzbank-Artikels die Seite schon im Index hatte und nach einem Tag der Artikel auf die jetzige Position kam, kann man sich ausmalen, was hier für Möglichkeiten stecken im Gegensatz zum simplen Zusammenklopfen von Metatags.

Don’t use IE6 anymore!

Genau das. Bitte, falls ihr tatsächlich noch den Internet Explorer 6 nutzen solltet und die Installationsgewalt über euren Computer habt: Werdet den Browser los und aktualisiert ihn! Dafür sprechen gleich eine Reihe von Gründen:

  1. Der Internet Explorer 6 ist uralt, veröffentlicht wurde er tatsächlich im August 2001, ist also fast neun Jahre alt. Tatsächlich kommt er also noch aus einer Zeit, in der Windows 2000 und Windows ME (wer erinnert sich tatsächlich noch an Windows ME?) als Betriebssysteme aktuell waren. Okay, Windows 2000 war für damalige Verhältnisse gar nicht so schlecht, aber pardon, lieber Leser: Danach kamen Windows XP, Windows Vista und jetzt haben wir Windows 7.
  2. Der Internet Explorer 6 hielt sich damals schon an einige Standards, war aber auch schon damals weit davon entfernt, sich großflächig an HTML- oder CSS-Konventionen zu halten. Logischerweise ist er das heute immer noch und das Problem hat sich im Laufe der Zeit erheblich verschlimmert, da die Entwicklung im Bereich von HTML, CSS, aber auch dem Document Object Model (DOM) und anderen Bereich weitergegangen ist.
  3. Der Patchsupport für den Internet Explorer 6 ist eingestellt, Microsoft pflegt dieses Ding nicht mehr. Man könnte da im ersten Moment auf Microsoft schimpfen, allerdings ist das unberechtigt, denn kein Browserhersteller pflegt alte Versionen ewig. Firefox
  4. Für den Internet Explorer gibt es aktuell mit dem Internet Explorer 8 einen würdigen Nachfolger, der viele Dinge kann, die man dem Internet Explorer 6 nur mit viel Einsatz von externen Tools beibringen konnte. Denken wir da nur mal an das Tabbed Browsing, dem Lesezeichenmanagement, den verbesserten Sicherheitseinstellungen etc. Und ja, der Internet Explorer 8 lässt sich auch problemlos unter Windows XP installieren.

Der Internet Explorer 6 war nie wirklich gut, er war nur zufällig bei Windows XP von Hause aus dabei. Und nun lasst ihn bitte gehen. Echt jetzt. Hier geht es zum Internet Explorer 8.

Website archivieren.

Heute hatte das Wahlkampfteam um den neuen Pforzheimer Oberbürgermeister Gert Hager seinen letzten Auftritt als Wahlkampfteam, in dem wir zu viert einen Termin beim Pforzheimer Stadtarchiv hatten, um einen Haufen Wahlkampfmaterialien für die Pforzheimer Geschichtsschreibung abzugeben. In der Tat sind selbst in unserer modernen und augenscheinlich so dokumentierten Zeit gerade solche Sachen wie Wahlkampfmaterialien ein höchst zu archivierendes Gut, denn Wahlkampf spiegelt auch immer ein Stück Zeitgeist und gesellschaftlichen Diskurs.

Nun gut, in Sachen von Plakaten, Prospekten, Aufklebern, Flyern, Briefpapier und so weiter ist das alles kein Problem -man zweigt von Anfang Material ab, packt das in eine Kiste und trägt das ins Stadtarchiv. Bei klassischen analogen Fotos ist das auch kein Problem, sowas überdauert bei vernünftiger Archivierung seine Jahre und Jahrzehnte.

Anspruchsvoller wird es dann schon mit digitalen Fotos und digital vorliegenden Materialien, beispielsweise Druckvorlagen. Hier gilt die Maßgabe tatsächlich auf PDF-Dateien, gebrannt auf CD oder DVD.

Das alles beantwortete dann aber nicht meine Frage, was denn mit der Wahlkampfhomepage zu machen wäre zwecks Archivierung. Denn dahinter steckt eine WordPress-Installation und das ist alles andere als flach.

Hier haben wir uns dann darauf geeinigt, dass die Seiten und Artikel in Form von Monatsarchiven angezeigt und dann als PDF-Dateien ausgegeben werden sollten. Das lässt sich nämlich dann wieder elektronisch archivieren, aber auch ausdrucken und binden.

Und binden ist tatsächlich eine gute Idee, denn es wird viel. Nach den ersten Seiten habe ich einen Zielwert von 50 bis 80 Seiten hochgerechnet. Erstaunlich, was da alles an Content zusammengekommen ist in einem halben Jahr.

Es ist aber andererseits auch höchst interessant zu sehen, was an Wahlkampfberichterstattung schlicht wegfallen würde, wenn wir eben den schnellen Löschfinger machen und nicht daran denken, dass man in möglicherweise ferner Zukunft den Krempel nochmal anschauen oder zumindest nachvollziehen will.

Webdesign auf Breitbildschirmen.

Ich will in der Zwischenzeit meinen echten 16:9-HD-Bildschirm, den ich an meinem PC einsetze, nicht mehr missen und auch nicht mehr hergeben. Zu schnell habe ich mich an das überaus angenehme Bildformat gewöhnt und habe nun auch Platz für mehrere Fenster und Anwendungen mit viel Fensterinhalt.

Was mir aber auch aufgefallen ist, ist der Umstand, dass das Breitbildformat ungeheuer das Formatgefühl des Benutzers beeinflusst. Zum Beispiel kam mir das Format des Bildschirmes deutlich breiter vor, als das meines HD-Fernsehers. Da ich meinen Forscherdrang befriedigen musste, habe ich beide Bildschirme genauestens nachgemessen – beide haben absolut identische Formatdimensionen, der eine ist eben nur 28 Zoll diagonal groß, der andere kommt mit 42 Zoll daher.

Der zweite, gefährliche Effekt betrifft das Abschätzen von Größenverhältnissen. Bei einer Bildschirmbreite von 1.920 Pixel kann man ein Browser-Fenster nicht in voller Breite betrachten, wenn nicht die meisten, betrachteten Web-Seiten albern nur klein in der Mitte angezeigt werden sollen. Also arbeite ich mit einem Browser-Fenster, das etwa 1.200 Pixel Breite hat. Schaue ich dann aber bei einem 4:3-Bildschirm mit meinetwegen echter Bildschirmbreite von 1.280 Pixel Breite die Seite nochmal an, haut es mich vom Hocker, wie riesig die Seite dann daherkommt.

So habe ich auf einer Kandidatenseite mit einem sehr großen Kopf des Kandidaten gearbeitet und bin fast vom Stuhl gefallen, wie riesig das auf einem "normalen" Bildschirm daherkommt. Nun gut, das war so gewollt, aber es ist gewöhnungsbedürftig, dass man aufpassen muss – das Bildformat macht der Intuition und dem Ästhetikgefühl durchaus zu schaffen.

Ich habe übrigens am Samstag in das noch geheime Ding schauen dürfen, was einmal die Kandidatenseite von Frank-Walter Steinmeier zur Bundestagswahl sein wird – das Ding wird der absolute Hammer und bestätigt einige Dinge, die ich auch als zentrale Ansätze von Politik 2.0 ansehe und danach arbeite. Ich konnte kaum ruhig sitzenbleiben.

Google AdSense mit enthülltem Ariadnefaden.

Der Ariadnefaden, den der gemeine Websurfer so durch sein Online-Leben zieht, wird nun – naja, nicht wirklich mehr größer, sondern eher deutlicher. Und offenbar muss Google nun mit deutlich mehr Mühe seine Schäfchen im Trockenen behalten. So von wegen „don’t be evil“.

Fakt ist, dass AdSense-Nutzer heute Elektropost bekommen haben, in denen folgendes lapidar befohlen wird:

„Aufgrund dieser Einführung ist es erforderlich, dass Sie die Datenschutzbestimmungen Ihrer Website überprüfen und gegebenenfalls ändern.“

Worum geht es? Um Ausnutzung der Business Intelligence, die Google mit AdSense dadurch ermittelt, in dem auf praktisch jedem halbwegs lesbaren HTML-Furz im Web ein AdSense-Banner hängt. Diese im ganzen Web verlegten Tretminen zeichnen nämlich durch ihre benutzereindeutige Verankerung mit, wo ein Benutzer im Laufe seines Online-Tages alles hinsurft. Und genau diese gesammelten Informationen will Google nun auch dazu nutzen, den Inhalt für AdSense-Banner auf den folgenden, zu besuchenden Seiten zu spezifizieren.

Beispiel: Ein Benutzer war auf zehn Websites mit Autozubehör. Wenn es auf diesen Websites AdSense-Werbebanner gab, wird AdSense höchstwahrscheinlich autospezifische Werbeinhalte präsentiert haben. Geht nun der Benutzer nach dem Besuch dieser zehn Websites auf eine Website mit Kochrezepten, will Google nun nicht einfach dort kontextsensitive Banner zum Thema Kochrezepte anzeigen dürfen, sondern vielleicht weiter autospezifische.

Technisch ausgeführt wird das wie üblich mit Cookies, die im Browser des Benutzers gesetzt werden wollen und eine eindeutige Benutzeridentifikation darstellen. Interessanterweise macht Google das nun aber nicht mehr allein, sondern mit einem altbekannten Partner im Werbe-Profiling, nämlich mit DoubleClick. Von dort wird nämlich nun auch ein Cookie gesetzt bzw. abgefragt, wenn ein AdSense-Banner geladen wird. Und mit DoubleClick haben da nun zwei der größten (wenn nicht gar die beiden größten) Bannerverchecker eine gar wundervolle Zusammenarbeit zur Fast-Perfektion gebracht.

Also, lieber Websurfer, bitte nicht wundern, wenn deine Frau/Freundin sich bei dir beschwert, dass nach dem Start des Webbrowsers eindeutige Inhalte in AdSense-Bannern erscheint: Möglicherweise ist nicht Google daran schuld, sondern du selbst, der vorher auf Ferkel-Websites gegangen bist.

Umfragen manipulieren für Anfänger.

Über das Umfragensystem der Pforzheimer Zeitung habe ich mich ja schon vor einigen Tagen köstlich amüsiert. Höchste Eisenbahn also, das Ding mal etwas näher anzuschauen, wie denn so die Abwehr von Missbrauchversuchen aussieht.

Denn auch wenn ein Voting-System an sich relativ einfach ist – man muss halt ein Script haben, dass verschiedene Zähler auf Benutzerinteraktion korrekt um eine Stelle nach oben verschiebt und das Ergebnis auf Knopfdruck anzeigen – muss es vor allem eine Sache können: Wiederholte Stimmenabgaben erkennen und verhindern. Online-Umfragen sind schon per default weit von jeglicher Repräsentation entfernt, da will man sich nicht gleich von jedem Deppen, der die Zurück-Funktion im Browser entdeckt hat, die Umfrage gleich von Anfang an ruinieren lassen.

Es gibt da zwei logische Ansätze: Client-seitige und server-seitige Prüfung. Erstere ist einfach, weil man den Benutzer gleich bei der Interaktion erwischen kann, beispielsweise per JavaScript, Cookies und AJAX-Abfragen, letzteres ist jedoch erheblich fundierter, weil man auf dem Server beispielsweise IP-Adressen, Browserkennungen, eindeutige Session-ID etc. mitloggen und diese nach Stimmabgaben sperren kann. Idealerweise baut man sich aus beiden Ansätzen ein System zusammen. Empfehlungen, Anleitungen und Beispiel-Scripte gibt es wohl in jedem Handbuch für Webdeveloper. Das System, das die Pforzheimer Zeitung einsetzt ist, mit Verlaub, dumm wie ein Päckchen ATA, denn es setzt nur auf einen Cookie-Check.

Ist in einer Seite das Umfragemodul eingebunden, prüft ein erstes Script zunächst einmal, ob das Speichern von Cookies im besuchenden Webbrowser möglich ist. Das macht es durch das Setzen eines Cookies namens „PZ_Allow_Survey_XXX“ („XXX“ steht hierbei für eine Zahl, die die Umfrage kennzeichnet). Dieser Cookie verschwindet nach Schließen des Webbrowsers übrigens auch wieder sang- und klanglos, weil seine Gültigkeit in die Vergangenheit datiert ist und Cookies in so einem Fall nach Sitzungsende des Webbrowsers gelöscht werden müssen.

Der Besucher kann nun an der Umfrage teilnehmen, also den passenden Radiobutton auswählen und auf „Absenden“ drücken. Die Übertragung erfolgt hierbei per AJAX im Hintergrund, so dass die Seite komfortablerweise nicht neu geladen werden muss. Hat er nun seine Stimme abgegeben, setzt das Votingscript einen weiteren Cookie namens „PZ_Survey_XXX“ mit einer Gültigkeit von etwa fünf Monaten in die Zukunft. Das ist dann der Cookie, den das Script zum Abstimmen sucht; findet er dieses Cookie, lässt es die Stimmabgabe nicht zu. So lange, bis eben das letztere Cookie schlicht gelöscht wird. Und das geht zum Beispiel beim Firefox kinderleicht, in dem man bei der Cookie-Suche lediglich „pz-news“ eingibt und auf den Löschbutton klickt. Fertig. Und weil man im Firefox eleganterweise das Fenster zum Verwalten von Cookies schön neben das Browser-Fenster drapieren kann, muss man auch gar nicht so viel herumklicken.

Die wirklichen Noobs würden sich natürlich ein hübsches Batchscript schreiben und den Cookie-Besitz schlicht über die die HTTP-Anfrage faken. Solche pupsigen Sachen sind dann aber nichts mehr für Nerds, das ist schlicht unter unserer Würde. 🙂

Warnung: Reißt euch zusammen und haltet eure Griffel weg.

Warum die Welt Google Chrome nicht braucht.

Eigentlich kann man die Frage, warum die Welt Google Chrome nicht braucht, sehr einfach beantworten: Warum nutzen wir Firefox? Genau, weil der Internet Explorer von Microsoft ist und Microsoft den Internet Explorer schamlos als Marketingplattform für seine eigenen Dienste nutzt. Abgesehen davon, dass der Internet Explorer einfach nur dämlich ist, schon immer dämlich war und auch immer dämlich bleiben wird.

Der ganze Marketing-Firlefanz, dass Google Chrome deshalb geschrieben hat, um dem User endlich einen stabilen Browser hinzustellen… sorry, Crap. Es geht darum, mit Google Chrome noch deutlicher, noch universeller und noch ungestörter möglichst nur die Google-Dienste schmackhaft zu machen und sonst nichts. So lustig bunt und sauber Google auch daherkommen mag – der Kampf auf dem Desktop (beileibe nicht nur unter Windows) ist beinhart und da ist Präsenz gefragt. Google-Präsenz ist in Firefox und dem Internet Explorer austauschbar, also bleibt die einzige Alternative, selbst einen Browser zusammenzubasteln, der natürlich immer besser als die Konkurrenz ist. Wenn es nicht ganz so penetrant und bodenlos wie mit der Religionsmethode von Steve Jobs läuft, kann man es zumindest tolerieren.

In diesem Sinne weiß ich partout nicht wirklich auch nur ein einziges Argument, weshalb ich Firefox aufgeben sollte und weshalb dieser Planet Google Chrome braucht.