• Netzprobleme bei O2.

    Schon die letzten Tage gab es im Raum Pforzheim gehörige Netzstörungen im Mobilfunknetz von O2, wenn man den Lokalzeitungen glauben mag. Angeblich käme bei der Anwahl von Mobilfunknummern falsche Personen am anderen Ende heraus, in einer kursierenden Geschichte habe gar ein Sohn bei seinen Eltern angerufen und gesagt, dass er vor kurzem von seinen Eltern einen Anruf erhalten habe, sie aber mit ihm gar nicht gesprochen hätten und er im Hintergrund gehört habe, wie sich die Eltern über die Gartenarbeit unterhalten hätten. Ein Leser und Kunde habe dann auch bei O2 angerufen und die Rückmeldung bekommen, dass eben im Raum Pforzheim bis heute Störungen im Netz aufgetreten seien.

    Nun muss man nichts wirklich glauben, vor allem nicht, wenn eine in technischen Dingen weitgehend inkompetente Zeitung über Mobilfunkthemen schreibt und möglicherweise auch Leser befragt, die nicht so recht unterscheiden können, ob sie nun auf die grüne oder die rote Taste auf dem Handy gedrückt haben. Da habe ich schon genügend mit der näheren Be- und Verwandschaft erlebt, um zu wissen, dass man mit einem Handy alles mögliche anstellen kann und natürlich immer der Mobilfunkhersteller, der Netzbetreiber, der Akkulieferant oder wahlweise alle zusammen Schuld daran haben.

    Was ich jedoch heute beobachtet habe, war, wie der Akkustand meines Mobiltelefones heute im Sauseschritt dem Ende entgegenging. Heute morgen noch zu 75 % voll, war der bis um 18 Uhr leer. Das ist dann etwas zu auffällig dafür, dass offenbar O2 zumindest heute ganz gehörig an ihrem Netz herumgespielt hat und die eingebuchten Mobiltelefone immer wieder neu ans Netz gehen mussten. Vielleicht hat aber der kundige Beamte am IMSI-Catcher sein Gerät nicht unter Kontrolle, who knows. 😉

  • (Un)Sicherheitsgefühl von/bei „Web-Gründern“.

    Kollege Robert Basic hat in seinem Blog ein interessantes Statement eines so genannten „Web-Gründers“, der seine Sicht auf die aktuelle Krise des Finanzsektors darlegt. Manche Experten gehen ja davon aus, dass mit der Finanzmarktkrise schon sehr bald nicht nur die Banken den anderen Banken nicht mehr trauen, sondern auch anderen Unternehmen, am ehesten nicht den Unternehmen, die kein tragfähiges Business-Konzept darlegen können, eine weit verbreitete Seuche in der Web-Szene.

    Nun ist es nicht gerade so, dass ich „Web-Gründern“ wirklich sehr viel dabei vertrauen würde, wenn sie mir etwas über die Weltwirtschaft daherposaunen. Ein Absatz hat es mir aber sehr angetan, was mir sofort zeigt, dass da jemand schreibt, der von der Materie überhaupt keine Ahnung hat:

    „Ich denke, Online kann von der ganzen Krise seehr profitieren. Unternehmen müssen einsparen, wodurch sich gute Chancen fürs Web ergeben: Warum MS Office für meine 200 Mitarbeiter kaufen, kann doch Google Docs oder Zoho nutzen? Warum teure Exchange Server, wenn Gmail das auch kann? Warum eigene Server Farmen, wenn ich Amazon outsourcen kann? Warum teure TV Kampagnen mit TKPs von (ka, schätz einfach ma) 20 Euro, wenn ich im Web targetisiert meine Zielgruppe ansprechen kann? Etc etc etc du weißt schon, was ich meine…“

    Wer auch immer der ominöse Interviewpartner war – es ist in der Tat gut für ihn, dass er namenlos bleibt. Allein schon der Gedanke, dass das vielleicht ein Betreiber eines Webportales sein könnte, der auf diese Weise seine Kundendaten „oursourced“, läßt mir spontan die Fußnägel nach innen wachsen, weil es hanebüchen daneben ist und das gleich mit vielen Argumenten:

    • Unternehmen sparen, wenn sie einsparen müssen, zu allererst am Personal ein, weil das in den meisten Firmen den größten Ausgabeposten darstellt. Eine komplette Exchange-Infrastruktur gibt es schon zum Monatsgehalt eines gutbezahlten Ingenieurs und zudem wird die EDV grundsätzlich auf mehrere Jahre hin abgeschrieben, so dass EDV-Kosten für Office und Collaboration in einem Unternehmen kein großes Thema sind, wenn man als Workstations nicht gerade die letzten Pfeifer kauft, keinen Servicevertrag beihat oder sich nicht erstklassig übers Ohr hauen lässt. Zudem gibt es praktisch für jede Hard- und Software die Möglichkeit von Mietkäufen bis hin zur eingesetzten Software, so dass sich die Ausgabenstruktur für wirklich alle Eventualitäten anpassen lässt.
    • Unternehmenskritische, möglicherweise geheimzuhaltende Daten bei externen Dienstleistern outzusourcen, deren Sicherheitslage nicht zu kennen und dabei auch noch zu wissen, dass die Daten voraussichtlich außerhalb Deutschlands liegen, ist nicht nur moralisch ein Problem, sondern kann ein richtig handfester Straftatsbestand werden. Kundendaten müssen nachweislich sicher vor Zugriff Dritter sein und jedes Sicherheitsaudit wird spätestens bei der Frage enden, wo denn die Unternehmensdaten liegen, wenn die Antwort „bei Google“ heißt. Der Gesetzgeber stellt Datenmißbrauch (zu Recht) verhältnismäßig empfindlich unter Strafe.
  • Adressbuchverlage.

    Wenn mich jemand aus einem Callcenter anruft, muss schnell machen. Während die Drohne normalerweise ihren Singsang ausführt, frage ich nach, für welche Firma sie anruft und wenn da nicht sofort die passende Antwort kommt, lege ich kommentarlos auf. Und das tue ich eigentlich bei allen Firmen, außer wenn es meine Bank oder die Kreditkartengesellschaft ist, die anderen Dienstleister, denen Dienste ich in Anspruch nehme, rufen mich nicht an.

    Zur Zeit sind die Adressbuchverlage wieder schwer unterwegs. Gestern wollte meinestadt.de nett über die Firma plaudern und die Dame hatte so gar keine Probleme damit, mit mir über die Firma zu plaudern, ohne einen Gedanken darüber zu verlieren, dass ich das vielleicht nicht will. *klick*

    Heute hat dann der nächste Verlag angerufen und gefragt, ob die dort hinterlegten Daten einer Mitarbeiterin immer noch im gleichen Job arbeitet. Nein, habe ich mal pauschal geantwortet, zu näheren Auskünften sei ich nicht befugt. Leider ist die Kollegin auch nicht im Haus. Okay, das genüge ihr. Achso.

    Jetzt haben sie gerade wieder angerufen und wollten direkt die Kollegin sprechen. Tja, leider nicht im Haus. Rückkunft leider unbekannt. Okay, das genüge ihr auch. Schreibt die das jetzt in ihr Adressbuch so hinein?

  • „De-Mail“: Für wie bescheuert …

    … hält unser Staat gelegentlich eigentlich seine Bürger? Eine von Staatswegen zur Verfügung gestellte E-Mail-Box mitsamt Mailadresse, mit der der Benutzer eindeutig identifiziert werden kann und mit der er dann auch sicher mit Behörden kommunizieren kann. Und mit der der Benutzer dann auch privat mailen können soll. Ach? Und mit der dann die Behörden auch weniger Zettelkram ausfüllen müssen, wenn sie mal nachschauen wollen, was der Bürger da so mailt?

    Aus drei Sichten ist das Projekt „De-Mail“ – so der Projektname – eine Karikatur, über die ich tagelang schrill lachen könnte:

    1. Zu viele externe Dienstleister sind mit im Boot. Beispiel: Was hat die Deutsche Telekom für einen Ruf im Datenschutzsektor gerade?
    2. Der Staat hat für die sichere Authentifizierung die Elektronische Signatur in Gesetz und Recht gegossen, die technisch einwandfrei funktioniert, mit viel Mühe auch funktioniert – nur mit den meisten Behörden nicht, weil diese technisch nicht ausgestattet sind. Geschweige denn dem Umstand, dass genügend Finanzbeamte keine Ahnung haben, wie man eine Rechnung mit qualifizierter elektronischer Signatur eigentlich prüft.
    3. „Datensafes“ von Bürgern haben nichts beim Staat zu suchen. Aber wirklich gar nichts. Es gibt auch keinen technischen Grund hierfür, denn es gibt freie Verschlüsselungssoftware, es gibt die Möglichkeit, verschlüsselte Daten redundant auf verschiedene Datenträger abzulegen.
    4. Der Staat soll es gefälligst unterlassen, mit viel Marketing-Blub den Bürger dazu zu überreden, seine Privatsphäre freiwillig dem Staat zu offenbaren.

    Einfach eine nur noch skandalöse Entwicklung, die die Bundesregierung da mit ihrer IT-Offensive an den Tag legt. Und da wundert man sich über die Politikverdrossenheit und darüber, dass immer mehr Bürger offenkundig nicht mehr zwischen demokratischen und radikalen Parteien unterscheiden können.

    Immerhin, es gibt Proteste, beispielsweise bei der Financial Times Deutschland, beim Uwe im LawBlog, beim Holger im Reizzentrum.

  • Adelung.

    Oliver Sigrist mag zwar als Bereichsleiter in der Volkshochschule Calw eher zum Führungspersonal gehören und ist damit der natürliche Feind des klassischen Systemadministrators, allerdings hat er durchaus Anwandlungen, die ihn auch für richtig hartgesottene Systemadministratoren sympathisch machen. Zum einen natürlich die ausgesprochene Stressfähigkeit, bei den größten EDV-Problemen nicht sofort aus Verzweiflung aus dem Fenster zu springen, sondern uns anzurufen und sogar per Telefon einen DSL-Router auf Anweisung neu zu konfigurieren, während die halbe VHS steht.

    Zum anderen aber auch, dass der Serverschrank mit den zentralen Gerätschaften direkt in seinem zu engen Büro steht und ein liebevoll gepflegter Gerätefriedhof, der die Verspieltheit des Friedhofsverwalters deutlich zum Ausdruck bringt. Der Sarkasmus und der dennoch dahergebrachte Respekt vor der hart arbeitenden Technik ist jedenfalls sysadmin-würdig:

  • „Original Soundtrack“ und Trailer.

    Mir hat es die Anfangsmusik im Trailer von „8 Blickwinkel“ angetan, die schön düster ist und perfekt zum Thema des Filmes passt:

    Ein Grund, den Original Soundtrack zu kaufen, was schon mal ein kleines Rechercheproblem erzeugte, da der Film im Original „Vantage Point“ heißt und die deutsche Übersetzung so gar nicht passte.

    Das Nette am Soundtrack ist, dass der zwar ebenfalls recht düster daherkommt und ideale Hintergrundmusik für Notarztfahrer, Fußballtrainer von Bayern München etc. ist, aber eben nicht die Musik des Trailers enthält. Die Musik im Trailer kommt übrigens im ganzen Film nicht vor und hat gar nichts mit diesem zu tun, wie ich dann in Foren erfahren habe. Der wurde einfach dazugemischt. Super Sache.

    Stammen tut der Song übrigens aus dem Album „Glass Cuts“ von Philip Glass, nennt sich „Saxophone Concerto“ und ist remixed von Héctor Castillo & Eduardo Larez. Kann man sich ultrateuer aus Amiland einschiffen lassen oder – und das war dann die Premiere – über Musicload kaufen, was mich 99 Cent kosten sollte. Oder 99 Happydigits. Wie passend, dass man praktisch immer solche Pünktchen irgendwo herumliegen hat, die grundsätzlich für nichts Greifbares reichen, aber dafür für so Fetzen von Musik.

  • Von der so genannten Anonymität von Suchmaschinen.

    Schon immer einmal gefragt, wie eigentlich eine Suchmaschine entscheidet, welche Seite zu einem bestimmten Stichwort relevant ist und welche nicht? Du denkst, das macht die Programmlogik einer Suchmaschine? Die berühmte Blackbox mit den vielen, ultrageheimen Algorithmen?

    Ich bin da inzwischen ketzerisch und sage: Eine Suchmaschine macht nur das grobe Ranking, also nur eine grobe Auswertung, welche Seite zu einem bestimmten Stichwort relevant ist und welche nicht. Die Feinarbeit machen die Logikmodule, die am ehesten verstehen und entscheiden können, um was es in einer Web-Seite geht, nämlich die Nutzer der Suchmaschine. Wie meinen?

    Wer sich den Quelltext einer x-beliebigen Ergebnisseite einer Suchmaschine anschaut, wird zunächst augenscheinlich erstaunt über die Effizienz der Ergebnisseite sein: Google schafft es in drei Zeilen – von der die dritte Zeile allerdings mehrere tausend Zeichen lang ist, in der Regel mindestens 15.000 Zeichen. Vom reinen HTML-Code kommt so eine Ergebnisseite auf eine Größe von 24 bis 27 Kilobytes. Es lohnt sich jedoch allemal, sich so eine Ergebnisseite einmal näher anzuschauen und sich auch mal die Mühe zu machen, so eine Seite lokal abzuspeichern, die Zeilenumbrüche manuell einzufügen und sich das mal anzuschauen, was zwischen HTML-Tags und CSS-Definitionen noch alles dabei ist, nämlich ein gehöriges Stückchen JavaScript, der es in sich hat.

    Fangen wir aber von vorne an: Du gehst auf die Startseite von Google, gibst ein Suchwort an, lässt dir die Ergebnisse anzeigen. Wenn nun der nicht ganz dumme Nutzer auf einen der zehn Linkvorschläge mit dem Mauspfeil fährt, sieht er in seinem Browser unten in der Statuszeile für gewöhnlich die Zieladresse des Linkvorschlages:

    Also, denkt sich der nicht ganz so dumme Nutzer, ist das ein einfacher Hyperlink zur Zielseite, ohne jegliche Hintertüre. Ist es das? Der Quellcode des Linkes spricht eine leicht andere Sprache:

    <a href="http://www.netplanet.org/adressierung/subnetting.shtml" class=l onmousedown="return clk(this.href,'','','res','6','')">netplanet - Adressierung im Internet - IP-<<em>Subnetting</em></a>

    Interessant an diesem Anchor-Tag ist der zusätzliche Parameter „onmousedown“, denn dieser Parameter besagt, dass ein Browser, bei dem die JavaScript-Ausführung aktiviert ist, bei einem Klick auf den Link nicht die Zielseite anspringen soll, die im Parameter „href“ angegeben ist, sondern das tun soll, was im Parameter „onmousedown“ angegeben ist. Sprich: Das, was in der Statuszeile des Browsers angegeben ist, nämlich die Adresse der Zielseite, ist in erster Linie Maskerade, denn sie soll zwar vortäuschen, dass ein Klick auf den Link direkt zur Zielseite führt, das tut sie aber nicht.

    Denn in Wirklichkeit wird mit dem onmousedown-Parameter die JavaScript-Funktion „clk“ aufgerufen, die im HTML-Head der Suchergebnisseite eingebettet ist und aus den in der Klammer beinhalteten Seiten- und Aufrufparametern einen URL erzeugt und aufruft. Und dieser sieht im Beispiel so aus. Zur besseren Übersichtlichkeit habe ich die einzelnen Parameter, die übergeben werden, untereinander geschrieben, stellt euch das als einzige, lange Zeile vor, die euer Webbrowser da im Hintergrund unbemerkt aufruft:

    http://www.google.de/url?
    sa=T&
    source=web&
    ct=res&
    cd=6&
    url=http%3A%2F%2Fwww.netplanet.org%2Fadressierung%2Fsubnetting.shtml&
    ei=i4DrSPTpBJOa7QW98JXCDA

    Interessant sind hierbei die Parameter „url“, der die Adresse der eigentlichen Zielseite enthält, der Parameter „cd“, der den Rank des Suchergebnisses enthält, und der Parameter „ei“, der eine google-interne ID darstellt, die auch auf der Suchergebnisseite verwendet wird.

    Dieser gesamte URL wird dann per GET-Anfrage vom Browser abgeschickt, enthält jedoch als Ergebnis nicht etwa die Zielseite (die liegt ja logischerweise nicht bei Google), sondern einen Redirect auf die Zielseite, hierzu dient der Inhalt aus dem Parameter „url“. Der Browser schickt also seine Anfrage dann direkt an den Webserver mit der Zielseite und der Nutzer hat die Illusion, dass er mit dem Klick auf das Suchergebnis direkt dorthin gekommen wäre.

    Mit diesem Aufruf rundet Google also seinen Suchabfragenablauf ab, der dann wie folgt aussieht:

    1. Nutzer geht auf die Suchmaschine, gibt ein Suchwort ein.
    2. Die Suchmaschine antwortet mit Suchergebnissen.
    3. Nutzer klickt (mit einem javascript-aktivierten) Webbrowser auf einen Link in den Suchergebnissen.
    4. Der Link führt eine JavaScript-Funktion auf, die einen URL generiert.
    5. Der Webbrowser ruft diesen generierten URL, der zum Webserver der Suchmaschine führt, mit einer GET-Anfrage auf.
    6. Der Webserver der Suchmaschine erhält die Anfrage und liefert als Ergebnis einen Redirect auf die eigentliche Zielseite.
    7. Die Suchmaschine wertet die Entscheidung des Nutzers aus.

    Ergebnis für Google ist, dass sie aufgrund der google-internen ID die Suchergebnisse direkt mit dem vom Nutzer angeklickten Link verbinden können. Die Jungs wissen also nicht nur, mit welchen Suchbegriffen der Nutzer sucht, sondern auch, auf welches Ergebnis der Nutzer dann in den Suchergebnissen klickt. Und damit ist der wichtigste Teil der Kette gelegt, von der die meisten Nutzer glauben dürften, dass es sie gar nicht gibt.

    So, und jetzt denken wir das mal alles gut durch und binden diesen Ansatz im Falle von Google in den gesamten Lebenslauf einer Informationsrecherche ein: Der Nutzer sucht per Google zu einem bestimmten Stichwort eine Ressource und bekommt auf der Suchergebnisseite zehn Vorschläge. Er klickt auf einen Vorschlag, Google bekommt dies mit. Gefällt dem Nutzer dieser Vorschlag, wird er höchstwahrscheinlich keinen weiteren Link mehr anklicken, die letzte Rückmeldung zu einer Anfrage ist also möglicherweise die „gute“ Antwort gewesen. Wenn das ein Nutzer macht, ist das nicht sehr aussagekräftig. Wenn es zehn Leute machen, schon eher. Wenn es Millionen Menschen machen, wird das aufregend gut.

    Man kann das aber noch weiterspinnen, denn Google ist ja nicht nur die Suchmaschine, sondern Google ist ja auch Google Analytics oder Google AdSense. Der rote Ariadnefaden zieht sich so also nicht nur im Webbrowser des Nutzers, sondern auch auf den Servern von Google, die so – wenn man jetzt mal davon ausgeht, dass sie Daten miteinander verknüpfen können.

    Und nun passt auch alles schlartig zusammen, wie in einem perfekten Puzzle – man muss lediglich ein paar Schritte zurücklaufen und das ganze Bild sehen: Die Inhalte, die Google indexiert, sind ihnen letztendlich schnurz, ihnen kommt es auf das Suchen an. Darum auch ein eigener Browser, der haargenau jeden einzelnen Suchschritt nach Hause sendet und vor allem den schnellsten JavaScript-Renderer weit und breit an Bord hat.

    Na, geht es noch? Wir können jetzt nämlich noch ein gehöriges Stück weitergehen und tatsächlich anfangen, Google zu verstehen, warum sie nicht einfach alles nachbauen, was draußen existiert, sondern gern bestehende Erfolgsprojekte wie Blogger.com, YouTube, Keyhole (Google Earth) und wie sie alle heißen, einkaufen: Sie wollen lernen und mitschreiben, wie der Nutzer denkt, sucht und vor allem – findet.

    Deshalb meine sicherlich heißen und nicht ohne weiteres fundierbaren Thesen:

    1. Moderne Suchmaschinen sind im Grunde genommen schlicht dumm. Sicherlich können Computer heute nahezu perfekt die menschliche Sprache nachahmen, Handgeschriebenes in Echtzeit fast fehlerfrei auswerten und so tun, als ob sie intelligent auf die Inputs eines Menschen reagieren würden. Sie können aber nach wie vor nur so tun.
    2. Moderne Suchmaschinen sind die eigentlichen Meister des Web 2.0, unter diesen eigentlichen Meistern ist Google der Großmeister. Sie versuchen erst gar nicht, die Inhalte vollständig selbst zu sortieren, sondern lassen das den Nutzer nebenher machen. Nicht finden ist sexy, sondern suchen.
    3. Für eine Suchmaschine ist der suchende Mensch Kunde und Lieferant zugleich. Behandle ihn zuvorkommend und verkaufe ihm das als den Way of Life, denn die Suchmaschine braucht ihn zwingend.
    4. Eine gute Suchmaschine muss Medienbrüche tun, muss tatsächlich auch für Medieninhalte verfügbar sein, für Mails, für Musik, Bilder und Videos auch für gedruckte und umständlich eingescannte Bücher, für abfotografierte Straßen, für wissenschaftliche Arbeiten, für Inhalte jeglicher Art, die Menschen suchen. Denn nur von denen, die suchen, wird gelernt.
    5. Google lässt nahezu stoisch immer verlautbaren, dass sie zwar zwangsläufig Daten sammeln, aber nicht daran interessiert sind, die Privatsphäre des Nutzers zu beeinträchtigen. Möglicherweise kann man ihnen diesen Satz sogar abnehmen, da sie, nach meiner Theorie, tatsächlich gar nicht unbedingt am „Big Picture“ Interesse haben, sondern am eher kurzen Leben einer Informationsrecherche, von Anfang bis Ende.

    Und da wir gerade bei den Momenten der ketzerischen Thesen sind, fällt mir zu diesem Thema spontan ein Satz von Morpheus aus dem Film „The Matrix“ ein, für den ich jahrelang eine passende Bedeutung gesucht und nun wohl auch gefunden habe:

    „In uns haben die Maschinen eine Energiequelle gefunden, die ihren Bedarf mehr als deckt. Sie haben Felder angelegt, Neo, endlose Felder. Menschen werden nicht länger geboren, wir werden gezüchtet. Ich habe lange Zeit nicht daran geglaubt, bis ich die Felder mit meinen eigenen Augen gesehen habe. [Ich sah, wie sie die Toten in Flüssigkeit auflösen und damit die Lebenden intravenös ernähren.] Und als ich dastand und die erschreckende Präzision sah, wurde mir die Wahrheit schlagartig bewusst: Was ist die Matrix? Kontrolle. Die Matrix ist eine computergenerierte Traumwelt, die geschaffen wurde, um uns unter Kontrolle zu halten. Für sie sind wir nicht viel mehr, als das:


    Der Ausgang aus der Matrix ist umfassend, möglicherweise etwas unkomfortabel, aber dafür kinderleicht umzusetzen: JavaScript im Webbrowser deaktivieren.

  • Bugfixing in TiddlyWikiDeutsch.

    Schon seit einer ganzen Weile habe ich mit meiner TiddlyWiki-Übersetzung das Problem, das diese zwar fast überall funktioniert, nur nicht richtig im Internet Explorer. Dort wird beim Aufruf einer TiddlyWiki-Datei mit ebendieser Übersetzung der Plugin-Manager aufgerufen, der rot-warnend auf Fehler hinweist. Da nun auch zwei Nutzer diesen Fehler in Mails beschrieben habe, habe ich dieses Problem mal näher analysiert und auch gefixt.

    Das Problem ist das Komma ganz am Ende der Zeile 437 in der Übersetzungsdatei. Das darf dort nicht sein, weil nach dieser Zeile schon die endende, geschweifte Klammer kommt, die die Funktion abschließt.

    Sprich: Entweder in dieser Zeile das Komma entfernen oder auf TiddlyWikiDeutsch gehen und die Version GermanTranslation2.4b ziehen und ins eigene TiddlyWiki installieren.

  • Jeffersons Erben.

    Auf einen Tipp des geschätzten Genossen Andreas Kesting hin habe ich mir das kleine, unauffällige Buch Jeffersons Erben von Tobias Moorstedt gekauft. Neun Euro in der Edition Suhrkamp mit blauem Cover und 165 Seiten.

    Moorstedt ist dem Phänomen der Internetkampagne von Barack Obama auf die Spur gegangen und dabei tiefer in die Materie eingedrungen, als so ziemlich alle Journalisten vor ihm, zumindest wenn man da Journalisten aus den üblichen Redaktionen herannimmt. Er beschreibt sehr anschaulich die verschiedenen Elemente, die vom Wahlkampfteam darin eingepackten Erwartungen und wie das Team über die Kampagnenangebote erstaunlich effizient mit Wahlkämpfern und Wählern vor Ort kommuniziert und sich Kommunikation über das Internet neben den klassischen Medien zu einem echten Informationskanal entwickelt hat.

    Überraschend ist das auf den ersten Blick, auf den zweiten dann schon nicht mehr, denn eine Kernkompetenz von „Obama ’08“ ist es, dass sie es schaffen, von vorn bis hinten in der Onlinekampagne glaubwürdig herüberzukommen, wie es vermutlich in nur wenig Wahlkämpfen früher der Fall war. Über eine Million Nutzer kommunizieren über „MyBarackObama“ miteinander, während es Konkurrent John McCain, der gern von sich sagt, dass er keinen Computer bedienen kann, nur auf einige tausend Anwender in „MyMcCainSpace“ schafft.

    Die Obamasche Kampagne ist zweifellos ein Musterstück der politischen Propaganda und Mobilmachung und Tobias Moorstedt schafft in seinem Büchlein einen wunderbaren Querschnitt durch die Kampagne und vermutlich auch ein geschichtliches Werk, denn wer weiß schon, was nach der Präsidentschaftswahl von der Kampagne übrig bleibt.

    Eindeutiger Kaufbefehl, nicht nur für Wahlkampfleiter und Web-2.0-Schlampen, sondern für jeden politisch Interessierten, die lernen wollen, wie zukünftige politische Botschaften daherkommen.

  • Wo bleiben eigentlich die Spammer?

    Bei der täglichen Entleerung der Spambox ist mir aufgefallen, dass offenbar Spammer nicht mehr so genau Nachrichten zu lesen scheinen. Eigentlich wäre die aktuelle Finanzmarktkrise doch ein wunderbarer Ansatzpunkt, um mit etwas Panikmache Bankkunden dazu zu bringen, irgendwelche Dinge zu tun, die sie eigentlich gar nicht wollen. Oder mal wieder Aktienspam mit Pennystocks oder irgendwelche dubiosen Bankaktien? Nichts, nada. Vermutlich zu viel Vorarbeit notwendig.

    Etwas mehr Einsatz und Kreativität, Herrschaften!

Letzte Beiträge
Schlagwortwolke

Android Barack Obama Bloggen Blogroll Bundesregierung CDU Facebook Fatal Error Google iPhone Online-Sperre Pforzheim Politik 2.0 PS3 Social Networking SPD Testbericht Twitter Update Video Wahlkampf Web 2.0 Werbung WordPress ZDF

Archiv
Seiten