CyanogenMod ist tot, es lebe LineageOS.

Vor einigen Tagen noch über CyanogenMod geschrieben und jetzt ist das Projekt tot … das wollte ich nicht!

Aber Spaß beiseite: Dass es im CyanogenMod-Projekt rumort, war leider nichts neues. Und es lag tatsächlich nicht an CyanogenMod selbst, sondern vornehmlich an der Cyanogen Inc., dem kommerziellen Unternehmen, das aus dem Projekt heraus gegründet wurde. Einer der Gründer ist Steve Kondik, der maßgebliche Entwickler hinter CyanogenMod.

Die Cyanogen Inc. wurde gegründet, um CyanogenMod auch für Smartphone-Hersteller interessant zu machen. So weit, so interessant. Das Problem war, dass neben Steve Kondik auch andere Leute an der Führung des Unternehmens beteiligt waren, die, um es mal freundlich auszudrücken, nicht so sonderlich viel Ahnung von der Materie haben. Denn schon recht bald suchten sich diese destruktiven Leute einen Feind aus, der so gar nicht sinnvoll erscheint, wenn es um Android geht: Google selbst. Tatsächlich begaben sich einige Cyanogen-Leute auf den Kurs, dass man Google Android „wegnehmen müsse“, um es weiterzuentwickeln. Was natürlich völliger Käse ist, da Google Android weitgehend als Open Source bereitstellt und Cyanogen ein lauer Furz wäre, wenn es Android und Google als Maintainer nicht gäbe.

Die Cyanogen Inc. eierte aber auch schon kommerziell recht bald nach der Gründung ordentlich herum, weil es offenkundig weder Konzept noch Strategie gab. Zwar gab es das OnePlus als Smartphone, was mit einem Cyanogen-Ableger von CyanogenMod betrieben werden konnte, aber das OnePlus begeisterte vor allem mit einer völlig bescheuerten Verkaufspolitik, die das Telefon weitgehend zu einem Lotteriegewinn verkommen ließ.

Das Ende der Cyanogen Inc. machte sich im Laufe des Jahres 2016 auch schon bemerkbar durch äußerst sinnlose Pressemeldungen. Man wolle mit Microsoft (!) zusammenarbeiten, man wolle Mitarbeiter entlassen, um das Projekt (welches Projekt?) zu retten und so weiter und so fort. Dass nun am Ende des Jahres die Cyanogen Inc. die Segel streicht und auch Steve Kondik endlich das Unternehmen verlässt, ist dringend notwendig. Denn schon längst hatten viele den Überblick darüber verloren, was eigentlich Cyanogen und CyanogenMod eigentlich sind. Und noch viel schlimmer: Auch in der Entwicklergemeinde rund um CyanogenMod regte sich Widerstand.

Daher auch das Ende von CyanogenMod, denn die Namensrechte hat Kondik ärgerlicherweise der Cyanogen Inc. übertragen. Markenrecht unklar, letztlich aber der Markenname auch verbrannt – da macht man am besten das, was jetzt geboten ist: Einen Namenswechsel.

Der Nachfolger wird „LineageOS“ heißen. Daran werden wir uns gewöhnen müssen, aber immerhin steht Steve Kondik wieder dahinter und man hat schon im Vorfeld die gesamten Quellcodes und Entwicklungsumgebungen von CyanogenMod gesichert und möchte hier weitermachen. Ich kann mir auch sehr gut vorstellen, dass hier irgendwo auch Google seine Finger im Spiel hat und Kondik gut zugeredet haben könnte, denn letztlich ist CyanogenMod ein Android-Paradestück. Ein besseres Android und eine bessere After-Sales-Softwarepflege gibt es schlicht nicht.

Zunächst bedeutet das allerdings für alle CyanogenMod-Benutzer, dass es zunächst eine Reihe von Fragezeichen geben wird. Zwar sollen morgen nähere Informationen zum LineageOS-Projekt veröffentlicht werden, aber es ist sehr empfehlenswert, jetzt einmal alle eigenen Smartphones mit installiertem CyanogenMod auf den letzten Stand zu aktualisieren und das jeweilige ZIP-Paket mit dem aktuellsten Stand einmal in Ruhe wegzusichern. Näheres wird es in den nächsten Tagen und Wochen geben.

Deshalb: Der Tod von Cyanogen und CyanogenMod ist auf den ersten Blick bitter, aber unvermeidlich. Es kann jetzt alles nur noch besser werden.

Alle maulen über das Google Nexus 6. Ich nicht.

Mein Google Nexus 6 war letztes Jahr eine Art Verlegensheitskauf. Ich hatte als Nachfolger des Samsung Galaxy S4, mit dem ich nicht wirklich warm wurde, das LG G3 gekauft, was im Frühjahr 2015 als Auslaufmodell schön günstig wurde. Da ich sehr auf die Android-Alternative CyanogenMod stehe, war deren Lauffähigkeit Grundbedingung. Leider zeigte sich jedoch im Sommer, dass CyanogenMod auf dem G3 einige ärgerliche Fehler hatte, darunter merkwürdige und unmotivierte Reboots. So geht das natürlich nicht auf Dauer. Es gab dann im Sommer letzten Jahres kurzfristig ein Angebot zum Google Nexus 6 und ich griff zu. Nun ist das LG G3, auf dem CyanogenMod inzwischen zuverlässig läuft, sozusagen mein Ersatz-Smartphone, während das Nexus 6 mein täglicher Begleiter ist.

Das Nexus 6 ist mit seinem sechs Zoll großen Bildschirm eine echte Wuchtbrumme und damit ein Phablet, also eine Mischung aus Smartphone und Tablet. Damit hatte ich anfangs so meine Probleme, auch wenn ich jetzt zugeben muss, dass mir die Bildschirmdiagonale sehr gefällt. Man kann einfach richtig viel auf diesem Bildschirm sehen und selbst als Autonavi-Verlegenheitslösung macht es eine gute Figur. Das geht so weit, dass mein eigentliches Tablet, ein 10,1-Zoll Xperia-Tablet, immer häufiger im Regal bleibt, weil ich die meisten Aufgaben schon auf dem Nexus 6 erledigen kann. Und dank seiner Größe passt mit einem 3.220-mAh-Akku auch ein richtiger Klotz an Stromspeicher hinein, der das Teil sehr locker den ganzen Tag über ohne Zwischenladen betreibt.

Google mault, Motorola mault.

Bei der Auswahl der Nexus-Hersteller lässt Google die Zügel nicht (mehr) schlaff herunterhängen. Wer als Hersteller ein Nexus bauen darf, muss sich an die Wünsche von Google halten. Die sind teilweise löblich (zum Beispiel das reine Android ohne zusätzliche Hersteller-Apps), zum Teil aber auch ärgerlich (beispielsweise der konsequent fehlende MicroSD-Kartenslot). Dass Google auf den Nexus-Geräten eine Reihe von Spielereien nicht sehen will, mag ja noch durchgehen, aber teilweise ist Google schlicht ignorant.

So kann die Hardware des Nexus 6 einige Dinge, die das Nexus-Android nicht unterstützen mag. So hat das Nexus 6 eine LED zur Signalisierung, die aber vom Betriebssystem nicht angesprochen wird. Auch kann der Bildschirm hardware-seitig mit einem doppelten Tippser aufgeweckt werden, auch das unterstützt Google nicht. Und schließlich werden ähnliche Schwestermodelle des Nexus 6, die von Motorola direkt angeboten werden, auch mit MicroSD-Kartenslot angeboten, so dass man davon ausgehen kann, dass Google im Nexus 6 explizit darauf verzichten wollte.

Auch Motorola mault: Das Handy sei schlicht zu groß (naja, eben Geschmackssache), es sei zu billig verarbeitet, hat einen runden Rücken, mit dem es nicht plan auf dem Tisch liegen kann.

Stimmt ja alles. Aber: warum fällt Google und Motorola all das erst über einem Jahr nach Markteinführung ein? Und warum gefällt mir das Google Nexus 6 dennoch?

Website optimieren als AdSense-Sofortmaßnahme.

Obwohl ich seit 1998 Websites betreibe und praktisch ununterbrochen Inhalte im Web veröffentliche, habe ich mich um das Thema Website-Optimierung bis dato kaum gekümmert. Ich rede hier nicht von „SEO“, sondern von rein technischer Optimierung, also vornehmlich in Sachen Geschwindigkeit. Hier ist gerade bei dynamischen Websites einiges machbar und der eigentliche Antrieb dazu kam bei mir ausgerechnet wegen des schnöden Mammons – wenn auch auf sehr niedrigem Niveau.

Die Werbebanner von Google AdSense setze ich seit 2004 ein. Der große Reichtum hat sich durch AdSense dadurch nicht ergeben, allerdings hat es in den vergangenen Jahren immer dazu gereicht, einen Großteil des Hostings abzudecken und das ein oder andere Fachbuch zu kaufen. Genau Zahlen darf man ja nicht nennen, aber immerhin reichte es für eine regelmäßige Auszahlung der Einnahmen alle zwei Monate und das geht derzeit bei einem Guthaben ab 70 Euro.

Die letzten ein, zwei Jahre lief AdSense nicht mal mehr mittelprächtig. Mit Ach und Krach schaffte ich eine Auszahlung alle drei Monate und die Click-Through-Raten, also das Verhältnis zwischen Bannereinblendungen und Klicks bewegte sich nicht über 4 Promille hinaus. Für das netplanet-Lexikon und dieses Blog ein eher schlapper Zustand. Und da man so viel darüber liest, dass man als erstes einmal eine technische Optimierung einer mit AdSense bestückten Website probieren sollte, habe ich das einmal in Angriff genommen.

Eine technische Optimierung geschieht zunächst einmal mit folgenden Schritten:

  • Website und/oder Theme ausmisten.
    Man glaubt es nicht, was man bei einem CMS-Theme und/oder auf einer älteren Website alles für Mist mit sich herumschleppt. Alte Grafiken, Links auf längst gestorbene Websites, doppelte CSS-Dateien, nicht verwendete JavaScript-Bibliotheken, längst vergangene Experimente, eingebettete Analysecodes und so weiter und so weiter. Beispielsweise für den Firefox gibt es ein Add-In namens Firebug, mit dem sich Seitenabrufe analysieren lassen. Unter dem Reiter „Netzwerk“ lässt sich ein vollständiger Abruf aufzeichnen, inklusive aller von einer Web-Seite nachgeladenen Inhalte wie Grafiken und Scripte. Alles, was unnötig ist oder HTTP-Fehler erzeugt, sollte man genau nachprüfen.
  • Caching auf dem Webserver aktivieren.
    CMS bauen normalerweise, wenn man sie auspackt und installiert, Seiten immer dynamisch auf. Bei jedem Seitenaufruf wird im Hintergrund vom CMS die Seite aus Codeeinzelteile zusammengebaut und ausgeliefert. Das ist gut für die Aktualität, allerdings schlecht für die Website-Geschwindigkeit, denn je mehr eine Website aufgerufen wird, desto langsamer wird das ganze. In Sachen WordPress hilft hier ein Plug-In namens WP SuperCache, um die gröbsten Geschwindigkeitsdefizite auszugleichen. Die Grundeinstellungen des Plug-Ins sind schon recht gut, mit etwas Feintuning lässt sich hier gewaltiges Geschwindigkeitspotential hereinholen.
  • Browser-Caching von statischen Website-Elementen.
    Seiten-Caching (siehe oben) ist eine Sache, das Caching von statischen Elementen wie Grafiken, CSS- und JavaScript-Dateien im Browser des Besuchers eine andere. Hier hilft ein CMS logischerweise nicht sonderlich viel, sondern hier muss der Webserver ran. Mit dem Apache-Webserver bewerkstelligt man dies am einfachsten mit einer .htaccess-Datei und entsprechenden Einträgen und sorgt dafür, dass allen abgerufenen Dateien noch zusätzliche Parameter mitgegeben werden, die empfehlen, wie lange die entsprechenden Dateien im Webbrowser des Besuchers gespeichert werden dürfen und sollen.
  • HTTP-Komprimierung aktivieren.
    Auch eine Webserver-Einstellmöglichkeit, die nicht jeder Webhoster anbietet, aber zumindest die meisten. Auch das lässt sich meist über eine .htaccess-Datei aktivieren und sorgt dann dafür, dass alle ausgelieferten Web-Seiten und Seitenelemente vor dem Übertragen an den Webbrowser des Besuchers komprimiert und damit deutlich kompakter übertragen werden können. Gerade bei Textdateien wie HTML-, CSS- und JavaScript-Dateien ist hier eine deutliche Komprimierung der Übertragungsmengen möglich.

Das Optimieren kann man selbstverständlich noch weiter treiben bis zum Exzess. Allerdings hat man schon nach diesen vier großen Schritten einiges an Optimierung getan. Im Google-Reich kann man die Bemühungen an der eigenen Website mit den Google PageSpeed Tools begleiten und kontrollieren und sich – aus Google-Sicht – die Optimierung der Website in einer Punkteskala von 0 bis 100 bewerten lassen. Je höher, desto besser. Anfangs krebste mein Blog hier noch mit einem Wert von etwa 60 Punkten und liegt aktuell bei über 90. Das ist für mein Gefühl schon ganz gut und auch die Responsetime beim Seitenabruf ist deutlich schneller.

Und, AdSense? Nach zwei Wochen Testen hat sich die Click-Through-Rate tatsächlich deutlich gebessert und liegt nun bei rund 6 Promille. Kurz- und mittelfristig ist also tatsächlich einiges drin, was man durch eine technische Optimierung herausholen kann. Langfristig wird sich das noch zeigen.

Bye, Google Reader. :-(

Google ReaderEigentlich hatte man ja bis zuletzt darauf gehofft, dass Google noch mal ein Einsehen mit den vielen Fans des Google Readers hat und die Einstellung des Dienstes zum 1. Juli vielleicht doch nochmal zurücknimmt. Das wäre ziemlich unwahrscheinlich gewesen, aber so ist das halt, wenn man sich von einem guten Freund verabschieden muss. Und nun ist es wohl soweit. Das wird wohl mein letzter Blog-Artikel sein, den die über 120 Feed-Abonnenten, die über den Google Reader mitlesen, dort von mir finden werden.

Den Google Reader habe ich lange Zeit nicht wirklich beachtet gehabt, weil ich meine Feeds ursprünglich mit einer Software namens FeedReader direkt auf meinem PC aggregiert hatte. Irgendwann fiel es mir auf, dass es ziemlich sinnlos und in Sachen Stromverbrauch auch spürbares Geld kostet, wenn der PC auch tagsüber nur wegen Feeds läuft und zudem hatte ich auch das Problem, dass das Feed-Lesen nur am PC funktioniert. Der Google Reader war in Sachen Importieren meiner Feeds genügsam und funktionierte vom ersten Tag dann auch genau so, wie zu erwarten war. Einfach, übersichtlich, flott, zuverlässig.

Nun eben ab morgen nicht mehr. Ich hoffe, dass alle diejenigen, die bisher mein Blog über den Google Reader gelesen haben, ein neues Zuhause für ihre Feed-Sammlungen finden. Ich habe mir selfoss auf meinem Webhosting-Account installiert, bin damit nicht wirklich so recht zufrieden, allerdings auch nicht mit den vielen gehosteten RSS-Feed-Aggregatoren. Vielleicht muss es erst die ab morgen beginnende Leidenszeit richten, den dauerhaft funktionierenden Aggregator zu finden.

Schade. Ich bedaure die Einstellung des Google Readers immer noch.

Das Ende des Google Readers.

Voraussichtlich am 1. Juli wird ein guter Freund sterben. Drastische Wortwahl, aber der Google Reader ist so ein guter Freund des Hauses, mit dem ich seit mehreren Jahren mehrmals täglich rund 200 RSS-Feeds überfliege und eine ganze Reihe von Blogs und Nachrichtenseiten im Auge behalte, ob nun zu Hause am Tablet, im Büro am PC oder auf dem Smartphone. Der Google Reader ist überall mein Lieblingswerkzeug und Quell jeglichen Nachrichtenkonsums. Und genau genommen war es der Google Reader, der mich dazu überredet hat, überhaupt mal einen Google Account anzulegen.

Nun soll also laut Google zum 1. Juli 2013 Schluß sein. Man trenne sich regelmäßig von wenig genutzten und „wenig profitablen“ Diensten und da man beim Google Reader schon vor Monaten darüber munkelte, dass sein Ende früher oder später kommen wird, ist es jetzt also soweit.

Ob es Profitdenken ist, mag dahingestellt sein, ich halte es für eine Notlüge. RSS-Syndication ist für niemanden profitabel, allerdings für eine Suchmaschine noch ein sehr naheliegendes Werkzeug zur Auswertung. Mit keinem anderen Werkzeug lässt sich nämlich das Leseverhalten so genau einschätzen, wie mit einem serverbasierten RSS-Reader. Zudem, und das ist etwas böse dahergesagt, ist der Google Reader nun nicht wirklich ein Google-Dienst gewesen, der regelmäßig durch Innovationen glänzte, so dass der Personalaufwand wohl von Anfang an eher überschaubar war. Pleitegehen würde Google also eher nicht, wenn sie den Google Reader einfach weiterführen würden.

Vermutlich geht die Einstellung des Google Readers eher in die Richtung zu Google+ und die Einladung, das RSS-Lesen und den Nachrichtenkonsum eher von hier aus zu starten. Das ist leider auch heute noch eine Nullnummer, da Google+ vieles ist, aber eben keine Nachrichtenquelle. Die Diskussion mag hier der Schwerpunkt sein (höre ich zumindest so, Google+ ist für mich immer noch ein Sonderling, der vor allem durch regelmäßig unmögliches Seitendesign glänzt), aber RSS und Nachrichten brauche ich schnell, zum Überfliegen und per Knopfdruck. Beim Schauen von Fernsehnachrichten will ich auch primär die Nachrichten sehen und nicht darüber diskutieren.

Die andere Seite des Endes des Google Reader.

Dass Feeds lesen nur von einer Minderheit von Onlinern zum Tagesgeschäft gehört, ist nachvollziehbar. Gut, nicht mein Problem, wenn sich jemand nicht oder nicht effizient informieren will, denn z.B. private Blogs surfe ich so gut wie nie „richtig“ an, sondern lese hier per RSS mit. Ich bin auch so ketzerisch und behaupte, dass ohne das Lesen von RSS-Feeds ein regelmäßiges Lesen von privaten Blogs völlig uninteressant ist, weil der Aufwand des Besuchens oft nicht im Verhältnis zur inhaltlichen Qualität steht (da schließe ich mich ein).

Genau das könnte aber das andere, viel größere Problem werden, das mit dem Ende des Google Readers droht. Von den aktuell 120 RSS-Abonnenten, die mein Blog per Google Reader lesen, werden die allermeisten mein Blog unter „ferner lief“ mitlesen und wenn von diesen 120 Lesern die Hälfte nach dem Ende des Google Readers keine Feeds mehr lesen, sind das schlappe 60 Abonnenten weniger. Mir kann das als Privatblogger ohne jeglichen Anspruch herzlich egal sein, aber Blogger, die aus welchen Gründen auch immer einen höheren Anspruch haben, werden darunter leiden.

Und ebenso werden viele Corporate Blogs leiden, die man eigentlich ebenfalls selten besucht, aber eben gern mitliest. Und das dürfte für den ein oder anderen Verantwortlichen noch mehr zu einer möglichen Entscheidung führen, das „Blog-Geraffel“ zu beenden, wenn „eh keiner mitliest“.

Das Ende von Diensten heute oder morgen.

Sicherlich – eigentlich stehen solche Applikationsdienste wie der Google Reader im krassen Gegensatz zu dem, was das Web eigentlich ausmacht. Das Web ist für jeden im Internet erreichbar und wenn Google ausfällt, dann fällt eben Google aus und nicht gleich das ganze Internet (auch wenn es für den ein oder anderen da keinen großen Unterschied gibt). Und eigentlich bin ich ein Verfechter des Freien, des offenen Webs.

Das zeigt letztendlich auch genau dieses Ende: Effizienz, Information, Diskussion, Beteiligung, Bestätigung funktioniert alles so lange gut, wie die betreffenden Dienste, die das sicherstellen, auch laufen. Fällt der Dienst aus oder hat der Anbieter einfach keine Lust mehr, dann geht das Lichtlein aus, obowohl die eigentlichen Quellen ja alle noch existent sind.

Darüber müssten wir alle eigentlich mal intensiv reden.

iOS und Google Sync nur noch bis Ende Januar.

Da die Artikel zum Thema Google Sync und iPhone in meinem Blog die mit Abstand am häufigsten aufgerufenen Artikel sind, hier doch nochmal ein wichtiger Hinweis für alle, die zukünftig ihr iPhone oder iPod per Google Sync mit ihren Kalendern und Adressbüchern in ihrem Google-Account synchronisieren möchten. Denn Google Sync steht auf der Abschussliste bei Google und für viele Nutzer ist Google Sync ab 30. Januar 2013 nur noch Geschichte.

Google Sync und der technische Hintergrund

Das Ende von Google Sync ist relativ einfach zu erklären, wenn man sich anschaut, was dahintersteckt: Eine Synchronisierungstechnologie namens ActiveSync von Microsoft. Und dazu ist dann ein kleiner Exkurs recht interessant:

ActiveSync hat eine recht lange Geschichte und hat seine Wurzeln im Mobilbetriebssystem Windows Mobile und der Möglichkeit zur Synchronisieren von Smartphone-Inhalten mit Windows-Betriebssystemen ab Windows 95 und NT 4. Für diese Anforderung wurde ActiveSync entwickelt und das war schon zu den Zeiten, als Windows Mobile mit dem einst allmächtigen Betriebssystem PalmOS von US Robotics konkurrierte, revolutionär. Denn während Palm-Geräte im am PC angeschlossenen Zustand nur dann synchronisierten, wenn die Synchronisierung am Gerät oder an der Dockingstation (die „Cradle“) die Synchronisierung explizit der Knopfdruck gestartet wurde, erledigten Windows-Mobile-Gerätschaften die initiale Autorisierung direkt nach dem Anstecken an den PC und synchronisierten während der Verbindung permanent, selbstständig und zuverlässig. Wurde in Outlook ein neuer Termin eingetragen, erschien dieser Termin im gleichen Moment auch im angeschlossenen Windows-Mobile-Gerät. ActiveSync machte es möglich und nicht zuletzt diese Technologie war ein wichtiges Abgrenzungskriterium zur Palm-Welt.

Aufgebohrt wurde ActiveSync dann später, in dem das Protokoll als Basis für die Synchronisierung zwischen Windows-Mobile-Geräten und dem Microsoft-Exchange-Server diente und fortan Exchange ActiveSync hieß. Das Prinzip der Echtzeitsynchronisierung blieb, lediglich der Übertragungsweg und die Gegenstation änderte sich. Nicht mehr der Bürorechner auf dem Schreibtisch war das andere Ende, sondern der Exchange-Server des Unternehmens, der dann die zu synchronisierten Inhalte direkt mit dem Postfach des Nutzers synchronisierte.

Und obwohl ja Microsoft verschrieen ist als ein Unternehmen, das rücksichtslos seine eigenen Standards entwickelt und verbreitet – ActiveSync hatte schon sehr früh eine relativ offene Lizenzierungspolitik und konnte von Herstellern von Personal Digital Assistants, später dann Smartphones, aber auch Herstellern von Mailsystemen und Betreibern von Maildiensten (kostenpflichtig) lizenziert werden. Das hatte natürlich einen Hintergrund, denn neben den Einnahmen durch die Lizenzierung war durch den Einsatz von ActiveSync potentiell das jeweilige Produkt auch fähig zum Kontakt mit Windows-Mobile-Gerätschaften oder auf der anderen Seite mit dem Exchange-Server.

Und da ergaben sich dann die seltsamsten Allianzen. Während z.B. RIM mit dem Blackberry und dem dazugehörigen Protokoll sowohl Endgeräte als auch Synchronisierungssoftware mit dem Mailsystem aus einer Hand liefert, können z.B. iPhone und Android-Geräte per ActiveSync mit dem Exchange-Server synchronisieren. Vorteil: Diese Synchronisierung kostet den Nutzer nichts, während bei Blackberry lange Zeit der Synchronisierungsdienst Geld kostete und zwar nicht zu knapp. Dass also ActiveSync so zuverlässig funktioniert und für Hersteller von Smartphones recht freizügig lizenziert werden kann, ist mit einer der Gründe, warum Microsoft lange Zeit die eigene Mobilbetriebssystemstrategie hat schleifen lassen und es hat ihnen zumindest im Business-Bereich nicht sonderlich viel finanziellen Schaden beschert. Das Lehrgeld in der Smartphone-Jungsteinzeit haben tatsächlich andere bezahlt.

Google und ActiveSync

Auch Google gehört zu den ActiveSync-Lizenznehmern und das wiederum aufgrund einiger Umstände:

  1. Google benötigt ActiveSync im hauseigenen Mobilbetriebssystem Android, um Android-Handys mit der Exchange-Welt synchronisieren lassen zu können.
  2. Google muss seine eigenen Kalender- und Kontaktedienste mit Schnittstellen zu ActiveSync ausstatten, um Smartphones mit anderen Betriebssystemen als Android eine Synchronisierung zu ermöglichen. Dies gilt insbesondere für das iPhone, denn obwohl das iPhone direkt (ohne ActiveSync) mit Google Mail synchronisieren kann, wird ActiveSync wiederum zum Synchronisieren von Kalender und Kontakten benötigt, da das iPhone hier keine eigenen Schnittstellen zu den Google-Diensten hat (warum auch immer).

Punkt 2 muss man sich ob des Irrsinns auf der Zunge zergehen lassen – weil Apple und Google zu doof sind, iOS und Google-Dienste vollständig miteinander synchronisieren lassen zu können, muss ausgerechnet ein lizenzpflichtiges Microsoft-Protokoll den Lückenfüller machen.

Und weil genau das Kostenthema der ActiveSync-Lizenzierung für die (kostenlos nutzbaren) Google-Dienste eine Rolle spielen dürfte, ist ActiveSync nun wohl bei der Synchronisierung der Google-Accounts auf der Abschussliste. Immerhin gibt es aber einige begrenzende Ausnahmen für das Ende:

  • Wird ein Google-Account bis zum 30. Januar 2013 noch mit ActiveSync synchronisiert, bleibt diese Möglichkeit für diesen Account auch darüber hinaus noch erhalten. Das Ende gilt also ab 30. Januar 2013 nur für bis dato noch nicht per ActiveSync synchronisierende Google-Accounts. Inwiefern es bis zu diesem Datum tatsächlich aktiv genutzt werden muss oder ob die Nutzung irgendwann in der Vergangenheit schon ausreicht, wird sich zeigen.
  • Ebenfalls nicht betroffen von dem Ende sind Google-Accounts, die innerhalb der inzwischen auch kostenpflichtigen Google Apps angelegt sind. Google-Apps-Accounts werden also auch weiterhin per ActiveSync synchronisieren können und wer da noch das Glück hatte, in der vergangenen Kostenlos-Zeit einen Google-Apps-Account einzurichten, lebt immer noch komplett kostenlos.

Die kostenlosen Protokollalternativen zum Synchronisieren

Google beendet das Synchronisieren mit ActiveSync vor allem auch deshalb, weil es inzwischen kostenlose Protokolle zum Synchronisieren gibt, die auch hinreichend zuverlässig sind. Für das Synchronisieren von Kalender ist dies das CalDAV-Protokoll und für das Synchronisieren von Kontakten das CardDAV-Protokoll. Beide Protokolle sind (inzwischen offizielle) IETF-Standards und im Falle von CardDAV eine beschwerliche Geburt hinter sich.

Das ist auch einigermaßen nachvollziehbar, denn ein einheitlicher, herstellerübergreifender Standard liegt zunächst einmal nicht im Interesse der Hersteller von eigenen, proprietären Protokollen und da lange Zeit die Motivation an echten freien Protokollen fehlte, dauerte es auch dementsprechend, bis beide Protokolle jeweils die Hürden genommen hatten, um als IETF-Standard zu gelten – zumal alle involvierten Hersteller innerhalb der IETF auch an der Standardisierung beteiligt waren. Das Wort „Sabotage“ will niemand in den Mund nehmen, aber IETF-Standardisierung ist mitunter auch interessant für Beobachter, die sich für Rudelbildungen im Tierreich interessieren.

Was zu tun ist … Empfehlungen

Also, grundsätzlich: ActiveSync muss niemand unbedingt einsetzen, der auch CalDAV und CardDAV einsetzen kann. Beide Protokolle sind gleichwertig funktional, wenn es um die Synchronisierung von Kalender- und Kontaktdatenbanken geht. Selbstverständlich ist ActiveSync deutlich mächtiger, allerdings richten sich viele Funktionen von ActiveSync vornehmlich an Unternehmen, die z.B. in einer Exchange-Infrastruktur alle Arten von Clients – vom Windows-Rechner mit Outlook bis zum iPhone – synchronisieren und zentral verwalten müssen.

Innerhalb von Google-Diensten ist ActiveSync bzw. der eigene Name „Google Sync“ immer als bisher mehr oder weniger notwendige Alternative zu verstehen. Es besteht also kein Grund zur Panik und auch nicht zu übermäßiger Hektik in Sachen Synchronisierungen zum Google-Konto einrichten. Wer bis zum 30. Januar 2013 Google Sync bzw. ActiveSync nicht einsetzt, wird es auch danach nicht vermissen, den selbst das iPhone, die Ausgeburt an Apple-Scheuklappentum in Sachen offenen Standards, unterstützt CalDAV und CardDAV

Zu erledigende Aufgaben für Besim

Das inzwischen gewachsene Sammelsurium an Blog-Artikeln, die sich mit der Synchronisierung zwischen Google-Konto und iPhone beschäftigen, aktualisieren. Die Artikel, die Google Sync erklären, werden mit Hinweisen darauf versehen, dass Google Sync nicht mehr bei allen Arten Google-Accounts funktioniert, der Artikel zu CalDAV so überarbeitet, dass es wieder als Empfehlung gilt und ein Artikel zu CardDAV neu geschrieben, das ich bisher großflächig ausklammerte, weil die CardDAV-Unterstützung von Google vor zwei Jahren, als ich das erste und bis dato letzte Mal in dieser Konstellation mit CardDAV experimentierte, schlicht unmöglich war.

Manchmal hilft die wohltuende Wirkung der Zeit doch, dass Hersteller sich ihren Möglichkeiten zur Interoperabilität bewusst werden.

Obama 2012 – Augenzwinkernde Reaktion auf Wahlkampfattacken.

Die Republikanische Partei hat noch gar nicht ihren Kandidaten gekürt und hat aktuell ziemliche Probleme damit, überhaupt messbare Kandidatenströmungen zu haben, da gehen schon die ersten Attacken los. Der Vater von Präsidentschaftskandidat Mitt Romney, Matt Romney, wurde von seinem Sohn schon mal mit einem der drögeren Wahlkampfschlager aus dem letzten Wahlkampf vorgeschickt, nämlich der an sich längst geklärten Frage, ob Barack Obama überhaupt in den USA geboren sei oder nicht.

Dass er das ist und dennoch die Frage im Wahlkampf thematisiert wird, hat das Obama-2012-Team von vorne herein einkalkuliert und den „Obama-Geburtsschein-Becher“ kreiert, auf den mit einem Augenzwinkern in einem Google+-Posting verwiesen wird. Brillant!

Wenn das in der Wahlkampfqualität weitergehen würde, wäre es ein Kinderspiel, solche Angriffe aus dem gegnerischen Team zu pulverisieren, bevor sie überhaupt eine nachrichtenverwertbare Schlagkraft gewinnen würden. Aber natürlich wird es so nicht bleiben. Das hier war eher ein kleiner Jahresabschluss und ein kleines Sparring für das Obama-2012-Team.


Alle Teile meines Dossiers zu Obama 2012 unter dem Stichwort „Obama 2012“.

Web 2.0 meets schwäbischen Oberbürgermeisterwahlkampf.

Im beschaulichen schwäbischen Städtchen Nürtingen hat sich gestern ein bemerkenswertes Schauspiel ereignet. Der dortige zweite Wahlgang zur Oberbürgermeisterwahl, der vermutlich ursprünglich zu einer stinklangweiligen Veranstaltung verkommen sollte, wurde auf einmal höchst spannend, weil nach Amtsinhaber Otmar Heirich, der mit 49,57 % wiedergewählt wurde, eine Dame namens Claudia Grau mit 32 % das zweitbeste Ergebnis einfuhr – eine Kandidatin, die sich gar nicht hat aufstellen lassen. Aber mal von vorn:

Zahlen und Fakten

In Oberbürgermeisterwahlkämpfen in Baden-Württemberg muss ein Kandidat die durchaus anspruchsvolle Hürde der absoluten Mehrheit (also mindestens 50 % der Stimmen) reißen, um gewählt zu werden. Erreicht in einer solchen Oberbürgermeisterwahl kein Kandidat die absolute Mehrheit, kommt es zu einem zweiten Wahlgang zwei Wochen später, bei dem dann die einfache Mehrheit ausreicht.

Der erste Wahlgang

Der erste Wahlgang am 9. Oktober 2011 sah folgendermaßen aus:

  1. Otmar Heirich (SPD) – 40,3 % (4.902 Stimmen)
  2. Sebastian Kurz (CDU) – 25,5 % (3.124 Stimmen)
  3. Friedrich Buck (Grüne) – 10,2 % (1.242 Stimmen)
  4. Petra Geier-Baumann (parteilos) – 7,1 % (864 Stimmen)
  5. Andreas Deuschle – 5,7 % (697 Stimmen)
  6. Raimund Bihn – 2,5 % (318 Stimmen)

Wie zu sehen: Niemand hat die absolute Mehrheit. Und wie auch zu sehen ist, wenn man rechnet: Die sechs Kandidaten, die sich offiziell haben aufstellen lassen, vereinen nur 91,3 % aller abgegebenen Stimmen. Der Rest von 8,7 % der Stimmen verteilt sich auf eine Reihe von weiteren Menschen, was auf eine Spezialität in Kommunalwahlen zurückzuführen ist: Wähler dürfen auf ihrem Stimmzettel auch einen eigenen Kandidaten vorschlagen und ihm die Stimme geben.

Und hier genau gab es am 9. Oktober einen Hallo-Effekt, denn mit 5,8 % und 709 Stimmen errang Claudia Grau, Kulturbürgermeisterin der Stadt Nürtingen und eben nicht selbst aufgestellt, tatsächlich auf Anhieb den 5. Platz in der Wählergunst.

Nicht außer Betracht lassen darf man übrigens die granatenschlechte Wahlbeteiligung von 42,9 %. Von 29.396 Wahlberechtigten beteiligten sich gerade einmal 12.596 Wähler an der Wahl.

Der zweite Wahlgang

Der zweite Wahlgang fand zwei Wochen später statt, also am 23. Oktober 2011. Um am zweiten Wahlgang offiziell auf dem Wahlzettel zu stehen, müssen die Kandidaten bis zu einer Frist bekunden, ob sie für einen zweiten Wahlgang zur Verfügung stehen oder nicht. Erwartungsgemäß ziehen einige Kandidaten ihre Kandidatur zurück, so auch in diesem Fall unter anderem der Kandidat der Grünen. Mit solchen Rückziehern werden auf einen Schlag Stimmenpotentiale frei, die der ehemalige Kandidat dann an einen anderen Kandidaten weiterempfiehlt. Der Grünen-Kandidat hat seine Empfehlung für Claudia Grau abgegeben. Also für die Kandidatin, die eigentlich gar keine Kandidatin sein wollte.

Und so kam es dann im zweiten Wahlgang so, wie es kommen kann:

  • Otmar Heirich – 49,6 % (6.065 Stimmen)
  • Claudia Grau – 32 % (3.916 Stimmen)
  • Sebastian Kurz – 12,3 % (1.510 Stimmen)
  • Andreas Deuschle – 4 % (483 Stimmen)

Immerhin – die Wahlbeteiligung litt nicht noch weiter, sondern blieb mit 42.7 % und 12.511 Stimmen knapp an der Zahl des ersten Wahlganges. Normalerweise sind zu einem zweiten Wahlgang deutlich weniger Wähler zu begeistern, was vermutlich auch am überraschenden Wahlerfolg von Claudia Grau liegen dürfte. Was war hier eigentlich passiert?

„Plötzlich Bürgermeisterin“

WELT ONLINE hat es am vergangenen Mittwoch mit der obigen Überschrift über einen Zeitungsartikel schon ziemlich genau getroffen. Ja, so kann es kommen. Und warum es genau hier so gekommen ist, hat der Reutlinger General-Anzeiger schön in seinem Artikel „OB-Kandidaten wider Willen in Nürtingen“ recherchiert.

Kurzfassung: Amtsinhaber Otmar Heirich hat in Nürtingen offenkundig einen schweren Stand, was am Ergebnis im ersten Wahlgang auch so abzulesen war. Schon vor der Wahl wurden Stimmen laut, dass Kulturbürgermeisterin Claudia Grau ebenfalls ihren Hut in den Ring werfen und kandidieren möge. Das lehnte sie mit dem Hinweis, dass sie nicht gegen ihren Chef antreten wolle, ab und das ist ein berechtigter Einwand.

Bisher war das in Dörfern und kleinen Städten so, dass man sich an solche Äußerungen gehalten hat. Sozusagen ein ungeschriebenes Gesetz, denn tatsächlich kann, wie oben bereits angeklungen, jeder Wähler auf seinen Stimmzettel einen eigenen Kandidaten notieren und ihm die Stimme geben. Jeder Wahlberechtigte in seiner Kommune, der zum Zeitpunkt der Wahl zwischen 18 und 65 Jahren alt ist, kann auf diese Weise zum Oberbürgermeister gewählt werden – wenn er denn die Stimmen zusammenbekommt.

Bis zur Vor-Web-2.0-Zeit war dies meist kaum möglich, weil nicht erreichbar. So viele Klinken kann man selbst in einer Kleinstadt wie Nürtingen nicht geputzt bekommen und selbst wenn es zu größeren Wähleransammlungen für einen Kandidaten kommt, so sind das meist Gaudi-Aktionen von Stammtischen oder Vereinen, die mal eben mehr oder weniger geschlossen ihren Vereinsvorstand wählen. Prominente wie Thomas Gottschalk oder Dieter Bohlen sind auch immer wieder gern gewählt. Viel passieren kann einem solchen Wider-Willen-Kandidaten übrigens nicht: Er wird nach einer eventuell gewonnenen Wahl ja gefragt, ob er die Wahl annehmen möchte oder nicht. Tut er das nicht, geht es dann halt wieder los mit Oberbürgermeisterwahlkampf …

Der Web-2.0-Effekt?

Im Falle der Oberbürgermeisterwahl in Nürtingen hat wohl Raimund Popp, Programmierer und engagierter Nürtinger Bürger, diese Spezialität der Kommunalwahl mit den Vernetzungsmöglichkeiten des Web 2.0 zusammengebracht. Und zwar zunächst gar nicht in Facebook, wie die meisten Medien kolportieren, sondern in Google+. Ironischerweise, muss man da sagen, denn eigentlich unterstützt Google+ derzeit keine Gruppen oder „Fanseiten“, so dass hier ein Benutzerprofil zweckentfremdet wurde. Die Facebook-Seite kam nach eigenen Angaben erst einige Wochen später, nachdem der Hype wohl Überhand genommen hatte.

Auch wenn ich die Idee sehr gut finde und sie nichts anderes darstellt wie echte und gelebte Demokratie, so hat sie doch einen Haken: Es ist beileibe kein Web-2.0-Effekt, sondern vielmehr das Ergebnis der klassischen Berichterstattung über diesen Web-2.0-Effekt. Schaut man sich nämlich die Befürworterzahlen (am 24. Oktober 2011, 12:15 Uhr) der beiden Seiten an, wird das sehr schnell klar:

  • Google+: 44 mal in Kreisen von anderen Benutzern
  • Facebook: 26 Befürworter

Mit 70 Wählern gewinnt man keine Wahl, selbst wenn man davon ausginge, dass alle 70 Befürworter auch Wahlberechtigte in Nürtingen gewesen wären. Aber immerhin reicht dieser Web-2.0-Effekt und die Berichterstattung darüber für erstaunliche Reaktionen.

Die vermeintliche Undemokratie aus Sicht von Demokraten

Amtsinhaber Otmar Heirich verstieg sich nach dem ersten Wahlgang auf Nachfrage eines Journalisten zu der Vermutung, dass Leute „aus der links-alternativen Ecke“ ihren Spaß haben wollten und er dahinter eine „undemoratische“ und für ihn „höchst fremdliche“ Internet-Aktion sehe. So kann man es sehen. Muss man aber nicht. Denn die Aussage, dass es hier „undemokratisch“ zugegangen sein könnte, ist vor allem einmal Unsinn eines Amtsinhabers, dem möglicherweise, um es mal salopp zu sagen, nach dem ersten Wahlgang und dem Pressehype um die verselbstständigenden Web-2.0-Aktivitäten plötzlich mächtig das Zäpfchen gegangen ist.

Tatsächlich jedoch war diese „undemokratische“ Internet-Aktion im besten Sinne demokratisch. Jeder darf sich an der Wahl eines Amtes beteiligen, jeder darf sich aufstellen und jeder darf sich auch wählen lassen. Und wenn der/die Kandidat(in) nach der Wahl die formalen Kriterien erfüllt und die Wahl annimmt, dann ist des Volkes Wille geschehen, ob das nun einem bisherigen Amtsinhaber oder Parteifunktionären so passt oder nicht.

Das Internet, das Web 2.0 und deren Benutzer sind keine „Antidemokraten“ und auch keine Gesetzesbrecher – sie tun mitunter das, was die Politik in der Realität derzeit manchmal nicht mehr schafft: Vernetzen und fördern.

Warum es egal ist, ob Android oder iOS mainstream oder premium sind.

Da sind wir wieder, bei der immer gleichen Sau, die regelmäßig durchs Dorf getrieben wird und sich um das Thema dreht, ob nun Android oder iOS das bessere Betriebssystem ist. Aktuell sind wir bei der unglaublichen Feststellung von „Digital-Pionier“ Christoph Kappes im D&W-Magazin, der sinniert, dass Android „mainstream“ sei und iOS „premium“. Wollte ich mir eine Antwort sehr einfach machen, würde ich einfach mit einem Link auf einen x-beliebigen Handyshop antworten, denn diese Feststellung lässt sich dort schon allein mit den Preisen für iOS- bzw. Android-Gerätschaften darlegen. Mal so am Rande: Die Säue, die man durchs Dorf treibt und Aufregung verursachen, waren auch mal besser.

Anyway: Die Frage, ob ein Premiumprodukt, das das bessere ist, auch tatsächlich funktioniert, ist eine, die nichts, aber auch wirklich nichts mit Qualität zu tun hat. Gerade in der Unterhaltungselektronik überlebt selten das beste System, sondern allenfalls das, was die meiste Marktdurchdringung gewinnt. Solche Marktdurchdringungen werden dabei auf verschiedenste Weisen erkauft, in der Regel durch knallharte Subventionierungen. Entweder ist das Produkt gänzlich kostenlos oder es wird ordentlich günstig verscherbelt. Es wird aber gepusht und das ist das zentrale Kennzeichen.

iOS kann man allein schon dadurch zu einem Premium-Produkt zählen, dass es nur ein Hersteller für seine Geräte verbaut und der diese Monokultur auch kräftig ausnutzt. So kräftig, dass iOS bzw. iPhone und iPad letztendlich nur für einen verhältnismäßig kleinen Kreis von weltweiten Nutzern erschwinglich ist. In den meisten Staaten dieser Erde wird der Otto Normalverbraucher sich ein iOS-Gerät schlicht nicht leisten können, weil es zum einen keine „Billigversionen“ von iPhone und iPad gibt und Apple auch überhaupt kein Interesse daran hat, zumindest so lange die Märkte in der „Ersten Welt“ nicht gesättigt sind. Android geht den Weg über die Breite, baut also, schematisch gesehen, ein Framework, das dann Hersteller für ihre eigene Hardware adaptieren können, mit all den damit verbundenen Vor- und Nachteilen.

Ironischerweise erheblich unwichtig ist die Frage, ob nun Android oder iOS das bessere Betriebssystem ist. Grundsätzlich haben beide Betriebssysteme einen relativ hohen Grad an Benutzerfreundlichkeit erreicht und es geht in der Entwicklung von zukünftigen Versionen weitgehend nur noch um Detailfragen und um Kompatibilität zur Hardware, was Android naturgemäß vor deutlich höhere Hürden stellt, als iOS. Was Android mit diversen Bedienelementen wettmacht, die iOS (noch) nicht hat, macht iOS wiederum mit weitgehender Idiotensicherheit wieder wett und umgekehrt. Das wichtigste Ziel der Attraktivität ihrer Betriebssysteme haben beide erreicht: Eine verhältnismäßig große Softwarevielfalt in Sachen Apps.

Das wird erheblich deutlicher, wenn man sich mal die Mühen macht, die echten Kriegsschauplätze in Sachen Mobilbetriebssysteme anzuschauen, nämlich jenseits des angeblichen Kampfes zwischen Android und iOS. WebOS/Palm hat sich durch die (in meinen Augen krasse) Abkehr Hewlett-Packards von der Consumerelektronik erledigt, RIM kämpft mit seinem extrem abgeschirmten und in Consumerbereich quasi kaum sinnvoll nutzbaren Blackberry um jeden Kunden. Microsoft versucht mit Windows Mobile mit extremem Aufwand, an alte Zeiten anzuknüpfen und kann relativ bequem Blackberry-Anwender abschöpfen, die mit Windows Mobile zur „Mutterplattform“ in Sachen Exchange- bzw. Active-Sync-Synchronisierung kommen. Was dann noch hinter Blackberry und Windows Mobile kommt, hat ganz schlechte Karten und kaum über homöopathisch wirkende Reichweiten kommen.

Den vielbesungenen Krieg der Mobilbetriebssysteme Android und iOS – ich bin mal so frei und behaupte, dass das vor allem ein Krieg ist, der bei den Kleingeistern dieser Welt, die schon damit überfordert sind, zwischen App, Webapp und Widget zu unterscheiden, am stärksten gekämpft wird. Und diesen Krieg, den interessiert, mit Verlaub, kein Schwein.

Der Humanfaktor für Google.

Vor inzwischen fast drei Jahren habe ich mal an dieser Stelle darüber gebloggt, wie Google seine Nutzer bei der Nutzung der Suchmaschine dabei beobachtet. Vor drei Jahren waren wir da noch inmitten der „SEO-1.0“-Philosophien, die weitgehend besagten, dass sehr, sehr, sehr stark vor allem darauf achten solle, dass die Website für eine Suchmaschine gut lesbar sein soll, der Rest würde sich dann ergeben.

Heute, drei Jahre später, ist davon immer weniger die Rede. Facebook hat es mit seinem ausgegliederten Like-Button, den jeder Website-Betreiber verhältnismäßig einfach in seine Website einbauen kann, vorgemacht. Und natürlich ist Facebook damit zwar ein öffentlichkeitswirksamer Coup gelungen, der jedoch Facebook nicht wirklich weiterbringt, denn Facebook ist keine Suchmaschine und Facebook ist eine geschlossene Gesellschaft und legt sogar großen Wert darauf. Facebook ist nicht an Suchen und Finden interessiert, sondern Facebook will seine Nutzer nicht verlieren, weil das Geschäftsmodell mit Werbung nur direkt auf der Facebook-Website funktioniert.

Bei Google ist es genau andersherum und es zeigt sich bei Google nun sehr schön, wie die Reihenfolge bei den Google-Leuten funktioniert. Zuerst die Suchmaschine und alles andere drumherum. Da passt dann plötzlich auch der „Google+1“-Button perfekt in die Strategie und auch das Google-Social-Network „Google+“. Unterhaltung und Diskussion auf hohem Niveau, um auf diese Weise die Surfstrategien, Vorlieben und Ariadnefäden der Nutzer nachzuvollziehen.

Dass die so gesammelten Inhalte, der „Humanfaktor“ in Sachen Suchmaschinenindex, sich am Ende auch tatsächlich in Suchergebnissen niederschlägt und diese benutzerspezifisch beeinflussen, hat Martin Mißfeldt in einem schön recherchierten Blog-Artikel recherchiert, dem kaum noch etwas hinzuzufügen ist: „Ich als Rankingfaktor