Das kommende Ende des Internets, wie wir es heute kennen.

Kurzum: Das Internet wird so, wie wir es heute kennen, mit ziemlicher Wahrscheinlichkeit in mittelferner Zukunft nicht mehr so sein, wie wir es kennen. In Sachen Pessimismus bei Netzpolitik hat sich meine Stimmungslage in den letzten Monaten ja schon sichtlich ins Dunkle gewandelt, die letzten Wochen und Monate in Sachen Neufassung des Jugendmedienschutzstaatsvertrags haben meine größten Befürchtungen jedoch weitgehend bestätigt. Hinzukommt die Art und Weise, wie "hemdsärmelig" WikiLeaks erfolgreich von einzelnen Politikern bekämpft wird, was mir zeigt, dass es genügend gewählte Menschen in Demokratien gibt, die zur Wahrung ihrer eigenen Interessen keinen Moment zögern würden, global den "Internet-Stecker" zu ziehen. Zum Thema WikiLeaks werde ich nochmal gesondert bloggen.

Das Internet ist kein freiheitliches, vielleicht gar anarchisch wirkendes Netz mehr. Das ist alles verblümte Geschichte. In Wirklichkeit ist es schon verloren und es geht maximal nur noch darum, die schlimmsten Auswüchse dieser Entwicklung abzumildern. Harsche Worte.

Netzpolitik in der Zange der Inhaltsanbieter – und umgekehrt

Will man den aktuellen Stand der “modernen” Netzpolitik der deutschen Spitzenpolitik kartografieren, muss man ein politisches Feld des totalen Versagens und der vollständigen Inkompetenz aller Parteien konstatieren. Tatsächlich glaubte ich sehr lange, dass das darin resultiert, dass es einfach an fachkundigen Politikern fehlt. In der Zwischenzeit bin ich jedoch überzeugt, dass es zwar nach wie vor an fachkundigen Politikern fehlt, die moderne Netzpolitik jedoch inzwischen die gleiche Lobbysteuerung aufweist, wie sie in der Tabak- und Alkoholbranche seit Jahrzehnten üblich ist.

Anbieter von Inhalten haben in den letzten Jahren das Internet vor allem so verstanden: Wir stellen mal alles hinein und irgendwann wird schon ein Businessmodell herausfallen. Mit diesem Ansatz wurde schon ein ganzer Boom befeuert (der gute, alte Dot-Com-Boom), der Milliardensummen an Geld vernichtet hat. Tragfähige Businessmodelle sind freilich dabei kaum herausgesprungen.

Und so führte das für Inhaltsanbieter (und dabei ist es letztendlich egal, ob das Rechteinhaber von Nachrichten, Bücher, Musik oder Filmen sind) geradewegs ins Elend. Eine Galgenfrist lieferten die noch viel zu kleinen Internet-Anschlüsse und fehlende Komprimierformate, aber MPEG änderte alles.

Man könnte sagen: Selbst schuld. Doch so eine Feststellung macht man dann, wenn man an das Gute glaubt. Das ist bei milliardenschweren Wirtschaftszweigen eine naive Grundlage. Denn Meinungen zu kaufen ist in Branchen, die Meinungen verkaufen, sehr einfach. Gib‘ du mir etwas Glamour und ich beschützte dein Biotop!

Ausnahmslos alle netzpolitischen Vorgaben lassen sich auf diese Haltungen und Lobbyarbeiten herunterdividieren und zurückführen. Netzsperren dienen mit ihrer aufzubauenden Sperrinfrastruktur später auch gern zum Sperren von anderen Inhalten als dem K.O.-Argument Kinderpornografie, Leistungsschutzrechte dienen zum Erhalt von so genannten “freien” Medien und wenn man all diese Vorhaben näher dahingehend betrachtet, wie sie denn technisch so umzusetzen wären, dass sie auch funktionieren, wird man schnell feststellen, dass es gar nicht darum geht. Es geht rein um die Kriminalisierung von Dingen, die die Leute verbocken, die zu dumm dazu sind, sich neue Businessmodelle auszudenken.

An Dreistigkeit gibt es da inzwischen keine ausgemachte Schweinerei mehr, die nicht denkbar wäre. Lobbyisten, die diese Tätigkeit stolz herumtragen, werden in Enquete-Kommissionen berufen und verstecken ihre Lobbyarbeit gar nicht mehr. Gewerkschaften wie Verdi werden knallhart mit Argumenten in die Leistungsschutzrechtsdebatte eingebunden, so dass man im Gespräch mit eher ahnungslosen Gewerkschaftlern teilweise so Aussagen zu hören bekommt, dass der ganze Berufsstand “wegen diesem Kostenlos-Internet” kurz davor stünde, in die Pleite zu rutschen. Und dem Politikbetrieb wird das alles damit verkauft, dass das Ende von Kunst, Kultur und Meinungsfreiheit grundsätzlich davon abhängen würde. Dass all die netzregulatorischen Maßnahmen, die sich Inhaltsanbieter wünschen, nichts anderes wie das teure Erkaufen von Zensurmaßnahmen sind, da hört man halt einfach weg. Da schreiben wir dann halt – bewährte Vorgehensweise – einfach nicht drüber und die paar Blogger und andere Schmutzfinken, die werden dann halt einfach kriminalisiert.

Hanebüchen. Es haut inzwischen niemanden mehr vom Hocker über die unfassbaren Umstände, wie freie Medien mehr oder weniger und vor allem immer weniger genieren, nach staatlicher Protektion zu rufen. Die vierte Gewalt im Staat, eine Begrifflichkeit, die auch heute noch bei gestandenen Zeitungsleuten zu einer langanhaltenden Erektion führt, verkommt zu einem Haufen armseliger Tropfempfänger und keinen scheint es wirklich zu stören.

Ich habe inzwischen aufgehört, davon zu reden, wie schlimm China, Iran, die Türkei und viele andere Länder das Internet reglementieren, regulieren und zensieren. Ich bin inzwischen fest davon überzeugt, dass die Europäische Union und auch Deutschland auf dem genau gleichen Weg sind. Schweinereien sind schließlich keine Schweinereien im ursprünglichen Sinne mehr, wenn alle Schweine geworden sind.

„SEO“ versus echtem Content.

In den vergangenen Tagen und Wochen haben Oliver und ich eine Menge darüber reden müssen, was eigentlich „richtiges“ Search Engine Optimizing ist. Damit verbunden sind, wie es bei uns üblich ist, teilweise sehr intensive Diskussionen darüber, was wir eigentlich gut finden und was nicht. Bei einigen Themen unserer gemeinsamen Arbeit in Sachen Web und Web 2.0 pflegen wir durchaus einen gesunden Diskurs zwischen unterschiedlichen Haltungen. Dafür schämen wir uns nicht und wenn ein Kunde uns zu speziellen Themen fragt, sagen wir auch ganz offen, dass wir dazu unterschiedliche Ansichten haben. Wir sind der festen Überzeugung, dass dies kein Wettbewerbsnachteil ist und gerade in der Web-2.0-Thematik gibt es sehr viele offene Punkte, zu denen man teilweise diametral unterschiedliche Ansichten haben kann.

In einem Punkt besteht jedoch weder bei Oliver noch bei mir eine Abweichung, nämlich der Haltung dazu, wie echtes Suchmaschinenmarketing auszusehen hat. Zusammengefasst passt es in einen Leitsatz, der quasi ein Untertitel unserer Unternehmung sein kann:

Content rules!

Eigentlich doch sehr einfach. Je mehr sich Oliver und ich an diesem Leitsatz abarbeiten – und das tun wir immer wieder als eine Art Sparring – desto mehr manifestiert er sich. Und dafür hat es eine Reihe von schwergewichtigen Gründen.

Die Relevanz von echtem Content kommt langsam, dann aber gewaltig.

Mein großes Hobby, das Erfinden von Analogien, kommt beim Themenfeld „Content“ voll auf seine Kosten. Ich vergleiche SEO und Content-Building da gern so:

Eine dicke Welle macht den Strand nass, korrekt. Content-Building kann nie eine große Welle sein, kommt aber meist als viele kleine Wellen daher. Auch die machen den Strand nass. Und im Gegensatz zur einen großen Welle, die vielleicht die extremen Surfer anzieht, haben die vielen kleinen Wellen einen anderen Vorteil: Sie erfrischen und sind ungefährlich, so dass an so einen Strand eher die Familien mit ihren Kindern kommen.

Eigentlich ist hier schon alles gesagt. Das Herumfummeln mit Keywords ist für die allermeisten Themenfelder keine wirkliche Kunst, sondern in meinen Augen ein teures Verkaufen einer an sich völlig normalen Vorgehensweise. Der überwältigende Teil des Informationsraumes wird gebildet aus Schlüsselwörtern, die belanglos sind und in Kombinationen eine völlig irrelevante Relevanz haben. Das heißt, dass es in den allermeisten Optimierungssituationen gar keine wirkliche Optimierung notwendig ist, sondern einfach das Nennen von Keywords. Daraus kann man natürlich erheblichen Hokuspokus machen und auch gigantisch Geld herausschlagen, wenn man es mit weitgehend unbedarften Kunden zu tun hat.

Tatsächlich ist aber eine große Welle eine sehr zweischneidige Sache. Es muss nur der nächste kommen, der ebenfalls die gleiche Methode anwendet und schon gibt es zwei dicke Wellen, die um die Vorherrschaft kämpfen. Und verlieren tut hier spätestens der, der nicht flexibel reagiert, also mit Inhaltsveränderungen Paroli bietet.

Ist das nicht ein Drecksjob, weil ohne Substanz?

Ist es. Weil es zu nichts führt. Außer zum Zeitschinden. Wer aber ausschließlich mit Voodoo und Zeitschinden sein Geld verdient, der macht einen schweren Job, bei dem gar nicht so sicher ist, ob er den lange machen wird.

Echter Content ist der gewünschte Humanfaktor, den eine Suchmaschine sucht.

Weil es vom mathematischen Standpunkt aus gedacht ist und damit rechnet, dass ein Herr Google sich von einer bestimmten Anzahl von Keywords, Backlinks und Alter einer Domain beeindrucken lässt, kann bisheriges Suchmaschinenoptimieren nicht mehr funktionieren. Aus dem Zeitalter sind, ebenfalls meiner Meinung nach, alle großen Suchmaschinen längst heraus oder sind zumindest dabei, sich daraus zu verabschieden.

Wenn man sich Google über Jahre hinweg anschaut, wird man erkennen können, dass man dort alles tut, der Suchmaschine „Menschlichkeit“ einzupflanzen. Das passiert meiner Meinung nach immer weniger mit dem kaum zu bewerkstelligenden Versuch, einen Algorithmus zu finden, der möglichst nahe an der Art und Weise rechnet, wie der Mensch denkt, sondern mit dem Ansatz, einfach alle Beteiligten im Web (also Anbieter und Suchender) für sich einzuspannen.

Glaubt der geneigte Leser nicht? Dann aber müsste der geneigte Leser glauben, dass Google tatsächlich nicht am „fundamentalen“ Index arbeitet, sondern viele Dinge macht und sie nicht miteinander verwebt, obwohl man alle Stränge in einer Hand hat. Glaube ich so nicht.

Für jeden, der im Web etwas tut, hat Google eine Möglichkeit, sich aus dessen Web-Arbeit das herauszunehmen, was für einen perfekten Index benötigt wird. Suchende können mit einem Google-Account kostenlose und sehr gute Collaboration-Dienste nutzen und sind im Gegenzug ständig bei Google angemeldet, damit auch bei der Nutzung der Suchmaschine. Google weiß, was wer sucht und auf welchen Ergebnislink am Ende geklickt wird. Web-Anbieter können sich Google Analytics einbinden, um genaue Statistiken ihrer Website zu erhalten, Google AdSense zum Erlösen von Werbebannereinnahmen, Google Reader zum Lesen von RSS-Feeds, Google Groups für die Nutzung des Usenet, Google Maps für Lokationsdienste, Google Mail als einfaches Postfach, YouTube zur Unterhaltung, Picasa zur Bereitstellung und Beschreibung von Bildern.

Alle diese Dienste sind zum einen angenehm für deren Nutzer, weil sie gut funktionieren, nützlich sind und darüber hinaus kostenlos, zum anderen ungemein notwendig für Google, weil Google dadurch lernen kann, wie der Mensch Information sucht, wie er sie selbst interpretiert und wie er vor allem eigene Information beschreibt, die wiederum gesucht wird. Ich habe das mal vor eine ganzen Weile in einem erheblich düsteren Unterton gebloggt („Von der so genannten Anonymität von Suchmaschinen„), sehe das aber inzwischen gar nicht mehr so. Wenn Google mir für meine menschliche Arbeitsleistung einen vernünftigen Gegenwert liefert und meine gesammelten Daten schützt, soll es mir recht sein.

Gar nicht mehr so steile These von mir: Google ist zwar eine Maschine, hat aber schon heute einen unübersehbaren Humanfaktor im Index. Und der kann zukünftig nur noch größer werden. Hochindividuelle Suchergebnisse für jeden einzelnen Suchenden können da nur das Ergebnis sein und spätestens da knallt das „klassische SEO“ dank fehlender Abfragemethodik schmerzhaft gegen den Prellbock.

Wer schreibt, der bleibt.

Die Kunst liegt darin, Content zu liefern und zwar in vielen kleinen Schritten, so wie es eben auch der Mensch in seiner Kommunikation tut. Wer auf diese Weise um ein bestimmtes Themenfeld ständigen Content bildet, bildet auf diese Weise in diesem Themenfeld nach und nach eine Autorität aus, die er ungleich schwerer wieder verlieren wird und die er auch umso stärker verteidigen kann, je länger er schon Content bildet.

Es geht also im modernen Suchmaschinenoptimieren von Websites nicht mehr darum, einfach nur die relevanten Keywords herauszusuchen, einen kopierten Metatag-Block damit zu bestücken und auf die uralte Webseite einzukleben, sondern es geht um viel mehr. Es geht darum, ob eine Website syntaktisch korrekt ist, ob sie Platz für dynamischen Content bietet, ob sie XML-Sitemaps und RSS-Feeds produzieren kann – und ob letztendlich sich auch jemand hinsetzt, Content zu schreiben.

Ich sehe deshalb das, was heute als „SEO“ bezeichnet wird, zukünftig in einer redaktionellen Arbeit. Content bilden, Content redigieren, Content „online-fähig“ machen. Aber eben echten Content, nicht einfach nur das plumpe Sammeln von Keywords im Metatag, die jeder ungebildete Affe mit schlechter Orthografie zusammengetragen bekommt.

„Was sollen wir denn regelmäßig schreiben? Wir haben doch nix!“

Wer das als Unternehmer so sagt und der Meinung ist, er könne seine Website nicht regelmäßig mit frischem Content befüllen, der macht etwas grundlegend falsch: Entweder hat er keine Lust oder Zeit, darüber zu schreiben, was tatsächlich in seinem Unternehmen passiert oder er hat ein totes Unternehmen, das tatsächlich keine Neuigkeiten produziert. Dann muss aber auch nichts mehr optimiert werden.

Es gibt de facto kein Unternehmen, das Information erzeugt bzw. erzeugen könnte. So Analogien wie „Im Gespräch bleiben“, „Wer nicht wirbt, stirbt“, „Tue gutes und rede darüber“ haben alle einen sehr tiefen Sinn in der Kommunikation und genau das liegt auch schon der Maßstab. Es muss geschrieben werden, was man tut, denn ein einfacher Telefonbucheintrag bringt nur in sehr kleinen Nischenmärkten Kundschaft und selbst da könnte es sicherlich mehr sein, wenn man sich nicht nur auf diesen Telefonbucheintrag verlässt.

Wer sich online an kommunikative Grundsätzlichkeiten hält, also in erster Linie schon mal versucht, menschlich und kommunikativ zu sein, tut den ersten Schritt und kann ab diesem Zeitpunkt nur noch gewinnen. Wir sind dann nur noch einen Schritt davon entfernt, tatsächlich loszulegen.

Technologie ist für die Kommunikation da, nicht die Kommunikation für die Technologie.

Wer das Web bereits geentert hat, ist schon mittendrin. Webhosting kostet heute selbst in einer professionellen „Enterprise-Klasse“ einen Bruchteil dessen, was eine vernünftige Broschürenauflage kostet. Dazu gibt es eine Reihe von Redaktionssystemen, die als Open Source daherkommen, also nur noch von einem Fachkundigen angepasst werden müssen. Und wer ein modernes Redaktionssystem mit einem gesonderten Neuigkeitenbereich einsetzt, dessen neue Artikel dann vielleicht netterweise auch noch in einem RSS-Feed propagiert werden, hat seine Rakete schon startklar.

Was danach kommt, ist Handarbeit und der Teil der Arbeit, den leider kaum ein Web-Dienstleister liefert: Nämlich einen Fahrplan dazu, wie man Content erzeugt, ein helfendes Händchen dafür, den ersten Content zu erstellen und später eine Beratungsdienstleistung dafür, wenn Fragen auftauchen oder Content von externer Seite erstellt werden soll. Das funktioniert.

Mein Paradepferd ist hier immer noch das Gerstelblog, das seit Ende Mai läuft und das Weblog des Autohaus Heinrich Gerstel in Pforzheim ist. Das, was ich schon nach einem Monat Gerstelblog zwischenbilanziert hatte, verfestigt sich immer weiter. Dass durch das Bloggen aber vor allem auch der Schlüsselwortraum beeinflusst wird, zeigt sehr schön das Schlüsselwort „Holzsitzbank“ bei Google, das lediglich in einem Artikel erwähnt wurde.

Selbstverständlich ist der eher exotische Begriff „Holzsitzbank“ nicht unter den hauptsächlichen Schlüsselwörtern eines Opel-Autohauses, allerdings zeigt es sehr deutlich, wie Google Relevanz einschätzt. Wenn man dann noch weiß, dass Google keine zwei Stunden nach Erscheinen des betreffenden Holzsitzbank-Artikels die Seite schon im Index hatte und nach einem Tag der Artikel auf die jetzige Position kam, kann man sich ausmalen, was hier für Möglichkeiten stecken im Gegensatz zum simplen Zusammenklopfen von Metatags.

Der Axel-Springer-Verlag kündigt dem Internet.

So, nun ist endgültig Schluss mit Lustig: Der Axel-Springer-Verlag ist beleidigt mit den Internet-Nutzern und deren asoziales Verhalten, bisher beim Besuch von Axel-Springer-Websites nicht unaufgefordert Geld an den Verlag überwiesen zu haben und bestraft jetzt die Netcommunity damit, dass Content der Redaktionen zukünftig weggesperrt wird und nur noch nach Eintritt bezogen werden darf.

“Für das iPhone von Apple entwickeln wir so genannte Apps, also kostenpflichtige Angebote, über die man dann bild.mobil oder computerbild.mobil bezahlt und quasi abonniert”, so der Springer-Chef Mathias Döpfner zur FAZ. Und offenbar möchte man auch die Veröffentlichungen auf Websites einschränken und “Premiuminhalte” für Springersche Regionalzeitungen einführen.

Ich kann Mathias Döpfner zu diesem mutigen Schritt nur gratulieren. Endlich wird man als Netizen nun endlich von Verlagsseite aus davor bewahrt, durchs Links auf Springer-Scheiße verwiesen zu werden. Hoffentlich machen sie die Preise auch richtig schön hoch und das alles auch richtig konsequent, damit diejenigen, die den täglichen Mist auch Suchtgründen benötigen, dann wieder auf die normale, gedruckte Bild-Zeitung zurückwechseln können. Dann braucht man die Springer-Presse ja eigentlich auch nicht mehr im Internet.

Siehst du, Ursula, das mit den Selbstverpflichtungserklärungen von den Inhaltsanbietern funktioniert im Internet doch wunderbar. Man muss es nur wollen!