Mach mal Suche weg!

netplanet (also das Internet-Lexikon drüben) hat seine größten Zugriffs-Peaks normalerweise vormittags. Da sind viele Schulen unterwegs und da gibt es wohl auch genügend Stunden, in denen die Grundlagen des Internet behandelt werden. Viel Feedback gibt es dazu nicht, Lexikon-Feedback lässt sich an einer Hand abzählen – jahresweise. Es schreibt wirklich kaum mehr jemand.

Letzte Woche war mal wieder eine Ausnahme. Ein Lehrer schreibt. Aus Nordrhein-Westfalen. Er beginnt eigentlich recht freundlich:

„Hallo Herr Karadeniz,
als EDV-Lehrer nutze ich Ihr Internet-Lexikon regelmäßig für meine Unterrichtsstunden, um meinen Schülern die Grundlagen des Internets zu vermitteln. Ein guter Weg dabei ist, dass ich meinen Schülern Übungsblätter gebe und sie die Antworten dann im Internet recherchieren sollen. Ich gebe dann einige Links vor, darunter auch Ihr Lexikon. Und da sind wir auch schon bei einem kleinen Problem, das Sie vielleicht lösen könnten.
Sie haben auf Ihrer Website links die Google-Suche integriert, mit der Ihr Internet-Lexikon durchsucht werden kann. Meine Schüler haben es natürlich schon begriffen, dass man da nur ein Stichwort einer Frage eingeben muss und im Idealfall sofort die passende Seite und Lösung angezeigt bekommt. Ließe es sich vielleicht einrichten, dass Sie diese Suche aus Ihrem Internet-Lexikon herausnehmen? Das wäre sicherlich auch im Sinne vieler anderer Lehrer, die Ihr Werk für Bildungszwecke einsetzen.
Es grüßt Sie freundlich,
Herr [Blablub]“

Yo. Da weiß man gar nicht, ob die Frage ernst gemeint ist oder eher Realsatire. Ich habe dann mal freundlich zurückgeantwortet, dass ich mich gern für das Lob bedanke, ich aber seiner Bitte nicht entsprechen kann. Ich kann nichts verstecken, was allmächtig überall da ist. Da ich logischerweise die Google-Suche verwende und ich keine eigene Google-Suchmaschine betreibe, wird wohl Google nicht nur auf netplanet jeden Satz des Lexikons finden lassen, sondern auch bei Google selbst.

Anstatt Google auszuklammern, sollte er lieber mal zuschauen, wie man Google in den Unterricht aktiv einbaut.

Rechtsfahrgebot in Pusemuckel.

Da mache ich doch glatt mal mit, wenn die werten Herren Gassner und Theofel mit dem „Rechtsfahrgebot in Pusemuckel“, das dort ausdrücklich nicht gilt, weil es kein Pusemuckel gibt, zeigen wollen, wie unsinnig SEO ist und wie einfach man mit echtem Blog-Content Begrifflichkeiten in Google ganz, ganz nach oben bekommt. Einen weiteren Artikel gibt es auch im Weblog meines Kunden, dem Autohaus Gerstel, nebenban. Und da ist es ein Heimspiel, denn das ist ein Automobilblog. 😉

Wer Pusemuckel übrigens findet, darf es gern behalten.

Der Humanfaktor für Google.

Vor inzwischen fast drei Jahren habe ich mal an dieser Stelle darüber gebloggt, wie Google seine Nutzer bei der Nutzung der Suchmaschine dabei beobachtet. Vor drei Jahren waren wir da noch inmitten der „SEO-1.0“-Philosophien, die weitgehend besagten, dass sehr, sehr, sehr stark vor allem darauf achten solle, dass die Website für eine Suchmaschine gut lesbar sein soll, der Rest würde sich dann ergeben.

Heute, drei Jahre später, ist davon immer weniger die Rede. Facebook hat es mit seinem ausgegliederten Like-Button, den jeder Website-Betreiber verhältnismäßig einfach in seine Website einbauen kann, vorgemacht. Und natürlich ist Facebook damit zwar ein öffentlichkeitswirksamer Coup gelungen, der jedoch Facebook nicht wirklich weiterbringt, denn Facebook ist keine Suchmaschine und Facebook ist eine geschlossene Gesellschaft und legt sogar großen Wert darauf. Facebook ist nicht an Suchen und Finden interessiert, sondern Facebook will seine Nutzer nicht verlieren, weil das Geschäftsmodell mit Werbung nur direkt auf der Facebook-Website funktioniert.

Bei Google ist es genau andersherum und es zeigt sich bei Google nun sehr schön, wie die Reihenfolge bei den Google-Leuten funktioniert. Zuerst die Suchmaschine und alles andere drumherum. Da passt dann plötzlich auch der „Google+1“-Button perfekt in die Strategie und auch das Google-Social-Network „Google+“. Unterhaltung und Diskussion auf hohem Niveau, um auf diese Weise die Surfstrategien, Vorlieben und Ariadnefäden der Nutzer nachzuvollziehen.

Dass die so gesammelten Inhalte, der „Humanfaktor“ in Sachen Suchmaschinenindex, sich am Ende auch tatsächlich in Suchergebnissen niederschlägt und diese benutzerspezifisch beeinflussen, hat Martin Mißfeldt in einem schön recherchierten Blog-Artikel recherchiert, dem kaum noch etwas hinzuzufügen ist: „Ich als Rankingfaktor

„SEO“ versus echtem Content.

In den vergangenen Tagen und Wochen haben Oliver und ich eine Menge darüber reden müssen, was eigentlich „richtiges“ Search Engine Optimizing ist. Damit verbunden sind, wie es bei uns üblich ist, teilweise sehr intensive Diskussionen darüber, was wir eigentlich gut finden und was nicht. Bei einigen Themen unserer gemeinsamen Arbeit in Sachen Web und Web 2.0 pflegen wir durchaus einen gesunden Diskurs zwischen unterschiedlichen Haltungen. Dafür schämen wir uns nicht und wenn ein Kunde uns zu speziellen Themen fragt, sagen wir auch ganz offen, dass wir dazu unterschiedliche Ansichten haben. Wir sind der festen Überzeugung, dass dies kein Wettbewerbsnachteil ist und gerade in der Web-2.0-Thematik gibt es sehr viele offene Punkte, zu denen man teilweise diametral unterschiedliche Ansichten haben kann.

In einem Punkt besteht jedoch weder bei Oliver noch bei mir eine Abweichung, nämlich der Haltung dazu, wie echtes Suchmaschinenmarketing auszusehen hat. Zusammengefasst passt es in einen Leitsatz, der quasi ein Untertitel unserer Unternehmung sein kann:

Content rules!

Eigentlich doch sehr einfach. Je mehr sich Oliver und ich an diesem Leitsatz abarbeiten – und das tun wir immer wieder als eine Art Sparring – desto mehr manifestiert er sich. Und dafür hat es eine Reihe von schwergewichtigen Gründen.

Die Relevanz von echtem Content kommt langsam, dann aber gewaltig.

Mein großes Hobby, das Erfinden von Analogien, kommt beim Themenfeld „Content“ voll auf seine Kosten. Ich vergleiche SEO und Content-Building da gern so:

Eine dicke Welle macht den Strand nass, korrekt. Content-Building kann nie eine große Welle sein, kommt aber meist als viele kleine Wellen daher. Auch die machen den Strand nass. Und im Gegensatz zur einen großen Welle, die vielleicht die extremen Surfer anzieht, haben die vielen kleinen Wellen einen anderen Vorteil: Sie erfrischen und sind ungefährlich, so dass an so einen Strand eher die Familien mit ihren Kindern kommen.

Eigentlich ist hier schon alles gesagt. Das Herumfummeln mit Keywords ist für die allermeisten Themenfelder keine wirkliche Kunst, sondern in meinen Augen ein teures Verkaufen einer an sich völlig normalen Vorgehensweise. Der überwältigende Teil des Informationsraumes wird gebildet aus Schlüsselwörtern, die belanglos sind und in Kombinationen eine völlig irrelevante Relevanz haben. Das heißt, dass es in den allermeisten Optimierungssituationen gar keine wirkliche Optimierung notwendig ist, sondern einfach das Nennen von Keywords. Daraus kann man natürlich erheblichen Hokuspokus machen und auch gigantisch Geld herausschlagen, wenn man es mit weitgehend unbedarften Kunden zu tun hat.

Tatsächlich ist aber eine große Welle eine sehr zweischneidige Sache. Es muss nur der nächste kommen, der ebenfalls die gleiche Methode anwendet und schon gibt es zwei dicke Wellen, die um die Vorherrschaft kämpfen. Und verlieren tut hier spätestens der, der nicht flexibel reagiert, also mit Inhaltsveränderungen Paroli bietet.

Ist das nicht ein Drecksjob, weil ohne Substanz?

Ist es. Weil es zu nichts führt. Außer zum Zeitschinden. Wer aber ausschließlich mit Voodoo und Zeitschinden sein Geld verdient, der macht einen schweren Job, bei dem gar nicht so sicher ist, ob er den lange machen wird.

Echter Content ist der gewünschte Humanfaktor, den eine Suchmaschine sucht.

Weil es vom mathematischen Standpunkt aus gedacht ist und damit rechnet, dass ein Herr Google sich von einer bestimmten Anzahl von Keywords, Backlinks und Alter einer Domain beeindrucken lässt, kann bisheriges Suchmaschinenoptimieren nicht mehr funktionieren. Aus dem Zeitalter sind, ebenfalls meiner Meinung nach, alle großen Suchmaschinen längst heraus oder sind zumindest dabei, sich daraus zu verabschieden.

Wenn man sich Google über Jahre hinweg anschaut, wird man erkennen können, dass man dort alles tut, der Suchmaschine „Menschlichkeit“ einzupflanzen. Das passiert meiner Meinung nach immer weniger mit dem kaum zu bewerkstelligenden Versuch, einen Algorithmus zu finden, der möglichst nahe an der Art und Weise rechnet, wie der Mensch denkt, sondern mit dem Ansatz, einfach alle Beteiligten im Web (also Anbieter und Suchender) für sich einzuspannen.

Glaubt der geneigte Leser nicht? Dann aber müsste der geneigte Leser glauben, dass Google tatsächlich nicht am „fundamentalen“ Index arbeitet, sondern viele Dinge macht und sie nicht miteinander verwebt, obwohl man alle Stränge in einer Hand hat. Glaube ich so nicht.

Für jeden, der im Web etwas tut, hat Google eine Möglichkeit, sich aus dessen Web-Arbeit das herauszunehmen, was für einen perfekten Index benötigt wird. Suchende können mit einem Google-Account kostenlose und sehr gute Collaboration-Dienste nutzen und sind im Gegenzug ständig bei Google angemeldet, damit auch bei der Nutzung der Suchmaschine. Google weiß, was wer sucht und auf welchen Ergebnislink am Ende geklickt wird. Web-Anbieter können sich Google Analytics einbinden, um genaue Statistiken ihrer Website zu erhalten, Google AdSense zum Erlösen von Werbebannereinnahmen, Google Reader zum Lesen von RSS-Feeds, Google Groups für die Nutzung des Usenet, Google Maps für Lokationsdienste, Google Mail als einfaches Postfach, YouTube zur Unterhaltung, Picasa zur Bereitstellung und Beschreibung von Bildern.

Alle diese Dienste sind zum einen angenehm für deren Nutzer, weil sie gut funktionieren, nützlich sind und darüber hinaus kostenlos, zum anderen ungemein notwendig für Google, weil Google dadurch lernen kann, wie der Mensch Information sucht, wie er sie selbst interpretiert und wie er vor allem eigene Information beschreibt, die wiederum gesucht wird. Ich habe das mal vor eine ganzen Weile in einem erheblich düsteren Unterton gebloggt („Von der so genannten Anonymität von Suchmaschinen„), sehe das aber inzwischen gar nicht mehr so. Wenn Google mir für meine menschliche Arbeitsleistung einen vernünftigen Gegenwert liefert und meine gesammelten Daten schützt, soll es mir recht sein.

Gar nicht mehr so steile These von mir: Google ist zwar eine Maschine, hat aber schon heute einen unübersehbaren Humanfaktor im Index. Und der kann zukünftig nur noch größer werden. Hochindividuelle Suchergebnisse für jeden einzelnen Suchenden können da nur das Ergebnis sein und spätestens da knallt das „klassische SEO“ dank fehlender Abfragemethodik schmerzhaft gegen den Prellbock.

Wer schreibt, der bleibt.

Die Kunst liegt darin, Content zu liefern und zwar in vielen kleinen Schritten, so wie es eben auch der Mensch in seiner Kommunikation tut. Wer auf diese Weise um ein bestimmtes Themenfeld ständigen Content bildet, bildet auf diese Weise in diesem Themenfeld nach und nach eine Autorität aus, die er ungleich schwerer wieder verlieren wird und die er auch umso stärker verteidigen kann, je länger er schon Content bildet.

Es geht also im modernen Suchmaschinenoptimieren von Websites nicht mehr darum, einfach nur die relevanten Keywords herauszusuchen, einen kopierten Metatag-Block damit zu bestücken und auf die uralte Webseite einzukleben, sondern es geht um viel mehr. Es geht darum, ob eine Website syntaktisch korrekt ist, ob sie Platz für dynamischen Content bietet, ob sie XML-Sitemaps und RSS-Feeds produzieren kann – und ob letztendlich sich auch jemand hinsetzt, Content zu schreiben.

Ich sehe deshalb das, was heute als „SEO“ bezeichnet wird, zukünftig in einer redaktionellen Arbeit. Content bilden, Content redigieren, Content „online-fähig“ machen. Aber eben echten Content, nicht einfach nur das plumpe Sammeln von Keywords im Metatag, die jeder ungebildete Affe mit schlechter Orthografie zusammengetragen bekommt.

„Was sollen wir denn regelmäßig schreiben? Wir haben doch nix!“

Wer das als Unternehmer so sagt und der Meinung ist, er könne seine Website nicht regelmäßig mit frischem Content befüllen, der macht etwas grundlegend falsch: Entweder hat er keine Lust oder Zeit, darüber zu schreiben, was tatsächlich in seinem Unternehmen passiert oder er hat ein totes Unternehmen, das tatsächlich keine Neuigkeiten produziert. Dann muss aber auch nichts mehr optimiert werden.

Es gibt de facto kein Unternehmen, das Information erzeugt bzw. erzeugen könnte. So Analogien wie „Im Gespräch bleiben“, „Wer nicht wirbt, stirbt“, „Tue gutes und rede darüber“ haben alle einen sehr tiefen Sinn in der Kommunikation und genau das liegt auch schon der Maßstab. Es muss geschrieben werden, was man tut, denn ein einfacher Telefonbucheintrag bringt nur in sehr kleinen Nischenmärkten Kundschaft und selbst da könnte es sicherlich mehr sein, wenn man sich nicht nur auf diesen Telefonbucheintrag verlässt.

Wer sich online an kommunikative Grundsätzlichkeiten hält, also in erster Linie schon mal versucht, menschlich und kommunikativ zu sein, tut den ersten Schritt und kann ab diesem Zeitpunkt nur noch gewinnen. Wir sind dann nur noch einen Schritt davon entfernt, tatsächlich loszulegen.

Technologie ist für die Kommunikation da, nicht die Kommunikation für die Technologie.

Wer das Web bereits geentert hat, ist schon mittendrin. Webhosting kostet heute selbst in einer professionellen „Enterprise-Klasse“ einen Bruchteil dessen, was eine vernünftige Broschürenauflage kostet. Dazu gibt es eine Reihe von Redaktionssystemen, die als Open Source daherkommen, also nur noch von einem Fachkundigen angepasst werden müssen. Und wer ein modernes Redaktionssystem mit einem gesonderten Neuigkeitenbereich einsetzt, dessen neue Artikel dann vielleicht netterweise auch noch in einem RSS-Feed propagiert werden, hat seine Rakete schon startklar.

Was danach kommt, ist Handarbeit und der Teil der Arbeit, den leider kaum ein Web-Dienstleister liefert: Nämlich einen Fahrplan dazu, wie man Content erzeugt, ein helfendes Händchen dafür, den ersten Content zu erstellen und später eine Beratungsdienstleistung dafür, wenn Fragen auftauchen oder Content von externer Seite erstellt werden soll. Das funktioniert.

Mein Paradepferd ist hier immer noch das Gerstelblog, das seit Ende Mai läuft und das Weblog des Autohaus Heinrich Gerstel in Pforzheim ist. Das, was ich schon nach einem Monat Gerstelblog zwischenbilanziert hatte, verfestigt sich immer weiter. Dass durch das Bloggen aber vor allem auch der Schlüsselwortraum beeinflusst wird, zeigt sehr schön das Schlüsselwort „Holzsitzbank“ bei Google, das lediglich in einem Artikel erwähnt wurde.

Selbstverständlich ist der eher exotische Begriff „Holzsitzbank“ nicht unter den hauptsächlichen Schlüsselwörtern eines Opel-Autohauses, allerdings zeigt es sehr deutlich, wie Google Relevanz einschätzt. Wenn man dann noch weiß, dass Google keine zwei Stunden nach Erscheinen des betreffenden Holzsitzbank-Artikels die Seite schon im Index hatte und nach einem Tag der Artikel auf die jetzige Position kam, kann man sich ausmalen, was hier für Möglichkeiten stecken im Gegensatz zum simplen Zusammenklopfen von Metatags.

Von der so genannten Anonymität von Suchmaschinen.

Schon immer einmal gefragt, wie eigentlich eine Suchmaschine entscheidet, welche Seite zu einem bestimmten Stichwort relevant ist und welche nicht? Du denkst, das macht die Programmlogik einer Suchmaschine? Die berühmte Blackbox mit den vielen, ultrageheimen Algorithmen?

Ich bin da inzwischen ketzerisch und sage: Eine Suchmaschine macht nur das grobe Ranking, also nur eine grobe Auswertung, welche Seite zu einem bestimmten Stichwort relevant ist und welche nicht. Die Feinarbeit machen die Logikmodule, die am ehesten verstehen und entscheiden können, um was es in einer Web-Seite geht, nämlich die Nutzer der Suchmaschine. Wie meinen?

Wer sich den Quelltext einer x-beliebigen Ergebnisseite einer Suchmaschine anschaut, wird zunächst augenscheinlich erstaunt über die Effizienz der Ergebnisseite sein: Google schafft es in drei Zeilen – von der die dritte Zeile allerdings mehrere tausend Zeichen lang ist, in der Regel mindestens 15.000 Zeichen. Vom reinen HTML-Code kommt so eine Ergebnisseite auf eine Größe von 24 bis 27 Kilobytes. Es lohnt sich jedoch allemal, sich so eine Ergebnisseite einmal näher anzuschauen und sich auch mal die Mühe zu machen, so eine Seite lokal abzuspeichern, die Zeilenumbrüche manuell einzufügen und sich das mal anzuschauen, was zwischen HTML-Tags und CSS-Definitionen noch alles dabei ist, nämlich ein gehöriges Stückchen JavaScript, der es in sich hat.

Fangen wir aber von vorne an: Du gehst auf die Startseite von Google, gibst ein Suchwort an, lässt dir die Ergebnisse anzeigen. Wenn nun der nicht ganz dumme Nutzer auf einen der zehn Linkvorschläge mit dem Mauspfeil fährt, sieht er in seinem Browser unten in der Statuszeile für gewöhnlich die Zieladresse des Linkvorschlages:

Also, denkt sich der nicht ganz so dumme Nutzer, ist das ein einfacher Hyperlink zur Zielseite, ohne jegliche Hintertüre. Ist es das? Der Quellcode des Linkes spricht eine leicht andere Sprache:

<a href="http://www.netplanet.org/adressierung/subnetting.shtml" class=l onmousedown="return clk(this.href,'','','res','6','')">netplanet - Adressierung im Internet - IP-<<em>Subnetting</em></a>

Interessant an diesem Anchor-Tag ist der zusätzliche Parameter „onmousedown“, denn dieser Parameter besagt, dass ein Browser, bei dem die JavaScript-Ausführung aktiviert ist, bei einem Klick auf den Link nicht die Zielseite anspringen soll, die im Parameter „href“ angegeben ist, sondern das tun soll, was im Parameter „onmousedown“ angegeben ist. Sprich: Das, was in der Statuszeile des Browsers angegeben ist, nämlich die Adresse der Zielseite, ist in erster Linie Maskerade, denn sie soll zwar vortäuschen, dass ein Klick auf den Link direkt zur Zielseite führt, das tut sie aber nicht.

Denn in Wirklichkeit wird mit dem onmousedown-Parameter die JavaScript-Funktion „clk“ aufgerufen, die im HTML-Head der Suchergebnisseite eingebettet ist und aus den in der Klammer beinhalteten Seiten- und Aufrufparametern einen URL erzeugt und aufruft. Und dieser sieht im Beispiel so aus. Zur besseren Übersichtlichkeit habe ich die einzelnen Parameter, die übergeben werden, untereinander geschrieben, stellt euch das als einzige, lange Zeile vor, die euer Webbrowser da im Hintergrund unbemerkt aufruft:

http://www.google.de/url?
sa=T&
source=web&
ct=res&
cd=6&
url=http%3A%2F%2Fwww.netplanet.org%2Fadressierung%2Fsubnetting.shtml&
ei=i4DrSPTpBJOa7QW98JXCDA

Interessant sind hierbei die Parameter „url“, der die Adresse der eigentlichen Zielseite enthält, der Parameter „cd“, der den Rank des Suchergebnisses enthält, und der Parameter „ei“, der eine google-interne ID darstellt, die auch auf der Suchergebnisseite verwendet wird.

Dieser gesamte URL wird dann per GET-Anfrage vom Browser abgeschickt, enthält jedoch als Ergebnis nicht etwa die Zielseite (die liegt ja logischerweise nicht bei Google), sondern einen Redirect auf die Zielseite, hierzu dient der Inhalt aus dem Parameter „url“. Der Browser schickt also seine Anfrage dann direkt an den Webserver mit der Zielseite und der Nutzer hat die Illusion, dass er mit dem Klick auf das Suchergebnis direkt dorthin gekommen wäre.

Mit diesem Aufruf rundet Google also seinen Suchabfragenablauf ab, der dann wie folgt aussieht:

  1. Nutzer geht auf die Suchmaschine, gibt ein Suchwort ein.
  2. Die Suchmaschine antwortet mit Suchergebnissen.
  3. Nutzer klickt (mit einem javascript-aktivierten) Webbrowser auf einen Link in den Suchergebnissen.
  4. Der Link führt eine JavaScript-Funktion auf, die einen URL generiert.
  5. Der Webbrowser ruft diesen generierten URL, der zum Webserver der Suchmaschine führt, mit einer GET-Anfrage auf.
  6. Der Webserver der Suchmaschine erhält die Anfrage und liefert als Ergebnis einen Redirect auf die eigentliche Zielseite.
  7. Die Suchmaschine wertet die Entscheidung des Nutzers aus.

Ergebnis für Google ist, dass sie aufgrund der google-internen ID die Suchergebnisse direkt mit dem vom Nutzer angeklickten Link verbinden können. Die Jungs wissen also nicht nur, mit welchen Suchbegriffen der Nutzer sucht, sondern auch, auf welches Ergebnis der Nutzer dann in den Suchergebnissen klickt. Und damit ist der wichtigste Teil der Kette gelegt, von der die meisten Nutzer glauben dürften, dass es sie gar nicht gibt.

So, und jetzt denken wir das mal alles gut durch und binden diesen Ansatz im Falle von Google in den gesamten Lebenslauf einer Informationsrecherche ein: Der Nutzer sucht per Google zu einem bestimmten Stichwort eine Ressource und bekommt auf der Suchergebnisseite zehn Vorschläge. Er klickt auf einen Vorschlag, Google bekommt dies mit. Gefällt dem Nutzer dieser Vorschlag, wird er höchstwahrscheinlich keinen weiteren Link mehr anklicken, die letzte Rückmeldung zu einer Anfrage ist also möglicherweise die „gute“ Antwort gewesen. Wenn das ein Nutzer macht, ist das nicht sehr aussagekräftig. Wenn es zehn Leute machen, schon eher. Wenn es Millionen Menschen machen, wird das aufregend gut.

Man kann das aber noch weiterspinnen, denn Google ist ja nicht nur die Suchmaschine, sondern Google ist ja auch Google Analytics oder Google AdSense. Der rote Ariadnefaden zieht sich so also nicht nur im Webbrowser des Nutzers, sondern auch auf den Servern von Google, die so – wenn man jetzt mal davon ausgeht, dass sie Daten miteinander verknüpfen können.

Und nun passt auch alles schlartig zusammen, wie in einem perfekten Puzzle – man muss lediglich ein paar Schritte zurücklaufen und das ganze Bild sehen: Die Inhalte, die Google indexiert, sind ihnen letztendlich schnurz, ihnen kommt es auf das Suchen an. Darum auch ein eigener Browser, der haargenau jeden einzelnen Suchschritt nach Hause sendet und vor allem den schnellsten JavaScript-Renderer weit und breit an Bord hat.

Na, geht es noch? Wir können jetzt nämlich noch ein gehöriges Stück weitergehen und tatsächlich anfangen, Google zu verstehen, warum sie nicht einfach alles nachbauen, was draußen existiert, sondern gern bestehende Erfolgsprojekte wie Blogger.com, YouTube, Keyhole (Google Earth) und wie sie alle heißen, einkaufen: Sie wollen lernen und mitschreiben, wie der Nutzer denkt, sucht und vor allem – findet.

Deshalb meine sicherlich heißen und nicht ohne weiteres fundierbaren Thesen:

  1. Moderne Suchmaschinen sind im Grunde genommen schlicht dumm. Sicherlich können Computer heute nahezu perfekt die menschliche Sprache nachahmen, Handgeschriebenes in Echtzeit fast fehlerfrei auswerten und so tun, als ob sie intelligent auf die Inputs eines Menschen reagieren würden. Sie können aber nach wie vor nur so tun.
  2. Moderne Suchmaschinen sind die eigentlichen Meister des Web 2.0, unter diesen eigentlichen Meistern ist Google der Großmeister. Sie versuchen erst gar nicht, die Inhalte vollständig selbst zu sortieren, sondern lassen das den Nutzer nebenher machen. Nicht finden ist sexy, sondern suchen.
  3. Für eine Suchmaschine ist der suchende Mensch Kunde und Lieferant zugleich. Behandle ihn zuvorkommend und verkaufe ihm das als den Way of Life, denn die Suchmaschine braucht ihn zwingend.
  4. Eine gute Suchmaschine muss Medienbrüche tun, muss tatsächlich auch für Medieninhalte verfügbar sein, für Mails, für Musik, Bilder und Videos auch für gedruckte und umständlich eingescannte Bücher, für abfotografierte Straßen, für wissenschaftliche Arbeiten, für Inhalte jeglicher Art, die Menschen suchen. Denn nur von denen, die suchen, wird gelernt.
  5. Google lässt nahezu stoisch immer verlautbaren, dass sie zwar zwangsläufig Daten sammeln, aber nicht daran interessiert sind, die Privatsphäre des Nutzers zu beeinträchtigen. Möglicherweise kann man ihnen diesen Satz sogar abnehmen, da sie, nach meiner Theorie, tatsächlich gar nicht unbedingt am „Big Picture“ Interesse haben, sondern am eher kurzen Leben einer Informationsrecherche, von Anfang bis Ende.

Und da wir gerade bei den Momenten der ketzerischen Thesen sind, fällt mir zu diesem Thema spontan ein Satz von Morpheus aus dem Film „The Matrix“ ein, für den ich jahrelang eine passende Bedeutung gesucht und nun wohl auch gefunden habe:

„In uns haben die Maschinen eine Energiequelle gefunden, die ihren Bedarf mehr als deckt. Sie haben Felder angelegt, Neo, endlose Felder. Menschen werden nicht länger geboren, wir werden gezüchtet. Ich habe lange Zeit nicht daran geglaubt, bis ich die Felder mit meinen eigenen Augen gesehen habe. [Ich sah, wie sie die Toten in Flüssigkeit auflösen und damit die Lebenden intravenös ernähren.] Und als ich dastand und die erschreckende Präzision sah, wurde mir die Wahrheit schlagartig bewusst: Was ist die Matrix? Kontrolle. Die Matrix ist eine computergenerierte Traumwelt, die geschaffen wurde, um uns unter Kontrolle zu halten. Für sie sind wir nicht viel mehr, als das:


Der Ausgang aus der Matrix ist umfassend, möglicherweise etwas unkomfortabel, aber dafür kinderleicht umzusetzen: JavaScript im Webbrowser deaktivieren.