Star Wars per DNS.

Das Intro des allerersten Star-Wars-Film – in der inzwischen mehr als verkorksten Folgenflut des ausgelutschten Franchise die Folge 4 – hat Kultstatus. In einem leinwandbreiten Rolltext wird die Geschichte eingeleitet, umrahmt vom Star-Wars-Sound in ohrenbetäubender Lautstärke. Die Einblendung dieses oder ähnlich gelagerter Texte hat schon popart-artige Züge angenommen und man kann sich auch heute noch sehr viele Freunde machen, wenn man diesen Text an unerwarteten Orten platziert. Zum Beispiel im DNS.

Wer in einer Shell oder einer DOS-Box (unter Windows die „Eingabeaufforderung“ bzw. cmd.exe) auf eine bestimmte IP-Adresse im Internet traceroutet, erhält einen erstaunlichen Auszug:

C:\Users\besim>tracert -h 60 216.81.59.173

Routenverfolgung zu FIN [216.81.59.173] über maximal 30 Abschnitte:

1 3 ms 3 ms 3 ms besimbox [192.168.221.1]
2 32 ms 26 ms 24 ms 217.0.118.47
3 13 ms 17 ms 11 ms 87.186.241.38
4 17 ms 13 ms 13 ms f-ed5-i.F.DE.NET.DTAG.DE [217.5.95.2]
5 13 ms 14 ms 12 ms 62.157.249.50
6 120 ms 153 ms 132 ms xe-0-0-0.atl11.ip4.tinet.net [89.149.183.141]
7 122 ms 121 ms 120 ms epik-networks-gw.ip4.tinet.net [77.67.69.158]
8 120 ms 121 ms 120 ms po0-3.dsr2.atl.epikip.net [216.81.59.2]
9 * * * Zeitüberschreitung der Anforderung.
10 156 ms 160 ms 158 ms Episode.IV [206.214.251.1]
11 162 ms 162 ms 156 ms A.NEW.HOPE [206.214.251.6]
12 159 ms 159 ms 159 ms It.is.a.period.of.civil.war [206.214.251.9]
13 156 ms 158 ms 157 ms Rebel.spaceships [206.214.251.14]
14 156 ms 157 ms 157 ms striking.from.a.hidden.base [206.214.251.17]
15 164 ms 159 ms 159 ms have.won.their.first.victory [206.214.251.22]
16 159 ms 159 ms 159 ms against.the.evil.Galactic.Empire [206.214.251.25]
17 163 ms 161 ms 158 ms During.the.battle [206.214.251.30]
18 163 ms 159 ms 161 ms Rebel.spies.managed [206.214.251.33]
19 158 ms 156 ms 154 ms to.steal.secret.plans [206.214.251.38]
20 167 ms 160 ms 157 ms to.the.Empires.ultimate.weapon [206.214.251.41]
21 164 ms 158 ms 163 ms the.DEATH.STAR [206.214.251.46]
22 158 ms 159 ms 172 ms an.armored.space.station [206.214.251.49]
23 158 ms 165 ms 172 ms with.enough.power.to [206.214.251.54]
24 162 ms 159 ms 160 ms destroy.an.entire.planet [206.214.251.57]
25 161 ms 158 ms 162 ms Pursued.by.the.Empires [206.214.251.62]
26 158 ms 159 ms 160 ms sinister.agents [206.214.251.65]
27 159 ms 157 ms 156 ms Princess.Leia.races.home [206.214.251.70]
28 161 ms 157 ms 159 ms aboard.her.starship [206.214.251.73]
29 158 ms 162 ms 156 ms custodian.of.the.stolen.plans [206.214.251.78]
30 160 ms 156 ms 160 ms that.can.save.her [206.214.251.81]
31 161 ms 160 ms 159 ms people.and.restore [206.214.251.86]
32 154 ms 165 ms 156 ms freedom.to.the.galaxy [206.214.251.89]
33 157 ms 157 ms 155 ms 0-------------------0 [206.214.251.94]
34 162 ms 159 ms 161 ms 0------------------0 [206.214.251.97]
35 156 ms 158 ms 158 ms 0-----------------0 [206.214.251.102]
36 160 ms 157 ms 162 ms 0----------------0 [206.214.251.105]
37 164 ms 161 ms 158 ms 0---------------0 [206.214.251.110]
38 184 ms 176 ms 175 ms 0--------------0 [206.214.251.113]
39 183 ms 192 ms 179 ms 0-------------0 [206.214.251.118]
40 174 ms 171 ms 177 ms 0------------0 [206.214.251.121]
41 181 ms 178 ms 187 ms 0-----------0 [206.214.251.126]
42 175 ms 180 ms 182 ms 0----------0 [206.214.251.129]
43 178 ms 191 ms 177 ms 0---------0 [206.214.251.134]
44 174 ms 179 ms 185 ms 0--------0 [206.214.251.137]
45 189 ms 179 ms 179 ms 0-------0 [206.214.251.142]
46 180 ms 169 ms 182 ms 0------0 [206.214.251.145]
47 176 ms 181 ms 188 ms 0-----0 [206.214.251.150]
48 158 ms 160 ms 167 ms 0----0 [206.214.251.153]
49 160 ms 162 ms 163 ms 0---0 [206.214.251.158]
50 162 ms 160 ms 159 ms 0--0 [206.214.251.161]
51 162 ms 161 ms 164 ms 0-0 [206.214.251.166]
52 163 ms 162 ms 156 ms 00 [206.214.251.169]
53 159 ms 160 ms 158 ms I [206.214.251.174]
54 161 ms 161 ms 164 ms By.Ryan.Werber [206.214.251.177]
55 163 ms 160 ms 162 ms When.CCIEs.Get.Bored [206.214.251.182]
56 160 ms 164 ms 163 ms read.more.at.beaglenetworks.net [206.214.251.185]
57 158 ms 162 ms 165 ms FIN [216.81.59.173]

Ablaufverfolgung beendet.

Da hat sich doch tatsächlich jemand die Mühen gemacht, die IP-Adresse 216.81.59.173 über eine ganze Reihe von Rechnern bzw. Netzwerkschnittstellen zu routen und jede IP-Adresse hat einen Schnipsel der Geschichte als Hostnamen bekommen. Wer dann einen vollständigen Traceroute auf die obige IP-Adresse durchführt, bekommt sie zeilenweise bzw. hop-weise angezeigt. Niedlich. 🙂

Wer sich mit dem Thema Domain Name System näher beschäftigt, könnte hier auf eine sehr naheliegende Frage kommen: Wie hat der Mensch, der dies gemacht, denn das DNS so umgebogen, dass er Hostnamen verwenden konnte, die es so im DNS gar nicht geben kann? Denn trotz der Bemühungen für neue Top-Level-Domains gibt es aktuell keine Top-Level-Domain beispielsweise namens „.starship“ und ist auch aktuell nicht geplant. So ein nslookup-Ergebnis ist daher zumindest einmal paradox:

C:\Users\besim>nslookup 206.214.251.73
Server: besimbox
Address: 192.168.221.1

Name: aboard.her.starship
Address: 206.214.251.73

Die Lösung ist relativ einfach: Im Falle von Traceroute wird rückwärtsaufgelöst (Reverse-DNS). Normalerweise wird im DNS ja „vorwärtsaufgelöst“: Man hat einen Hostnamen, möchte mit dem Zielrechner Kontakt aufnehmen und im DNS wird dazu dann die IP-Adresse des Zielrechners ermittelt. Die Rückwärtsauflösung läuft genau andersherum: Wir haben die IP-Adresse und wollen herausbekommen, welcher Hostnamen dahintersteckt.

Die Abfragestruktur ist dabei ähnlich, nur dass die Informationen für die Rückwärtsauflösung nicht bei den Registrierungsstellen für Top-Level-Domains stehen, sondern auf Nameservern der Provider, die damit ihre IP-Adressblöcke benennen können. Was man hier hinterlegt, sollte mit der Vorwärtsauflösung zwar stimmen, tut es aber in vielen Fällen nicht. Wenn zum Beispiel ein Webhoster auf einer IP-Adresse auf einem Server mehrere tausend Webkunden betreut, zeigen sehr viele Hostadressen auf eine IP-Adresse, umgekehrt ist aber im Reverse-DNS regelgerecht nur ein Hostname hinterlegt.

Den Spaß kann man natürlich, wie in diesem Fall, auch einfach mal komplett umdefinieren und Hostnamen für IP-Adressen hinterlegen, die es gar nicht gibt. Ordentliche Provider werden solche Späße aus „Hygienegründen“ nicht zulassen, aber sei’s drum. 🙂

Das Dilemma mit dem korrekten definiten Artikel des Begriffes „Blog“.

Beim Konzeptionieren eines Kundenblogs habe ich vor drei Jahren explizit den definiten Artikel zum Wort „Blog“ im Namen des Weblogs eingesetzt. So hieß das Weblog des Autohaus Gerstel eben nicht „Gerstelblog“, sondern „Das Gerstelblog„. Das hatte vor allem seine Gründe im Branding des Blogs. Ein Corporate Weblog (also ein ein Weblog eines Unternehmens) hatte damals und hat auch heute noch einen Seltenheitswert und da es darüber hinaus wichtig war, das Weblog auch schnell und vor allem markant zu bewerben, gab es eben den definiten Artikel davor.

Im Guideline des Blogs (ja, sowas gibt es tatsächlich) gab es dazu auch einige Hinweise dazu, wann der definite Artikel im Namen einzusetzen war und wann nicht. Kurzum: Es hat eigentlich immer „Das Gerstelblog“ zu heißen, außer wenn der vollständige Einsatz des Namens grammatikalisch zu unsinnigen Konstruktionen führt. Also wenn es z.B. heißen soll: „Die Funktion des Gerstelblog ist funktional“, dann hat der eigentlich im Genus geschriebene Artikel wegzubleiben, weil hier der Artikel im Kasus daherkommt. Brandbuilding hin oder her.

Und dann kam die Diskussion über den richtigen definiten Artikel des Begriffes „Weblog“.

Bei allen Begrifflichkeiten, die aus der englischen Sprache kommen und ins Deutsche importiert werden, stellt sich früher oder später die Frage des „Geschlechts“. Ist es nun „das“, „der“ oder gar „die“ Blog? Mit diesen Diskussionen beschäftige ich mich schon seit einer halben Ewigkeit, denn schon beim allerersten Artikel, den ich 1997 drüben in netplanet verfasst habe und in dem es über die E-Mail ging, kam diese Fragestellung gleich mehrfach auf.

Im Schnelldurchlauf: Bei unklarem Geschlecht arbeitet man sich bedacht anhand der Übersetzung vor. Die „E-Mail“ muss auch im Deutschen „E-Mail“ heißen, weil die Begrifflichkeit auch in der deutschen Sprache so übernommen wurde. Die gängigsten Übersetzungen für „Mail“ sind „Nachricht“ oder „Post“, beides feminim und damit empfiehlt sich der feminine Artikel auch für den Begriff „Mail“ – es ist „die“ Mail.

Bei „Blog“ wird es differenzierter, weil „Blog“ ein Kunstwort aus dem Kunstwort „Weblog“ ist. Noch weiter aufgedröselt besteht das Wort „Weblog“ aus dem Web und dem Log, beides Wörter, die neutral sind. Bei Wortkombinationen gilt die Regel, dass der letzte Wortbestandteil entscheidet, welches Geschlecht das Wort hat. Eigentlich ist es daher beim Begriff „Weblog“ verhältnismäßig extrem einfach, denn das Log (ein frühes Gerät zur Geschwindigkeitsmessung auf Segelschiffen) ist, wie schon gesagt, maskulin, eine deutsche Übersetzung wäre es demnach naheliegenderweise auch.

Und dann kommt bei solchen Diskussionen immer noch die gesellschaftliche Akzeptanz.

Ein Beispiel hierfür: Die URL. „URL“ steht für „Uniform Resource Locator“. Das ist schon in der englischen Sprache ein Wortungetüm mit fast schon künstlerischem Wert, erfunden von einem Wissenschaftler namens Tim Berners-Lee im Rahmen seines Web-Projekts. „Locator“ übersetzt man in dem Zusammenhang am ehesten mit „Beschreiber“. „Beschreiber“ ist ein Verbalsubstantiv des Begriffes „schreiben“ und Verbalsubstantive sind für gewöhnlich maskulin (könnten aber theoretisch mit der Suffix „-in“ auch feminim eingesetzt werden).

Wie auch immer: Die URL ist eigentlich am saubersten „der URL“. Und nur weil es einst keine Klarheit darüber gab, welches Geschlecht man der Abkürzung „URL“ bzw. der Übersetzung der englischen Wortgruppe geben sollte, entwickelte die Sprech der Gesellschaft ihre eigene Interpretation und definierte „die“ URL. Wohl auch deshalb, weil URL fälschlicherweise als „Internet-Adresse“ angesehen werden. Das ist leider sehr falsch, weil URL eigentlich noch viel mehr beinhaltet, als eine einfache Adresse im Sinne von „wo geht’s hin“.

Alles Sonderfälle, die es vor allem auch deshalb andauernd gibt, weil sich moderner Slang immer schneller bildet. Der Begriff „URL“ zum Beispiel ist gerade einmal 20 Jahre alt, im populären Wortschatz maximal 15 Jahre. Das Internet hat uns in kürzester Zeit eine Flut von Wörtern beschert, von denen nur die allerwenigsten den Luxus haben, dass man sich bei ihrem Einsatz in der deutschen Sprache beim Einsatz des passenden Artikels absolut sicher sein kann.

„Das“ Blog auf dem Weg zur Geschlechterumwandlung

„Das“ Blog geht seit einigen Jahren fast denselben Weg, wie einst „der“ URL. Nämlich in die Geschlechterumwandlung. Zwar nicht ganz so schlimm wie eben beim URL, der mal eben so vom Männchen zum Weibchen gemacht wird, sondern „nur“ vom Neutrum ins Maskulinum. Da hat man noch Glück im Unglück, denn z.B. im Genitiv-Singular ist der Artikel für maskuline und neutrale Artikel derselbe („des Autos“, „des Fahrers“).

Auch aus diesem Grund tun sich die „Götter“ schwer. Die Duden-Redaktion verweist bei diesem Thema zwar auf „das“, schreibt aber zusätzlich „auch der“ dazu. Das Neutrum ist also eigentlich korrekt, aber man kann es auch maskulin nehmen. Und so eine schwammige Ansage ausgerechnet vom Duden …

Im Populärwortschatz scheint das Maskulinum zu gewinnen. Schon heute kennt Google mit dem Begriff „der blog“ über 2,5 Millionen Seiten, mit „das blog“ nur 1,9 Millionen. Beim Suchtrend, visualisierbar bei Google Trends, scheint die neutrale Variante noch zu führen, allerdings kommt da die Kurve von oben runter. Das schaut nicht sehr gut aus.

Wie geht es weiter?

Im Falle von netplanet und bestehenden Einsätzen gilt bei mir folgendes:

  • Der Duden ist bei mir das sprachliche Maß der Dinge.
  • Schreibt der Duden „das, seltener auch der“ zu einem Wort, dann ist „das“ das Maß der Dinge.
  • Schreibt der Duden irgendwann mal stattdessen „der, seltener auch das“ (also umgekehrt), dann werden neue Worteinsätze mit der neuen Schreibweise geführt, bestehende Formulierungen bleiben.

Ausnahmen bestätigen bei solchen Sachen allerdings immer die Regel. Möchte der Kunde „der Blog“, wird es eben „der Blog“. Und genau hier ist eigentlich immer noch das Dilemma zu Hause.

Heuschrecken-Methoden zum CD-Kauf.

Für den Aufbau von Musiksammlungen mit vornehmlich alten Alben empfiehlt sich der Marketplace eines großen Online-Händlers mit dem beginnenden Buchstaben „A“, also der Gebrauchtwarenmarkt des Anbieters. Auf den kommt man, wenn man bei Angeboten rechts in der kleinen Box „Alle Angebote“ auf die alternativen Angebote schaut. Hier gibt es für hinreichend gut gelaufenen Alben teilweise Angebote von läppischen 1 Cent, auf die dann nur noch 3 Euro Bearbeitungspauschale aufzuaddieren sind und schon hat man ein gebrauchtes, vielleicht lange gesuchtes Album, meist immer noch deutlich günstiger, als wenn man sich das Album als Download bei irgendeinem Online-Musikhändler kauft.

Robotik als Geschäftskiller.

Früher einmal war der Marketplace auch eine Supersache, wenn es darum ging, die eigene CD-Sammlung zu versilbern. Im Marketplace – jetzt heißt es „Sellers Central“ – einfach den Barcode der CD eingeben, den Zustand der CD, Hülle und Booklet beschreiben, einen Preis festlegen und einstellen. Ein deutlich günstigerer Preis als der Originalpreis und ein möglichst günstigerer Preis als alle anderen Verkaufswettbewerber für das jeweilige Album und schon konnte man nach kurzer Zeit sein CD-Album loswerden.

Dass man als Privatmensch auf diese Weise seine CD-Sammlung vernünftig loswerden konnte, ist inzwischen Geschichte. Denn wer sich die Mühen macht, ein paar Medien in Sellers Central einzustellen und vielleicht darauf zielt, das Angebot dadurch attraktiv zu machen, in dem man einfach den günstigsten Verkaufspreis von allen wählt, wundert sich oft schon nach wenigen Minuten darüber, dass man unterboten wird. Und zwar zu jeder Tageszeit und auch immer gleich bei einer ganzen Reihe von Angeboten, wenn nicht sogar bei allen.

Den Verkaufskampf, den man da führt, ist ein sehr ungleicher und praktisch nicht zu gewinnen, denn hier spielt man als Mensch gegen einen Computer. Die großen Verkäufer im Marketplace, die es schon längst gibt, beherrschen den Gebrauchtwarenmarkt in den drei wichtigsten Segmenten Musik, Video/DVD/Bluray und Büchern durchweg und diktieren hier die Preise. Und zwar ständig. Stellt also jemand z.B. eine gebrauchte CD ein, für das ein Anbieter bereits das günstigste Angebot hat, wird das von seinem System registriert und flux darauf wird das Angebot so angepasst, dass es 1 Cent billiger ist. Und wer sich dann die Mühen macht, sein eigenes Angebot wieder zum billigsten Angebot zu machen, erlebt das Phänomen nach wenigen Minuten schon wieder und wieder und wieder.

Das funktioniert bei einigen Produkten bis zu einer gewissen Verkaufsschwelle, die wohl bei den großen Verkäufern als Verkaufsuntergrenze hinterlegt ist. Bei Musik-CDs geht es aber in der Regel runter bis zum buchstäblich letzten Cent, so dass der gelegentlich direkte Verkauf im Marketplace für Massenware noch nicht mal mehr rentabel ist. Es funktioniert einfach nicht mehr, weil man es kaum noch schafft, sein eigenes Verkaufsangebot als das günstigste Angebot positionieren zu können.

Lernen von den großen Gaunern.

Zugegeben, eine offensive Absatzüberschrift, aber moderner Finanzhandel ist mitunter ein Gaunergeschäft. Und von Gaunern lässt sich vortrefflich lernen, wo es sträflich große Löcher in Denkmodellen gibt.

Vorweg: Die folgende Vorgehensweise ist laut den Marketplace-Bestimmungen beim implizierten Anbieter und bei allen anderen Verkaufsplattformen, die ich kenne, nicht erlaubt und versteht sich als theoretisches Denkmodell. Ich habe gewarnt …

Hat man es auf einer Verkaufsplattform als menschlicher Verkäufer mit einem Wettbewerber zu tun, der ein Roboter ist, hat man keine Chance. Wohl aber als Käufer, der sich als Verkäufer tarnt und die Preise manipuliert. Das Geheimnis dazu nennt sich Leerverkauf. Also so wie bei den großen Finanzjongleuren. Im Prinzip geht es darum, für ein bestimmtes Produkt ein fingiertes Angebot einzustellen, das zum Zeitpunkt des Angebotsstarts nicht existent ist.

Also, Beispiel:

  • Eine CD kostet neu 30 Euro, es existiert ein Angebot einer gebrauchten CD im Marketplace für 25 Euro. Du hättest diese CD gern, der Neupreis und auch der Preis für die gebrauchte CD ist dir aber zu teuer.
  • Also stellst du in Sellers Central ein fingiertes Angebot für genau diese CD ein, mit dem Verkaufspreis 20 Euro.
  • Ist dein Wettbewerber ein Roboter, wird er sich höchstwahrscheinlich auf dein Angebot stürzen und es unterbieten. Das Spiel kannst du nun entweder eine Weile weiterbetreiben oder …
  • … zuschlagen und das Angebot des Wettbewerbers, dessen Preis du heruntermanipuliert hast, dann letztendlich kaufen und dein eigenes, fingiertes Angebot daraufhin wieder löschen.

Das Modell hat natürlich ein paar Haken, aber auch hier liefern Finanzjongleure die passenden Strategien:

  • Natürlich schaut man zu, dass man für die Identität des fingierten Verkäufers eine andere verwendet, als für die Identität des Käufers. Gängige Verkaufsplattformen sind so „intelligent“, zu bemerken, dass ein Benutzer da möglicherweise versucht, eine gleiche Ware gleichzeitig verkaufen und kaufen zu wollen.
  • Man arbeitet immer mit dem Risiko, dass jemand dazwischenfunkt und ein Dritter das Angebot des Wettbewerbers oder – und das ist dann wirklich dumm – das eigene (ja nicht vorhandene) Angebot kauft. Das passiert auch Finanzjongleuren, die sich verrechnen und zum Beispiel Optionsscheine im Leerverkauf handeln und sie bis zum Fälligkeitsdatum des Optionsscheines halten, weil vielleicht noch kurzfristig Profit hereingeholt werden könnte. Ist die Deadline um, zahlt der Finanzjongleur die Zeche und muss für die Ware sorgen und hat noch nicht mal etwas davon, weil er sie gleich wieder durchreichen muss.

Und sicherheitshalber nochmal: Das ist alles bei den gängigen Verkaufsplattformen nicht erlaubt, es darf nichts verkauft werden, was der Verkäufer zum Zeitpunkt des Anbietens nicht besitzt. Und da zudem die Provision des Plattformanbieters am Verkaufspreis gekoppelt ist, schadet man bei Preismanipulationen auch den Betreiber der Handelsplattform. Das ist zwar – auch hier gibt es die Analogie zum gewieften Finanzjongleur – nur dann wirklich beweisbar, wenn es sich um einen besonders deppischen Jongleur handelt, aber es ist nun einmal nicht erlaubt.

Rückblick auf das CarCamp Mannheim.

Am Freitag, 12. Oktober 2012 fand in Mannheim das erste CarCamp statt, ein Barcamp für die Automobilwirtschaft, organisiert vom Deutschen Kraftfahrzeuggewerbe und hauptgesponsert von einem Unternehmen namens Fuchs Schmierstoffe, dessen Hauptsitz in Mannheim ist. Da ich kundenbedingt mit der Automobilwirtschaft zu tun habe und zwar direkt an der Basis mit einem Autohaus und dessen Blog, war es nur eine kurze Überlegung, ob ich daran teilnehme oder nicht. Muss.

Und auch wenn ich in Sachen Barcamps sicher nicht unzufrieden bin, wenn es die x-te Auflage ist und eine gewisse Routine daherkommt – das CarCamp war es wert und hat einen spüren lassen, wie es in der Anfangszeit der BarCamp-Szene gewesen sein muss. Professionelle Organisation durch Claudia Weiler vom Kraftfahrzeuggewerbe, ein engagierter Hauptsponsor, der sehr schöne Konferenzräume zur Verfügung stellte, ein Ansprechpartner des Sponsors, der freimütig zugab, dass er eigentlich gar nicht so richtig weiß, was ein Barcamp ist, aber sehr gespannt darauf ist und etwas über 40 Teilnehmer, die zu einem großen Teil „barcamp-unverdächtig“ sind und durchweg nur sehr wenig Zeit dazu hatten, sich über eine „Unkonferenz“ zu wundern. Demzufolge war auch das Sessionpanel am Ende zu 80 % gefüllt, was für ein erstmalig organisiertes Themen-Barcamp gar nicht so schlecht ist.

„Facebook – Freunde werden, Freunde bleiben“ von Thorsten Bastian

Dieses Panel von Thorsten Bastian beschäftigte sich vor allem damit, wie man die Fans einer Facebook-Seite am Ball hält und dafür sorgt, dass mit regelmäßigen Nachrichten und Inhalten der gewünschte Dialog zwischen Unternehmen und Fan entsteht. Das meiste im Vortrag war jetzt zwar nicht völlig neu für mich, allerdings schätze ich bei diesem Thema sehr den Erfahrungsaustausch und die Sicht Anderer. Da Thorstens Agentur Basta Media auch sehr große Facebook-Seiten anderer Unternehmen betreut, ist seine Sicht sicherlich nicht die falscheste.

„Online Marketing“ von Marcus Kaluschke

Marcus‘ Session war echte Standup-Comedy und das sind die Sessions, die ich auf Barcamps so sehr mag. Es wird zu Beginn am Pinboard zu Sessions aufgerufen und es melden sich dann Teilnehmer, die womöglich gar nicht vorhatten, eine Session abzuhalten, starten ihre Session dann einfach mal und so entstehen Sessions, die unglaublich hochkonzentriert sind, weil man von Anfang an den Kopf anstrengen und sich nicht an eine Powerpoint-Foliensammlung festhalten kann.

So eben auch oder gerade hier: Marcus hat als Head des Online-Marketings der webauto.de GmbH einen flotten, gewaltigen und kompetenten Überflug über das Thema SEO und SEM auf’s Panel gelegt, von dem man sich dann die Informationen herauspicken konnte, die man eben hat. Für Anfänger sind solche Veranstaltungen nicht ganz einfach (ich spreche aus Erfahrung), aber es gibt nun mal auf Barcamps verschiedene Ansprüche an entsprechendem Vorwissen. Kann man nicht ändern. Will man allerdings auch nicht wirklich, sonst ist es keine Unkonferenz mehr.

Mittagessen

Auch hier ein Volltreffer, nämlich Fingerfood, powered by Fuchs Schmierstoffe (und nicht schmierig!). 😉

„Location Based Services“ von mir

Auch diese Session von mir war als Standup-Comedy gedacht und ich habe mir dazu sogar noch schön artig einige Notizen in der letzten Session und in der Mittagspause gemacht. Diesen Flugplan für den gar nicht so unschönen Überflug über die Welt der Location Based Services hätte ich mir allerdings auch sparen können, weil wir diese Session genau zu zweit abgehalten haben. Dafür war aber auch diese Session wieder so eine Session, wie ich sie liebe, denn mit Thorsten Podlech entwickelte sich diese Session zu einer ziemlich interessanten „Frage-und-Antwort-Stunde“ zu vielen Social-Media-Themen und besonders spannend fand ich dabei, wie Thorsten als Geschäftsführer eines Autohauses seine Mitarbeiter dazu bewegen will, am gemeinsamen Facebook-Auftritt des Unternehmens mitzuarbeiten und diese Ideen führten Thorsten dazu, einfach auch eine Session abzuhalten …

„Einladung der Mitarbeiter in die Social-Media-Aktivitäten des Unternehmens“ von Thorsten Podlech

Diese Session wurde dann explorativ – eine echte Forschungs-Session. Die Einführung zur Thematik war schon sehr spannend, denn Thorsten macht in seinem Unternehmen das, wovon viele Berater mit Tränen in den Augen nur träumen können – das Unternehmen fit machen für Social Media und letztendlich für echte Online-Kommunikation. Er motiviert seine Mitarbeiter aktiv, über das Unternehmen in Facebook zu schreiben und stellte die Frage in den Raum, wie man diese Motivation weiter steigern könne.

Das führte dann zum erarbeiteten Ergebnis, dass dies am ehesten und nachhaltigsten gelingen könnte, wenn die Wertschätzung des Unternehmens direkt und sofort erfolgt, also z.B. durch das Teilen einer unternehmensspezifischen Nachricht eines Mitarbeiters direkt auf der Facebook-Seite des Unternehmens. Oder durch die Ausgabe von Smartphones zur dienstlichen Facebook-Nutzung. Oder einfach auch die direkte Mitarbeit an der Facebook-Seite und entsprechend zeitlichem Freiraum vom normalen Tagesgeschäft.

„Königsklasse Bloggen“ von mir

Das war eigentlich meine vorbereitete Session, zu der die darunterliegende Powerpoint-Präsentation in dem Kundenblog zu finden ist, das auch Hauptdarsteller der Präsentation war. Zum Thema Corporate Blogging muss ich nicht viel sagen, dazu gibt es in diesem Blog genügend Argumentationshilfen. Die von mir dargestellten Hauptargumente sind die, dass ein Corporate Blog auch einem kleinen Unternehmen eine nicht zu unterschätzende Bedeutung im Web geben kann und es im Spannungsfeld zwischen großen Herstellern und Vertretern einen Raum gibt. Autohäuser stecken in diesem Dilemma am stärksten und noch viel zu stark ist das Autohausmarketing zu sehr auf Print- und Lokalmedien fixiert. Eine Online-Strategie lässt sich daher vortrefflich und vor allem kostengünstig mit einem Corporate Blog starten.

Interessant fand ich, dass ich in meiner Session quasi nahtlos in die obigen Sessions von Marcus und Thorsten verweisen konnte. Das ist dann echtes Barcamping, wenn sich Meinungen und Inhalte irgendwo kreuzen und noch greifbarer werden.

Fazit: Phantastisch!

Auf die abschließende Frage von Claudia Weiler, ob das CarCamp gelungen war, gab es durchweg nur eine Antwort: Ja. Die Mischung hat es in allen Bereichen ausgemacht: Traditionelle Sponsoren und Organisatoren probieren sich erfolgreich mit einer Unkonferenz, viele Teilnehmer hatten noch nie ein Barcamp besucht und landeten (meiner Meinung nach) weich in der Materie, von der man nur profitieren kann und der Inhalt dieses sehr speziell im Autohausmarketing positionierten Barcamps war hochkarätig und vor allem wie von magischer Hand gesteuert session-übergreifend stimmig. So muss es laufen.

Leider hatte ich keine Zeit, an eine der zwei Unternehmensführungen durch die Fuchs Schmierstoffe GmbH teilzunehmen. Aber auch das fand ich sehr wegweisend: Der Hauptsponsor legt nicht einfach nur die üblichen Prospekte aus, sondern zeigt sein Unternehmen einfach mal und zwar sehr direkt und sehr authentisch.

Seltsames auf dem Webserver.

Eigentlich sind wir von einem Webserver und der darauf stationierten Website eines Kunden folgende Besucherdimensionen gewohnt. Ein wunderbar gezeichnetes, EKG-artiges Diagramm – zumindest bis auf die letzten beiden Tage:

Eine fast verdreifachte Besucherzahl ist selbst für einen Montag eine höchst seltsame Geschichte. Es wurde bei näherer Analyse aber noch viel merkwürdiger. Denn rund 600 Besuche (und damit ziemlich genau das, was an diesem Montag zusätzlich als Besucher kam) waren nahezu identisch: Sie kamen von einem MacOS-Rechner und einem dort installierten Firefox 3.6 und jeder Aufruf bestand aus dem Abruf einer einzigen Seite. Und das dann auch ziemlich genau im 30-Sekunden-Takt, den halben Tag lang. Gut, denke ich, das wird wohl ein Rechner sein, auf dem ein Firefox etwas Amok läuft, beispielsweise mit einem Addon zum automatischen Refresh einer aufgerufenen Seite.

Was allerdings merkwürdig war, war der Absender: Es war nämlich nicht eine einzige IP-Adresse, sondern tatsächlich genau so viele IP-Adressen, wie zusätzliche Aufrufe, also über 600 verschiedene IP-Adressen. Und, damit nicht genug: Alle diese IP-Adressen stammen aus dem IP-Adresspool von Alice/Telefonica.

Kurzum: Wir haben das Rätsels Lösung nicht gefunden. Ich vermute jedoch, dass da eine Firefox-Installation Und/oder der MacOS-Rechner und/oder der DSL-Anschluss Amok läuft und der Rechner ziemlich genau alle 30 Sekunden einen Seitenabruf über eine PPPoE-Verbindung initiiert, die jedes Mal neu verbunden wird.

Was kann man dagegen tun? Sehr gute Frage – eigentlich nichts sinnvolles. Einzelne IP-Adressen sperren, macht keinen Sinn, dazu sind es schlicht zu viele und dazu gibt es auch noch keine Systematik, schließlich kommen die IP-Adressen aus einem riesigen IP-Adresspool. Übrig bliebe nur auf dem Webserver die Sperrung des gesamten, betroffenen IP-Adressblocks, das wäre jedoch unverhältnismäßig gewesen. Einzig eine Beschwerde an den ISP wäre naheliegend, wenn auch sehr aufwendig. Bis der ISP das Problem gelöst bekommt …

Wir hatten Glück, das Problem verschwand Dienstagmittag genauso schnell, wie es gekommen war. Dienstagvormittag fing es zwar wieder an, irgendwann hörte es dann aber von allein wieder auf.

Post vom Pentagon.

Als jemand, der schon sehr lange seine E-Mail-Adresse besitzt – nun immerhin 15 Jahre – habe ich schon immer mit viel Spam zu kämpfen gehabt. In der Zwischenzeit übernimmt das der Mailfilter meines Providers und das macht er erstaunlich gut und zuverlässig, obwohl ich mitunter auch recht exotischen Spam bekomme, beispielsweise seit Jahren aus Brasilien.

Seit einigen Wochen habe ich auch wieder einmal den Hauptpreis in der Spam-Szene gewonnen: Ein Spammer verwendet für seinen Müll meine E-Mail-Adresse als Absender. Das machen diese hosenscheißenden Kastraten ja grundsätzlich immer, um nicht selbst von den Rückläufern und Unzustellbarkeitsnachrichten beworfen zu werden und genau diese Unzustellbarkeitsnachrichten sind das eigentliche Übel der E-Mail-Welt.

Eigentlich waren und sind Unzustellbarkeitsnachrichten gut, denn sie weisen den Absender darauf hin, dass er beispielsweise eine E-Mail-Adresse angegeben hat, die auf dem Zielserver beispielsweise nicht vorhanden sind. Das ist im Zeitalter der Freemailer zwar nicht mehr sonderlich informativ, weil es zehntausende von Herr Müller geben wird, die ähnlichlautende E-Mail-Adressen haben, aber immerhin. Man hat es ja einst gut gemeint.

Wer es immer wieder nicht gut meint, sind Administratoren von Mailservern, die nicht begriffen haben, dass man zwar gern Unzustellbarkeitsnachrichten versenden darf, aber bitteschön keinesfalls und niemals auf offensichtlichen und höchstwahrscheinlich auch erkannten Spam. Denn die Absenderangaben bei Spam stimmen meist eh nicht und wenn dem angegebenen Absender dann tausendfach Unzustellbarkeitsnachrichten aus aller Welt erreichen, dann nervt das.

Das haben in der Zwischenzeit auch überwältigend viele Administratoren begriffen. Allerdings noch nicht alle. Dazu gehören offensichtlich auch die Administratoren des Pentagon, dem US-amerikanischen Verteidigungsministeriums. Von deren Mailserver habe ich nämlich heute eine Unzustellbarkeitsnachricht erhalten:

Das wirklich spannende an dieser Unzustellbarkeitsnachricht ist, dass nicht nur die Mailadministratoren für den obigen Konfigurationsfehler getrost als Vollidioten bezeichnet werden dürfen, sondern auch der Empfänger der Spam-Nachricht. Denn dieser hat die Spam nicht auf seine dienstliche Adresse bekommen, sondern auf seine Hotmail-Mailadresse namens „hot4umarriedlatino@hotmail.com“.

So, und wie kommt nun der Pentagon-Mailserver ins Spiel? Offensichtlich dadurch, dass der durchgeknallte Mitarbeiter so furchtbar intelligent ist, seine Hotmail-Post auf seine dienstliche Mailadresse weiterzuleiten, die wiederum aus welchen Gründen auch immer die Spam-Nachricht nicht annehmen mag und das natürlich dann dem Absender der Spam-Nachricht mitteilen muss. Also mir.

Rechtsfahrgebot in Pusemuckel.

Da mache ich doch glatt mal mit, wenn die werten Herren Gassner und Theofel mit dem „Rechtsfahrgebot in Pusemuckel“, das dort ausdrücklich nicht gilt, weil es kein Pusemuckel gibt, zeigen wollen, wie unsinnig SEO ist und wie einfach man mit echtem Blog-Content Begrifflichkeiten in Google ganz, ganz nach oben bekommt. Einen weiteren Artikel gibt es auch im Weblog meines Kunden, dem Autohaus Gerstel, nebenban. Und da ist es ein Heimspiel, denn das ist ein Automobilblog. 😉

Wer Pusemuckel übrigens findet, darf es gern behalten.

Warum man sich Router nicht vom DSL-Anbieter geben lässt.

Dass es wieder einmal ein größeres Sicherheitsproblem mit Speedport-Routern der Deutschen Telekom gibt, die vornehmlich an DSL-Kunden als gar nicht so kostenlose Dreingabe mitgehen, wundert mich gar nicht – es hat leider System. Denn es ist nicht das erste Sicherheitsproblem, dass im Laufe der Zeit in der Software von Speedport-Routern gefunden wurde. Die Frage stellt sich da schon, was die Deutsche Telekom da eigentlich ihren Kunden zumutet. Und die nächste Frage geht an Kunden selbst: Warum zum Teufel kauft ihr keinen Marken-Router und lässt euch von eurem DSL-Anbieter eine weitgehende Blackbox an das eurige Ende der Leitung legen?

Tatsächlich ist nämlich die Kalkulation, die DSL-Anbieter führen müssen, das tatsächliche Problem dieser Misere. Damit nämlich der Anschluss möglichst konkurrenzfähig bleibt, wird nicht die beste Hardware in die Angebote gepackt, sondern die möglichst günstigste. Und das führt dann dazu, dass unter dem Telekom-Pseudo-Label „Speedport“ eine ganze Reihe von Hardware und Herstellern auftauchen, die aus Fernost kommen, ein reines OEM-Geschäft verrichten und Endkundenorientierung vom Hörensagen kennen. Hardware, die in der Form niemals selbstständig den Weg in den Handel führen würde, weil sie dermaßen miserabel ist, dass die Rückläuferquote viel zu hoch wäre. Es kann hier eigentlich nur Mist dabei herauskommen, manchmal früher und manchmal eben später.

Und genau das ist bei OEM-Hardware für einen Breitenmarkt nun ein riesiges Problem. Zwar hat man wohl mitgedacht und die ausgelieferten Router so konfiguriert, dass sie ein Update automatisch einspielen (wenn der Nutzer das nicht explizit ausgeschaltet hat), aber ein Umdenken wäre dennoch langsam erforderlich.

Bye-bye, webserver-basierte Statistikauswertung.

Seit den Anfangstagen von netplanet habe ich in Sachen Webserver-Auswertung fast durchgehend serverseitige Anwendungen am Start und immerhin seit 2004 den Webalizer. Webserver-seitige Statistiken haben den großen Vorteil, dass das Schreiben von Logfiles nahezu geräuschlos im Hintergrund des Webservers vonstatten geht und eine serverseitige Auswertung einst auch sehr lässig anzuschauen war.

Das funktionierte so lange, bis Weblogs und Kommentar-Spam kamen. Seit diesem Zeitpunkt beschäftigt sich früher oder später ein Webserver mit einem zu hostenden Weblog weitgehend nur noch mit Kommentar-Spam. Und „weitgehend“ ist ernst gemeint, denn als ich spaßeshalber einmal einen halben Tag dazu gebracht habe, die echten Apache-Weblogs nach eindeutigen Spuren von Versuchen, Kommentar-Spam abzulassen, durchforstete, traf mich der berühmt-berüchtigte Schlag – ich hätte eher nach Einträgen suchen sollen, die offensichtlich nicht Spam-Versuche sind, denn während dieses Weblog in der Woche normalerweise 3.000 bis 5.000 Pageviews zustandebringt, waren die Seitenaufrufe im Serverlog für die gleichen Zeiträume rund um den Faktor 10 höher. Wir reden davon, dass auf meinem Webserver für alle hier gehosteten Weblogs rund 90 % aller Seitenaufrufe purer Müll sind. Und ja, in dieser Rechnung ist berücksichtigt, dass Pageviews nicht Hits sind (Grafiken, RSS-Feed-Aufrufe und sonstige Dateien habe ich nicht mitgezählt). Solche Erkenntnisse erden. 🙁

Nun gibt es zwar für alle gängigen Web-Statistikprogramme auch mehr oder weniger ausführliche Filtermöglichkeiten, mit denen sich bekannte IP-Adressen von Kommentar-Spammer ausfiltern lassen, ebenso bestimmte Muster in den URL-Aufrufen. Nur: Was nützt diese Arbeit, wenn sich gerade die Liste der IP-Adressen ständig ändert? Schon zu meiner Zeit als Sysadmin bei einem ISP habe ich sehr schnell gelernt, dass die Pflege einer Installation einer Web-Statistik ein höchst undankbarer Job ist und einer gewaltigen Feineinstellung bedarf, um mit der Berechnung nicht den gesamten Server auszulasten. Bedanken tut sich für die Arbeit maximal der Chef, die meisten Kunden haben nicht ansatzweise eine Ahnung davon, was da im Hintergrund passieren muss, um eine aktuelle Web-Statistik zu produzieren.

Noch fataler wird es, wenn man der eigene Chef ist und man sich dann auch die Frage stellen darf, warum man eigentlich gegen eine elend mächtige Spammer-Front anzukämpfen versucht. Diese Frage habe ich vor einigen Wochen damit beantwortet, dass ich alles netplanetare nebenbei von unserer unternehmenseigenen Piwik-Installation auswerten lasse, also einem System, dass nach dem „Google-Analytics-Prinzip“ arbeitet: Im Seiten-Template meines Weblogs steckt ganz unten im Seitenfuß ein kleines Code-Schnipsel, der einen Aufruf in der Piwik-Installation erzeugt und alle notwendigen Aufrufparameter übermittelt.

Piwik bringt gleich eine ganze Reihe von Vorteilen mit: Die Spam-Aufrufe werden nicht mitgezählt, zudem pflegt die Piwik-Community solche Dinge wie Browser-, Betriebssystem- und Providerlisten. Alles Dinge, mit denen man sich einst mal gern beschäftigt hat. In der Zwischenzeit macht das alles nur noch wenig Spaß. Und noch weniger Sinn.

VPN aus China.

Der kleine VPN-Secure-Gateway-Erfahrungsbericht von heute hat natürlich einen Hintergrund. Es ist sozusagen ein langgehegter Sysadmin-Wunsch in Erfüllung gegangen, in dem meine Schwester, die zur Zeit im Fernen Osten weilt, in Shanghai aufgeschlagen ist und auf ihrem iPhone keinen Zugriff auf Facebook mehr hatte. Tja, so erlebt man als Bürger eines westlichen Staates die staatliche Reglementierung der öffentlichen Meinung am eigenen Leib.

Über normale Wege hilft da nichts, denn die Blockierung von Websites erfolgt im Falle von Facebook offensichtlich durch die Blockierung der von Facebook verwendeten IP-Adressen. Da hilft dann auch kein SSL, denn wenn man eine IP-Adresse erst gar nicht erreichen kann, hilft da auch die beste Verschlüsselung nicht. Also musste gestern mal wieder auf bewährte Weise meine Fritzbox ran, die ja eben VPN-Funktionalitäten mitbringt und mit dem VPN-Client des iPhone auch ganz gut harmoniert.

Zugang auf der Fritzbox eingerichtet, meiner Schwester die Daten zukommen lassen (und natürlich das Passwort nicht in Klartext, wir sind ja paranoid!). Und schon beim zweiten Anlauf funktionierte der VPN-Tunnel anstandslos, was sehr schön am Homescreen zu erkennen ist (man achte auf das kleine VPN-Symbol in der Informationsleiste):

IPSec bzw. Internet-Key-Exchange (IKE) laufen standardmäßig über UDP-Port 500 und der scheint auch tatsächlich nicht gesperrt zu sein von der IP-Adresse aus, von der meine Schwester ins Internet hineinstolpert (China Telecom).

Der Weg aller Daten ist nun folgender: Ist der VPN-Tunnel etabliert, wandern alle Daten, die das iPhone ins Internet abkippen möchte, nicht direkt ins Internet, sondern über den VPN-Tunnel an das andere Ende, das bei mir auf der Fritzbox hier in Deutschland liegt. Von hier aus geht der Verkehr also dann ins Internet und nimmt auch den umgekehrten Weg zurück. Der Zugriff auf Facebook geht also von China nach Deutschland und von hier aus zu Facebook (vermutlich nach Irland) und den gleichen Weg wieder zurück. Der Roundtrip dauert, wenn ich die Ping-Zeiten grob zusammenaddiere, ungefähr 1,5 Sekunden. Schöne neue Welt. Am faszinierendsten finden das übrigens unsere Eltern, für die so eine Story der Sicherstellung der interfamiliären Kommunikation auf IP-Transportebene schon eine fast schon magische Geschichte sein dürfte.