• Webdesign auf Breitbildschirmen.

    Ich will in der Zwischenzeit meinen echten 16:9-HD-Bildschirm, den ich an meinem PC einsetze, nicht mehr missen und auch nicht mehr hergeben. Zu schnell habe ich mich an das überaus angenehme Bildformat gewöhnt und habe nun auch Platz für mehrere Fenster und Anwendungen mit viel Fensterinhalt.

    Was mir aber auch aufgefallen ist, ist der Umstand, dass das Breitbildformat ungeheuer das Formatgefühl des Benutzers beeinflusst. Zum Beispiel kam mir das Format des Bildschirmes deutlich breiter vor, als das meines HD-Fernsehers. Da ich meinen Forscherdrang befriedigen musste, habe ich beide Bildschirme genauestens nachgemessen – beide haben absolut identische Formatdimensionen, der eine ist eben nur 28 Zoll diagonal groß, der andere kommt mit 42 Zoll daher.

    Der zweite, gefährliche Effekt betrifft das Abschätzen von Größenverhältnissen. Bei einer Bildschirmbreite von 1.920 Pixel kann man ein Browser-Fenster nicht in voller Breite betrachten, wenn nicht die meisten, betrachteten Web-Seiten albern nur klein in der Mitte angezeigt werden sollen. Also arbeite ich mit einem Browser-Fenster, das etwa 1.200 Pixel Breite hat. Schaue ich dann aber bei einem 4:3-Bildschirm mit meinetwegen echter Bildschirmbreite von 1.280 Pixel Breite die Seite nochmal an, haut es mich vom Hocker, wie riesig die Seite dann daherkommt.

    So habe ich auf einer Kandidatenseite mit einem sehr großen Kopf des Kandidaten gearbeitet und bin fast vom Stuhl gefallen, wie riesig das auf einem "normalen" Bildschirm daherkommt. Nun gut, das war so gewollt, aber es ist gewöhnungsbedürftig, dass man aufpassen muss – das Bildformat macht der Intuition und dem Ästhetikgefühl durchaus zu schaffen.

    Ich habe übrigens am Samstag in das noch geheime Ding schauen dürfen, was einmal die Kandidatenseite von Frank-Walter Steinmeier zur Bundestagswahl sein wird – das Ding wird der absolute Hammer und bestätigt einige Dinge, die ich auch als zentrale Ansätze von Politik 2.0 ansehe und danach arbeite. Ich konnte kaum ruhig sitzenbleiben.

  • Technische Grundlagen zu Online-Sperren, Teil 3: IP-Filtering.

    Die „Königsklasse“ beim Filtern ist das Filtern auf IP-Ebene.

    Wie funktioniert das Filtern auf IP-Ebene?

    Das Internet-Protokoll ist im Schichtenmodell die Schicht, die direkt auf dem Übertragungsmedium aufliegt. Da das Internet-Protokoll die unterste Schicht in der Übertragung des Internets ist, sind alle darüberliegenden Protokolle darin eingekapselt. Wird also eine Website übertragen, dann geschieht dies über das HTTP-Protokoll, das wiederum im TCP-Protokoll eingekapselt ist und dies wiederum im Internet-Protokoll.

    Die Adressierung im Internet-Protokoll erfolgt über IP-Adressen; jeder Rechner im Internet muss über eine solche IP-Adresse erfolgen und ist über diese Adresse eindeutig identifizierbar. Denkbar ist aber auch, die gesamte IP-Kommunikation an dieser Stelle inhaltlich zu analysieren und aufzuzeichnen, was bei nicht verschlüsselter Kommunikation das Nachvollziehen der übertragenen Inhalte ermöglicht. So erfolgt für gewöhnlich auch das Abhören von Internet-Anschlüssen.

    Wie wäre der Filteransatz beim Filtern?

    Der Filteransatz läuft beim IP-Filtering über das Analysieren bzw. Ausfiltern von IP-Kommunikation nach bestimmten Kriterien. Sinnvollerweise ist das die Absender- oder Empfängeradresse. Da dieses Filtering auf der untersten Ebene der Internet-Kommunikation erfolgt, ist das Filtern an dieser Stelle auch sehr fundamental „hart“, weil hier die Kommunikation an der Wurzel infiltiert wird und im Filterfall die gesamte Kommunikation gemäß den Filterregeln unterbunden werden kann.

    Wo hapert es im Filteransatz des IP-Filterings?

    Der „Kollateralschaden“ ist beim IP-Filtering dann sehr hoch, wenn es um Dienste geht, die auf einer IP-Adresse mehrere Dienste gleichzeitig betreiben. Genau das wird mit Webservern gemacht, denn das HTTP-Protokoll ermöglicht es, dass auf einer IP-Adresse zwar ein Webserver als Dienst laufen kann, der jedoch eine Vielzahl von virtuellen Webserver-Instanzen haben kann – je nach Provider durchaus tausende von Instanzen gleichzeitig. Würde man so eine IP-Adresse sperren, um eine bestimmte Webserver-Instanz zu bekämpfen, würde man auf einen Schlag auch alle anderen Instanzen blockieren.

    Ähnlich sieht es bei vielen anderen Diensten aus und inzwischen auch mit vielen Unternehmensnetzwerken, die intern keine öffentlichen IP-Adressen verwenden, sondern private Bereiche, die dann per NAT über eine IP-Adresse an das Internet angebunden sind.

    Fazit

    Das Filtern auf IP-Ebene ist „hart“ und umfassend. Nicht ohne Grund ist diese Art von Filtern in den Diskussionen um die Online-Sperre verpönt, da dieses Filtern nach gängiger Rechtsauffassung auf jeden Fall das Fernmeldegeheimnis bricht, da Kommunikation unterbunden wird.

    Da moderne Internet-Dienste den Betrieb mehrerer Instanzen auf einer IP-Adresse ermöglichen, ist das IP-Filtern für das Sperren einzelner Websites auch denkbar schlecht geeignet, da der Kollateralschaden durch Filtern von eventuell benachbarten Angeboten, die sich die IP-Adresse teilen, beträchtlich sein kann und die Rechte vieler Anbieter und Nutzer verletzen könnte.

  • „Der Spaß ist vorbei.“

    Auf dem heutigen Treffen der baden-württembergischen SPD-Wahlkampfleiter hatte ich mit einem Auge Gelegenheit, meinem Sitznachbarn in die FAZ hineinzuschauen, die in der Wissensrubrik einen sehr interessanten Artikel über die Agonie in der Welt der Mobiltelefonhersteller berichtet und bemerkenswert gut konstatiert. Ich will mal aus dem Kopf zusammenfassen.

    • Der Trend im Mobilgerätemarkt geht immer stärker weg von einfachen Mobiltelefonen und hin zu komplexeren Smartphones. Das ist ein Tribut der Entwicklung, dass Mobiltelefone immer stärker auch als Terminals für die Internet-Kommunikation eingesetzt werden.
    • Das größte Problem sind die prellenden Systemplattformen, die schlicht derzeit nicht zeitgemäß sind und zu einem großen Teil den Erfolg des iPhone begründen. Nokia krankt mit S60 herum, HTC baut sich Windows Mobile mit einer Reihe von Krücken zu einer halbwegs nutzbaren Plattform zusammen und Google sucht seinen Heil mit einer eigenen Plattform, die auch heute noch weitgehend im Beta-Stadium wankt. Andere Projekte sind wackelig (das WebOS-System von Palm) oder bereits gestorben (Openmoko auf Basis von Linux).
    • Es gibt gar nicht so viele Hersteller im Smartphone-Bereich mehr. Bei Windows-Mobile-Geräten gibt es eine Übermacht von HTC, die Taiwanesen produzieren für eine Reihe von Hersteller im Auftrag oder in Joint-Ventures deren Windows-Mobile-Smartphones. Auch die derzeitigen Google-Android-Gerätschaften stammen von HTC. Von anderen Platzhirschen hört man in Sachen Smartphones praktisch gar nichts, beispielsweise von Motorola, was sich schon in wenigen Jahren sehr böse rächen könnte.
    • Bei Mobiltelefonen entwickelt sich immer stärker das Problem, dass sie, wenn sie akzeptiert werden wollen, inzwischen eine Vielzahl von Standards und Technologien unterstützen müssen und schon das Fehlen einer Technologie über die Marktfähigkeit entscheiden kann. Beispiel: Bluetooth. Ein Smartphone ohne oder mit nur schlechter Bluetooth-Fähigkeit ist heute praktisch unverkäuflich, wenn es nicht für das Billigsegment gedacht ist. Ebenso verhält es sich mit so relativ neuen Funktionen wie GPS, die teilweise innerhalb kürzester Zeit zu einem Branchenstandard werden – ohne GPS ist heutzutage kein Smartphone, das eine deutliche Internet-Ausrichtung hat, im hohen Preissegment verkäuflich.

    Bei Lösungsansätzen war der FAZ-Artikel erstaunlich wenigsilbig – weil es auch wenig darüber zu sagen gibt. Zu allererst sind die Systemplattformhersteller in der Bringschuld für vernünftige, moderne und schnelle Betriebssysteme, die nativ mit dem Finger bedient werden können und die immer komplexere Technik auch vernünftig ansteuern können. Erst danach kommen die Gerätehersteller, die mit dieser Softwarebasis entsprechende Hardware bestücken können.

    Ich denke, es wird sehr deutlich, dass die Mobilfunkwelt inmitten des größten Umbruches ihrer recht kurzen Geschichte steckt und nur atemberaubend wenig Protagonisten darauf vorbereitet sind. Da wird es mit Sicherheit noch die ein oder andere Überraschung geben.

  • Zum Thema Selbstbehuldigung.

    Seien wir mal freundlich: Ich mag solche Knuddelveranstaltungen wie die Republica zur Selbstbehuldigung nicht sonderlich, völlig unabhängig davon, um welches Thema es geht. Da geht es mir weniger um das investierte Geld und eine fehlende Veranstaltungsrendite, sondern ums Prinzip selbst. Ich glaube, dass wir Blogger noch weit davon entfernt sind, die Infoelite zu sein, die sich gern auf solchen Veranstaltungen feiert. Wir haben ja noch nicht mal unseren eigenen, kleinen Kosmos im Griff. Denn das, was die Blogosphäre ausmachen sollte, verkümmert immer weiter und es stört offenbar immer weniger Blogger:

    1. Es gibt ein Volk der „Edelblogger“, von denen einige wenige tatsächlich mehr oder weniger von Anfang an dabei sind, die auch mal durch das Etablieren von Web 2.0 glänzen konnten, dadurch eine Reihe von Visitenkarten einheimsen konnten und nun beratend durchs Land tingeln. Deren Beratungsarbeit ist allerdings insofern enttäuschend, dass es kaum zu wirklich sichtbaren Hallo-Effekten kommt. Die Frage ist da wirklich, ob es etwas bringt, jemandem für Geld das Bloggen zu verkaufen, wenn schon genau diese Frage die Idee hinter dem Blogge infrage stellt?
    2. Auch wenn wir in jedem zweiten Satz vollmundig und selbstbewusst festschreiben, dass wir Blogger eine neue Informationskultur darstellen, fühlen wir uns doch besonders wohl, wenn wir ein Mikrofon eines Fernsehsenders unter die Nase gehalten bekommen oder wir zu billigen Berichterstattern von Katastrophenfällen degradiert werden, um die berühmten 15 Minuten Ruhm einzustreichen und sich in Wirklichkeit vollkommen albern machen zu lassen. Wir sehen uns einerseits als die Neue Welt, fühlen uns aber offensichtlich am geilsten, wenn die Alte Welt versucht, uns zu karikieren.
    3. Die Blogosphäre liest sich immer stärker und immer ausschließlicher selbst und macht sich selbst zu einem Teufelskreis, den andere antreiben. Wir schreiben viel zu viel ab und machen zu wenig frischen Content. Damit aber der Blogosphärenreaktor kritisch werden kann, reicht es nicht einfach, die vorhandene Masse einfach aufzuheizen, sondern es muss mehr Stoff von außen hinein. Ansonsten bleibt die Blogosphäre auch weiterhin nur ein sehr großer Kommentarbereich für SPIEGEL Online, Heise & Co. und tritt nur auf der Stelle.
    4. Wir beschäftigen uns viel zu sehr mit uns selbst, anstatt den Webbrowser aufzumachen und surfen zu gehen oder auch einfach mal aus der (echten) Haustüre zu treten und draußen zu fragen, wo der Schuh drückt. Selbst wenn es dann der eigene ist. Das ganze Gebilde lebt aber nicht davon, dass wir uns jeden Tag von neuem fragen, ob wir gut oder schlecht sind, sondern davon, dass wir etwas schreiben.
    5. Wir machen zu viel gleichzeitig und damit zu viel zu wenig. Du twitterst? Schön! Du twitterst, weil du sonst keine Zeit zu bloggen hast? Schlecht. Wenn jemand anstatt einem Blogartikel zehn Twitter-Tweets schreibt, dann ist das ein Verlust für die Blogosphäre und ein Sieg für das Belanglose und Flüchtige. Ich habe bis vor kurzem auch selbst noch gesagt, dass ich das twittere, was angeblich in mein Blog thematisch nicht hineinpassen würde, genau das ist aber einer der Kardinalfehler.
    6. Wir verlinken in der Blogosphäre viel zu wenig und viel zu sorgenvoll. Das ist ein großer Fehler, denn erst die Vernetzung via Links bringt Leser zu anderen Meinungen und andere Blogs in die Diskussion. So lange wir dabei Angst haben, dass uns dabei die eigenen Leser weglaufen (was definitiv nicht stimmt), wird der Blogosphärenreaktor niemals aus eigener Kraft laufen.

    Wir Blogger haben eigentlich einen gewaltigen Berg an Arbeit vor uns, wenn wir den Graswurzeljournalismus tatsächlich einmal zu einer festen Größe werden lassen und nicht zu einer Randnotiz des Informationszeitalters verkümmern wollen. Und ich sehe nicht, dass die derzeitigen Web-2.0-Huldigungsveranstaltungen dazu sonderlich viel beitragen.

  • The End.

    Da müssen wir jetzt mal wieder sehr tapfer sein: Die kleine Geschichte des New Yorker Fotografen Phillip Toledano über die Tage mit seinem hochbetagten Vater hat nun ein Ende bekommen – zu den bisherigen 38 hochemotionalen Fotos kam nun ein weiteres Foto dazu. Ohne seinen Vater.

  • Überraschung vom Telekom-Aktionärsservice.

    Dass mich die Telekom umfassend überrascht und verblüfft, kommt inzwischen eher selten vor. Das liegt ausdrücklich nicht daran, dass ich nicht zufrieden wäre mit den Dienstleistungen, die ich von der Deutschen Telekom in Anspruch nehme, sondern ausnahmsweise mal mit dem Aktionärsservice der Deutschen Telekom.

    Der Aktionärsservice bietet schon seit einigen Jahren die Möglichkeit, sich Einladungen zur Hauptversammlung nicht mehr per Briefpost, sondern per E-Mail zukommen zu lassen. Das kommt mir durchaus so entgegen, dass ich mir eigentlich Hinweise darauf, auf der Website des Aktionärsservice vorbeizuschauen, weil dort nun eine Einladung zur Hauptversammlung vorliegt, selbst dann zuschicken lassen würde, wenn diese nicht verschlüsselt in der Mailbox landen würden.

    Man kann aber optional eine E-Mail-Verschlüsselung anfordern. Und das wirklich überraschende: PGP-verschlüsselt, wenn man seinen Public-Key in sein Aktionärsprofil aufnimmt. Das habe ich in spontaner Ergriffenheit und der traurigen Gewissheit, einer von den ungefähr 17 Menschen in Deutschland zu sein, die regelmäßig PGP/GnuPG einsetzen, sofort getan und tatsächlich: Die Bestätigungsmail darauf kam PGP-verschlüsselt. Es geschehen Zeichen und Wunder. Und das auch bei der Lufthansa, denn dort funktioniert es ganz genauso.

    Zufall ist das übrigens keiner, denn beide Aktiengesellschaften nehmen, wie einige andere Aktiengesellschaften auch, für die Aktionärsregisterverwaltung die Dienstleistungen eines Unternehmens namens Adeus – ein Tochterunternehmen der Allianz AG – in Anspruch, das genau diese Dinge im Auftrag übernimmt.

  • Zwischenstand der Handyreparatur.

    Mein displayschwaches HTC Touch Pro ist leider immer noch auf Reparaturtournee und lässt auf sich warten. Geschlagene drei Wochen ist es nun in der Werkstatt und mein inzwischen traditioneller Donnerstagsanruf hat heute ergeben, dass man, so wie letzte Woche, immer noch auf ein Ersatzteil wartet.

    Ich vermute, das wird die Displayeinheit sein. Und ich vermute, dass dieses Ersatzteil direkt aus Fernost kommen wird. Möglicherweise wird das Ding da handgeschmiede und dann per Containerschiff versendet, ich wage da jedenfalls gar nicht, platt anzuhörenden Späße am Telefon mit der Hotline zu machen, aus purer Angst, mein Zynismus könnte die Wahrheit sein.

    Unbefriedigender Zustand. Ich schaue mir das noch genau eine Woche an und dann beschwere ich mich bei HTC.

  • PS3-Update 2.70.

    Richtig lange ist nichts passiert, dafür gibt es nach der letzten Major-Release gleich ein weiteres Major. Einige Neu- und Änderungen, die ich aus dem amerikanischen Playstation-Blog entnommen habe:

    • Ein neues Textchat-Feature, um online mit bis zu 15 PlayStation-Network-Freunde chatten zu können. Und das nicht nur außerhalb von Spielsitzungen, sondern auch während und das gleichzeitig auch noch in bis zu drei Chaträumen gleichzeitig. Vielleicht hebt das ja die “Online-Experience” etwas.
    • Zwei Änderungen in der Freundesliste der XMB, nämlich die Möglichkeit des Sortierens der Freundesliste nach dem aktuellen Online-Status und die Möglichkeit, größere Dateien (zwischen 1 und 3 MB) in Nachrichten versenden zu können.
    • Da es derzeit wohl Mode ist, Copy-and-Paste zu implementieren, hat sich das PS3-Entwicklerteam offenbar nicht lumpen lassen und das auch eingeführt, so dass nun Textschnipsel von A nach B über eine Zwischenablage kopiert werden können.
    • Im Spielemenü gibt es nun bei der Auswahl eines Spieles und nach dem Drücken der grünen Dreieckstaste einen weiteren Punkt namens „Internetsuche“, mit der via Google-Suche nach dem Spielenamen gesucht werden kann. Hört sich allerdings spannender an, als es ist.
    • Zwei Änderungen betreffen den Video-Downloadservice im PlayStation Store, dort können gekaufte Videos nun nämlich auf einen externen Datenträger als Sicherungskopie kopiert und wiederhergestellt werden und Videos, die für die PSP gekauft wurden, können auf die PS3 übertragen und dort abgespielt werden.

    Wie immer haben die Folks vom PlayStation-Blog auch wieder ein kleines und anschauliches Video in ihrer Update-Ankündigung veröffentlicht, in dem die wichtigsten Neuerungen kurz vorgestellt werden.

  • Technische Grundlagen zu Online-Sperren, Teil 2: Proxying.

    Eine weitere, verhältnismäßig einfach einsetzbare Technologie zum Filtern von unerwünschten Inhalten aus dem Internet setzt an einer Technik an, die schon immer einen zweifelhaften Ruf hatte, die allerdings in Firmennetzwerken gang und gäbe ist: Dem guten, alten Proxying.

    Wie funktioniert das Proxying?

    Der Begriff „Proxy“ kommt aus dem Englischen und bedeutet übersetzt „Stellvertreter“. Und das beschreibt auch schon weitgehend die Funktion eines Proxys: Ein Rechner schickt eine Anfrage nicht direkt über das Internet an den Zielrechner, sondern schickt diese zunächst an einen Proxy, der diese dann weiterleitet. Der Einsatz eines Proxy kann hierbei mehrere Begründungen haben:

    • Man möchte die Rechner, die einen Proxy benutzen, verschleiern. Die Stellvertreterfunktion eines Proxy-Servers kann man dem Zielrechner mit einigen Übertragungsprotokollen signalisieren, muss das aber nicht. Wenn man beispielsweise in einem Unternehmensnetzwerk viele verschiedene Arbeitsplatzrechner hat, kann man deren Web-Zugriffe über einen Webproxy leiten, der dann nach außen hin als abrufender Rechner fungiert.
    • Man möchte redundante Abrufe möglichst verringern und setzt einen cachenden Proxy ein. Das ist in einigen Szenarien (beispielsweise einem Mailproxy) relativ sinnlos, bei einem Webproxy aber schon wieder interessant, denn ein cachender Webproxy kann so konfiguriert werden, dass er Seiteninhalte von häufig aufgerufenen Websites wie zum Beispiel eines Nachrichtenportals für einen bestimmten Zeitraum zwischenspeichert, so dass bei kurz aufeinanderfolgenden Abrufen diese zwischengespeicherten Seiteninhalte schneller und ohne neuerlichen Abruf aus dem Internet bereitstehen.

    Beide Einsatzzwecke sind in Zeiten von Flatrates und NAT-Netzwerken inzwischen wieder am Aussterben, weil Datenverkehr inzwischen erheblich günstiger ist, als noch vor einigen Jahren und NAT-Netzwerke bereits von Hause aus ein hinter dem NAT-Gateway liegendes Netzwerk verschleiern – verschleiern müssen.

    Dennoch ist Proxying noch nicht gänzlich verschwunden und versteckt sich manchmal sogar noch in Kommunikationsströmen, von denen der Nutzer glaubt, dass sie direkt wären, im Hintergrund aber über einen so genannten transparenten Proxy geleitet werden, in dem der Proxy-Einsatz nicht beim Benutzer eingestellt wird (wie zum Beispiel die Angabe der Webproxy-Adresse im Webbrowser), sondern die Kommunikation eines gesamten Übertragungsprotokolls über einen Proxy geleitet wird und dieser so ohne weiteres dadurch nicht sichtbar ist.

    Wie wäre der Filteransatz im Proxying?

    Der Filteransatz wäre ähnlich, wie beim Filteransatz per DNS: Eine Liste mit zu sperrenden Adressen würde bereitgestellt und in die Proxy-Konfiguration aufgenommen, die dann dafür sorgt, dass entsprechende Aufrufe nicht ausgeführt werden, mit einer Fehlermeldung enden oder an eine alternative Website weitergeleitet werden.

    Würde ein transparenter Proxy eingesetzt werden, beispielsweise ein transparenter Webproxy, über den die gesamte Kommunikation, die von Anwendern über den HTTP-Standardport 80 initiiert werden, übertragen wird, so wäre die Überwachung – zumindest über diesen Standardport – weitgehend unumgänglich.

    Wo hapert es im Filteransatz des Proxyings?

    Das grundlegende Problem beim Proxying ist, dass es auch mit Einsatz von transparenten Proxys kaum möglich ist, dem Benutzer den Einsatz von alternativen Proxys zu verbieten. Beispiel:

    Ein Provider setzt einen transparenten Webproxy ein, der alle Kommunikation über diesen leitet, der vom Benutzer über den HTTP-Standardport 80 initiiert wird. Der Benutzer stellt in seinem Webbrowser nun jedoch einen Webproxy ein, der beispielsweise im Ausland stationiert ist und der in dergestalt konfiguriert ist, dass dieser Proxy über eine andere Portadresse angesprochen wird, als der Port 80. Und schon ist der transparente Webproxy des Providers umgangen.

    Noch viel banaler wird es mit SSL-verschlüsselten Websites, also mit HTTPS. HTTPS-Kommunikation erfolgt im Normalfall mit einer Ende-zu-Ende-Verschlüsselung, der Übertragungsweg zwischen Absender und Empfänger wird also im Normalfall von Webbrowser des Absenders und Webserver des Empfängers verschlüsselt. Da ein Webproxy hier bei einer hinreichend starken Verschlüsselung nicht ohne weiteres in den Kommunikationspfad „hineinschauen“ kann, kann es nur zwei Wege geben: HTTPS-Kommunikation untersagen oder unberührt durchlassen. Ersteres ist undenkbar, letzteres weitgehend Usus und damit das Schlupfloch. Eine theoretische Alternative wäre, dass der Webproxy auch HTTPS-Proxying beherrscht, also beim SSL-Verbindungsaufbau als „Mittelsmann“ automatisch eingebunden wird. Auch das halte ich jedoch im Sinne des Schutzes der elementarsten Privatsphäre für undurchsetzbar, zumal das auch technisch äußerst hochklassig und teuer ist.

    Nicht zu unterschätzen ist generell der hardware-seitige Aufwand, der auf Seiten des Providers getroffen werden muss. Wollte man alle Web-Zugriffe über Proxys leiten, so müssen diese Server dementsprechend dimensioniert sein, diese Mengen an Datenverkehr auch in annehmbarer Zeit zu verarbeiten. Das ist schon bei mittelgroßen Providern eine herausfordernde Angelegenheit und wird bei nationalen Carriern eine zweifellos unternehmenskritische Geschichte.

    Fazit

    Proxying ist für Online-Sperren schon mal ein deutlich ambitionierterer Weg, als lahmes DNS-Filtering, allerdings auch ein Ansatz, der gewaltige Ressourcen und Investitionen erfordert und allein schon aus diesem Blickwinkel heraus kaum zu leisten ist – wir reden hier schon bei einem kleinen- bis mittelgroßen Provider von sechs- bis siebenstelligen Anschaffungskosten für Hardware und nachfolgenden Services wie Klimatisierung, Stromverbrauch etc. Zudem kommt hinzu, dass der Aufwand überproportional steigt, je stärker die technisch bedingten Schlupflöcher gestopft werden sollen. Wollte man darüberhinaus ernsthaft auch HTTPS-Kommunikation über Proxys leiten und analysieren – was, so derb sich das auch anhört, nur konsequent sein müsste – wäre dies das Ende aller gesicherten Anwendungen wie Online-Banking oder Online-Shopping, weil es einen direkten Eingriff in gesicherte Kommunikationskanäle bedeutet.

  • Paketbeschreibungen.

    In der Postfiliale meines Vertrauens stand gestern Abend erstaunlicherweise nur eine Person vor mir. Normalerweise kann man sich nach 16 Uhr darauf gefasst machen, dass die halbe Nordstadt Pforzheims in der Schlange der Postfiliale steht, die selbst im Rewe an der Hohenzollernstraße stationiert ist, aber gestern ging es richtig.

    Dafür fand man das Paket nicht, dass die Frau mit ihrer roten Paketmarke abholen wollte. Auflösung vorab: Laut Karte wäre das Paket erst am nächsten Tag abholbereit, aber darauf schaut man ja auch ganz zuletzt. Es ergab sich dennoch ein bemerkenswerter Dialog:

    Mitarbeiterin (sucht in den Regalen): “Hm, ich kann Ihr Paket beim besten Willen nicht finden.”

    Kundin: “Das ist aber komisch. Sollte doch eigentlich hier sein.”

    Mitarbeiterin (schaut auf die Karte): “Ja, eigentlich schon, die angegebene Postfiliale ist richtig. Was ist denn im Paket drin?

    Kundin (frohlockt und steigert die Lautstärke): “Ein WLAN-Router.

    Mitarbeiterin: “Nö, ist noch nicht da.”

    Ob es mit der Angabe des richtigen Paketinhaltes vielleicht doch noch etwas geworden wäre? Ob die Filialmitarbeiterin weiß, was ein WLAN-Router eigentlich ist? Und ob das Paket überhaupt nochmal ankommt? Hach ja.

Letzte Beiträge
Schlagwortwolke

Android Barack Obama Bloggen Blogroll Bundesregierung CDU Facebook Fatal Error Google iPhone Online-Sperre Pforzheim Politik 2.0 PS3 Social Networking SPD Testbericht Twitter Update Video Wahlkampf Web 2.0 Werbung WordPress ZDF

Archiv
Seiten