blog.fohrn.com

PRISM und TOR, ein kleiner und wichtiger Nachtrag.

Bezüglich der PRISM-Sache habe ich seinerzeit ja auch zu TOR geraten. Dabei ist mir ein Aspekt völlig aus den Augen gekommen – hier treffend von @georgevhulme gefasst:

tor

„How many TOR nodes are .gov run nodes? You don´t think the NSA can read TOR traffic? Put down the comic books.“

Nun, der FoeBuD hat es weiland bei der Beschreibung des Privacy-Dongles, ein Projekt, um das ich dem Verein noch heute dankbar bin, sehr treffend formuliert:

Das Tor-Netzwerk setzt zwar Verschlüsselung ein, aber nicht zu dem Zweck, Ihre Kommunikation abhörsicher zu machen. Die Verschlüsselung besteht nur innerhalb des Tor-Netzwerks. Zwischen dem letzten Server im Tor-Netzwerk (dem „Tor-Ausgangs-Knoten“) und dem von Ihnen genutzten Web-Server sind die Daten so gut oder schlecht geschützt wie bei einer normalen Verbindung. Nur die Herkunft Ihrer Verbindung ist verschleiert (die Verbindung scheint vom Tor-Ausgangs-Knoten zu kommen), nicht die Inhalte.

Sie bleiben deshalb nur so lange anonym, bis Sie Ihren eigenen Namen irgendwo eingeben oder sich in ein Forum o.ä. einloggen. Damit Ihre Verbindung bis zum Web-Server abhörsicher wird, müssen Sie weiterhin „https“-Verschlüsselung nutzen.

Klar, oder? Einfach gesagt:

Verwechseln Sie also nicht Anonymität mit Vertraulichkeit. Stellen Sie sich vor, Sie würden sich mit einer Maske in einer Gesellschaft bewegen – wenn Sie Ihre Identität in einem Gespräch verraten, wird die Maske nutzlos. Auch möchten Sie trotz Maske nicht ohne weiteres Ihre persönlichen Geheimnisse mitteilen.

Es ist ganz logisch und wird so schnell vergessen.

Ich habe meinen Dongle auf die 3.5er Version geupdated – funktioniert einwandfrei. Ich bin auch echt überrascht, wie schnell und häufig Verbindungen und Länder wechseln. Nun – ob das reicht, weiß ich nicht, ich halte TOR aber auf jeden Fall für einen wichtigen Schritt in die richtige Richtung.

Leseempfehlung: „Zehn Gründe, warum ich mit Facebook Schluss mache“.

Wenn ich einen privaten Facebook-Account hätte, so wäre mit PRISM am Freitag der Tropfen gefallen, der das Fass zum überlaufen gebracht hätte. Nun denn, bei Martin Giesler scheint das der Fall gewesen zu sein.

Sein Klagelied auf Facebook umfasst zehn Strophen. Jede einzelne tönt mir aus dem Herzen, jede einzelne verdient Gehör!

Daher lies bitte jetzt „Zehn Gründe, warum ich mit Facebook schluss mache“.

Danke.

PRISM.

Ihr wundert Euch über PRISM? Ich wundere mich nicht über die Existenz – dass das alles Drecksäue sind, ist eh klar – ich wundere mich nur über den Umfang, der einer Vorratsdatenspeicherung gleichkommt. Das ist das Ding. Aber der Reihe nach:

Die Ammis sind verwundbar – und zwar durch Whistleblower. Das gilt im Falle Manning und Collateral Murder genauso wie im Falle PRISM – mit dem Unterschied, dass hier der Whistleblower allem Anschein nach noch nicht gefunden ist. Und ich drücke die Daumen, dass er auch nicht gefunden wird (Hat sich gestern noch überholt. Via Fefe. Wat sonst).

Noch scheint mir nicht alles raus zu sein bezüglich PRISM; was wir bislang wissen, reicht aber schon. Seit 2007 – also noch unter der Regierung von Bush – wurde seitens des US-Geheimdienstes NSA ein fettes Abhörprogramm ausgerollt – mit Vollzugriff auf die Server aller großen Ammi-IT-Buden vom Schlage Google, facebook, Apple und Microsoft. Würden Ammis nur Ammis abhören, dann wäre das schade, bliebe aber erst mal ein Problem der Amerikaner. Hier ist es nun aber so, dass das Abhören weltweit stattfindet. Amerika hört die Welt ab – wie scheiße ist das denn? Es kommt aber noch schlimmer: Laut SPON sollte PRISM ja dazu da sein, Ausländer abzuhören, aber die Ammis in den Datenbergen lassen sich halt nicht so ohne Weiteres rausfiltern…

Der Hammer – oder? Während wir in Deutschland uns sehr darum bemühen, Vorratsdatenspeicherung zu verhindern, machen die Ammis das einfach so im Vorbeigehen. Und wenn eine europäische Behörde an Daten heran will, die gar nicht erhoben hätten werden dürfen, wer weiߟ, ob man dann nicht in den USA um eine kleine „Amtshilfe“ ersucht…

PRISM ist nicht weniger als ein handfester Skandal. Der Bürger hier wie dort kann sich freilich gegen den amerikanischen Staat nicht wirklich wehren (abgesehen davon, das man das Wählen solcher Parteien, die sich willfährig zum Büttel der Amerikaner machen) – aber PRISM kann auch nur funktionieren, weil es Unternehmen gibt, die (ob freiwillig oder nicht) dem Geheimdienst ihre Türen weit öffnen.

Richtig geil ist die erste Folie der TOP SECRET PRISM-Powerpoint-Präsentation, die man sich derzeit noch in der Wikipedia angucken kann. Da haben die einfachmal die wesentlichen Logos reinkopiert, und da sind sie alle versammelt: Google-Mail, facebook, hotmail, Yahoo, Google, Apple, Skype, paltalk, YouTube und AOL Mail. Aber da wird sicher noch mehr betroffen sein, das sind nur die Großen, die jeder kennt.

Niedlich auch, wie sich der Zuckerberg, der Page von Google und die Apple-Leute versuchen aus der Affäre zu ziehen. Nur leider wenig glaubwürdig. Die treffendste Analyse der Dementis findet sich hier meiner Meinung nach in der Wikipedia wiedergegeben:

Datenschützer bewerteten die verweigernde Natur der Stellungnahmen der genannten Unternehmen als mehr oder weniger intelligent vorgebrachte „verweigerbare Verweigerungen“ die einen NSA-Zugriff auf sämtliche Daten nicht ausschlössen. (Quelle)

Ich denke, dass es so läuft. Ich kann mir nicht vorstellen, dass diese US-amerikanischen Unternehmen den Diensten Paroli bieten – und dann streitet man ein Mittun einfach ab, um ein PR-Desaster zu verhindern.

Jetzt bleibt nur noch die Frage, wie wir damit umgehen könnten. Es wird schwer – das sehe ich jetzt schon. Es gibt aber ein paar Sachen, die man machen kann: Das Nutzen eine alternativen Suchmaschine, z.B. ixquick. Keyboardr ist schon ziemlich sehr cool, wie vertraulich dort mit den Daten umgegangen wird, weiß ich allerdings nicht. Auch sonst gibt es einige Google-Alternativen. Diese Links sind von 2010, einiges stimmt nun nicht mehr. Scroogle ist leider down – schade, denn Scroogle war auch sehr cool. Chrome wird immer erfolgreicher – auch wenn ich das nicht gutheißen kann. Hin und wieder anonym zu surfen kann auch sehr sinnvoll sein. Die Installation von Tor mag den ein- oder anderen vor Probleme stellen, das ganze geht aber auch instant: Der Privacy Dongle vom FoeBuD Digitale Courage e.V. muss nicht mal gekauft werden – einfach nen ollen USB-Stick nehmen und die aktuellste freie Software drauf. Als Browser empfehle ich nach wie vor Firefox, den ich seit glaube ich 2003 nutze und wirklich Pflicht ist das Plugin Ghostery. Und dann muss noch eines klar gesagt sein: Finger weg von Facebook! Mein Passwortmanagement mache ich nun seit ein paar Tagen mit einer Hardware-Software-Kombi, dem Chipdrive, dazu schreibe ich später mal ein paar Zeilen. Ich bin gerade selber erschrocken: Vieles davon habe ich 2010 geschrieben – und heute ist es notwendiger denn je, sich selbst zu schützen. Das das alles freilich nur ein Tropfen auf den heißen Stein ist, sollte klar sein. Selbst wenn man sich an alle vorgenannten Maßnahmen penibel hält, so hinterlässt man doch eine Datenspur, die beim Zusammenfahren der Datenbanken ein recht präzises Bild des jeweiligen Nutzers zeigt. Trotzden: Machen wir es den Staaten und Unternehmen nicht zu leicht und tun wir, was wir tun können.

Am Rande: Wenn nur die Hälfte von dem stimmt, was da über PRISM rausgekommen ist – dann ist die Stasi dagegen ein Amateurverein gewesen. Armes Amerika.

Warum ich Freund eines maschinenlesbaren Webs bin, was das mit Peer Steinbrück zu tun hat und wieso Maschinenlesbarkeit nicht mit dem Verlust der Daten-Souveränität gleichzusetzen ist.

Unser SPD-Kanzlerkandidat Steinbrück macht auf Twitter folgendes: Das politische Geschehen wird auf einem Notizzettel kommentiert, eingescannt und das Foto via Twitter verlinkt bzw. veröffentlicht. Das hat erst mal seinen eigenen Charme – Handschrift im Web ist persönlich und sympathisch, Peer Steinbrück ist nicht mehr der Jüngste und ich bin mir sicher, dass es viele gibt, die es als Symbol der Aufrichtigkeit deuten, wenn hier der Nicht-Digital-Native über den analogen Umweg dennoch in der digitalen Welt ankommt. Das ist authentisch.

steinbrueck_notizzettel

Wirklich begeistert bin ich davon nun aber dennoch nicht. Das habe ich auf Twitter auch mitgeteilt und eine kleine Diskussion kam in Gang, die ich für wichtig genug erachte, sie an dieser Stelle in aller epischer Breite nochmal zu vertiefen. Twitter nutze ich gerne unterwegs und mein lustiger Handyprovider stellt mir nicht überall den Datendurchsatz zur Verfügung, der das Handling von Bilden zum Spaß werden lässt. Das ist aber nicht das eigentliche Problem . vielmehr empfinde ich in Bilddaten codierte Textinformation als unpraktisch. Suchmaschinen können diese Inhalte noch nicht sinnvoll indexieren, es ist schwierig(er), die Information weiterzureichen oder aus ihr zu zitieren und wenn sich niemand findet, der sie transkribiert, kann irgendwann auch passieren, dass sie verloren geht.

Ich kann mich an eine ähnliche Diskussion um die Jahrtausendwende erinnern. Damals stand erstmalig in der Fläche Browsertechnologie und hinreichend Bandbreite zur Verfügung, um auch in größerem Umfang mit Grafiken auf Websites umgehen zu können. Marketingleute haben das schnell für sich entdeckt – die „Kachel“ war geboren. Was man mit Text hätte ausdrücken können, wurde um Willen der optischen Gefälligkeit grafisch aufgearbeitet und diese Browserfenster füllenden Grafiken dann in gleichmäßige Kacheln zerschnitten, damit sich das stabiler übertragen ließ.

Zur damaligen Zeit wusste ich: Es gibt in Ort xy eine Autowerkstatt, einen Bäcker oder Friseur, die Information konnte ich mir aber trotzdem nicht ergoogeln, denn die war in einer Grafik versteckt. Und die Telefonnummer zum Nachfragen konnte ich auch nicht ergoogeln, die war in einer Grafik versteckt. Wenn ich wusste, das es die Firma gibt, den Namen aber nicht genau kannte und die URL nicht wusste – ich konnte die gewünschte Info nicht finden – sie war in einer Grafik versteckt.

Mein erstes „Smartphone“ war übrigens ein Ericsson R380s. Das hatte einen WAP-Browser, der quasi nicht grafikfähig war. Zum damaligen Zeitpunkt löhnte man auch für jede 10k – da war alles, was nicht Text war, schlicht nicht willkommen. In dieser Zeit wurden also erstmals die Forderungen nach einem maschinenlesbaren Netz laut. Nicht zuletzt war es Berners-Lee selbst, der das Problem erkannte und entsprechend thematisierte und einen Standard für ein semantic web zu formulieren versuchte.

Nutznießer dieses maschinenlesbaren Webs sind aber nicht nur Suchmaschinen, sondern all jene, die eine Information in irgendeiner Art transformiert brauchen um sie entweder erlangen oder verstehen zu können. Das kann die Notwendigkeit einer Übersetzung sein oder z.B. eine elektronische Braille-Zeile oder Sprachsynthese für einen sehbehinderten oder blinden Menschen.

An dieser Stelle muss ich nun in verschiedene Richtungen differenzieren:

  • ein maschinenlesbares Web bedeutet kein Grafikverbot – es fordert vielmehr dazu auf, die in der Grafik hinterlegte Information so gut wie möglich noch mal maschinenlesbar zu hinterlegen
  • Informationen so aufzubereiten, dass Suchmaschinen sie finden und sinnvoll verarbeiten können, ist per se auch erst mal nichts schlechtes. Klar – Google rapportiert der NSA alles, was mal irgendwo über deren Dienste gegangen ist (Stichwort: PRISM), aber das ist ein spezifisches Problem mit dem Quasi-Monopolisten und nicht mit Maschinenlesbarkeit
  • Ich kann meine Daten nicht schützen, in dem ich sie in irgendwelchen Dateien verstecke – dieses Obscurity-Ding hat noch nie hingehauen. Texte aus Bildern extrahieren kann jede lumpige OCR-Software, die man als Dreingabe bei Scannern findet. Handschriften verscannen konnte die Deutsche Bundespost in ihren großen Briefzentren bereits Mitte der 198oer Jahre. Das dürfte eine der leichtesten Fingerübungen großer Internetkonzerne und der Geheimdienste sein
  • Wir Städter haben zuhause armdicke DSL-Leitungen und 3G/4G-Flats auf dem Handy. Ok. Aber denkt wer an die Landbevölkrung, die sich zum Teil noch heute mit 56k durch die Gegend morst? Das wird, wenn die Drosselkom Ernst macht, auch die gut versorgten Städter treffen
  • Durch Formate kann ich nicht managen, wer auf Daten zugreifen darf und wer nicht – das dürfte klar geworden sein. Aber ich gehe noch einen Schritt weiter: Alle Daten, die eines solchen Zugriffsmanagements bedürfen,. haben im Prinzip im Netz nichts verloren. Klar ist das eine Frage, bei der ich die Vorteile gegen die Risiken des Vertraulichkeitsverlustes abwägen muss – aber prinzipiell gilt: Einen eingeschränkten Nutzerkreis kann ich nur offline haben und auch hier muss ich sicherstellen, dass diese Leute meine Daten nicht irgendwie doch (absichtlich oder versehentlich) irgendwo hochladen

Wo ist das Problem? Das semantische Web funktioniert erst dann, wenn sich hier wirkliche Standard etablieren, denn semantisches Web ist mehr, als Informationen aus Bildern als Text zu hinterlegen – hier geht es im Wesentlichen um einheitliche Beschreibung technischer Prozesse, Paraphrasierung, Operationalisierung und damit die Schaffung einer möglichst einfachen Verständigungsgrundlage im Umgang mit digitaler Information… Dieses Unterfangen wird aber durch den tendenziell anarchistischen Charakter des Webs konterkariert. Auch das ist erst einmal ok (man erinnere sich an den Bildschirmtext – da benötigte man zu Beginn sogar spezielle durch die Post zertifizierte Fernsehapparate, damit auch ja sichergestellt ist, dass jeder BTX-Nutzer in Deutschlands in exakt derselben Farbe dargestellt wird – das will man nicht!!). Die anarchistischen Grundtendenzen im Web haben viele Innovationen und Technologiesprünge mit sich gebracht (hätte man mit vor zehn Jahren erzählt, dass man über ein rottiges Kupferadernpaar mal eben 50MBits abbilden kann – ich hätte schallend gelacht!).

Mit dem Problem muss aber irgendwie umgegangen werden. Ich bin kein Verfechter von irgendwelchen Standards, aber es gibt erste Hinweise auf einen sinnvollen Umgang in diese Richtung. Einige der Berliner Radiomoderatoren und Podcaster lassen von Freiwilligen chronologisch ihre Sendungen mit Shownotes und darin eingebundenen URLs bereichern. So ist nicht nur ein schneller Überblick über den Inhalt gegeben sondern das Audio lässt sich auch sinnvoll mit dem Hypertext verbinden. Das ist insofern eine Leistung, da Audio ja eigentlich ein lineares Medium ist – beim genauen Hinschauen entdeckt man aber an der Bruchkante beider Medien von Komplexität und Linearität, dass hier die Shownotes eher als Behelf zu verstehen sind. Das tut aber auch nix – ein Behelf, der funktioniert, ist erst mal gut und wenn er sich durchsetzt, verliert er eben auch den Status des Provisoriums.

Jeder möge sich also Gedanken machen, wie er dazu beitragen kann, dass das Netz maschinenlesbarer wird. Das sog. Web 2.0 hat mit dem Tagging da schon eine erwähnenswerte Strategie. Mir hat sich damals noch nicht erschlossen, warum ich Tags benutzen soll, aber als ich die ersten Tags auf flickr gesehen habe, war sofort klar, welchen Nutzen tagging stiftet. Das ist alles nicht optimal und dennoch hilfreich.

Klar, die Nummer mit dem R380s ist nun zwölf Jahre her, die Welt hat sich gedreht. Wir haben höheren Datendurchsatz – und höheres Interesse von Wirtschaftsunternehmen und Staaten an unseren Daten. Beides lässt den Schluss zu, dass man ein maschinenlesbares Web technisch nicht benötigt und das man damit den Datenkraken in die Hände spielt. Ich hoffe, dass ich mit der vorangehenden Betrachtung diese Schluss als Fehlschluss entlarven konnte.

Zurück zu Steinbrück: Im engeren Sinne spielt seine Zettelscannerei keine Rolle. Er ist bekannt genug, dass sich Leute finden werden, die die kleinen Notizzettel abtippen oder zumindest zitieren. Und der Inhalt der Zettel ist nicht so bedeutend, dass ein echter Verlust entstünde, wenn er nicht jedem zugänglich wäre. Man kann gut ohne Steinbrücks öffentliche Notizzettel leben. Im weiteren Sinne leistet Steinbrück mit dieser Zettelscannerei den Offenbarungseid: Der Kanzlerkandidat der SPD hat die grundlegenden Prinzipien des Internets nicht verstanden. Oder aber für PR bereitwillig geopfert. Zu beidem beglückwünsche ich ihn. Nicht.

Ghostery und die Tracker.

Dem Zufall – oder besser: dem Bayerischen Fernsehen – ist es geschuldet, dass ich derzeit in meinem Firefox-Browser Ghostery verwende. Eines Tages sah ich sauf dem Schirm eine Doku über Datenschutz und dort ein Häckse namens Lila vom CCC München, die in der Kürze der Zeit zu einem Programm namens Ghostery riet um eine bessere Privatsphäre beim Surfen hinzukriege (mir ist schon klar, dass sich das auch „richtig“ machen lässt- z.B. mit dem Privacy Dongle – aber TOR ist nicht immer der performanteste Weg, um im Web zu surfen).

Ghostery stöbert Tracker, Skripte und Cookies auf, die nach Hause telefonieren, also irgendwelchen Werbetreibenden das Nutzerverhalten mitteilen. Damit leistet Ghostery einen wichtigen Beitrag zur Privatsphäre , wenn man es denn richtig konfiguriert. Vom Prinzip her zeigt das Plugin nämlich nur die Schnüffelskripte an – sollen die Tracker geblockt werden, so muss man das einmal konfigurieren. Bereits nach der Installation empfiehlt es sich also, default erst mal alle Tracker, Skripte und Cookies zu wählen und auch an der Evaluierung – der Funktion bei der Ghostery über seine Arbeit ebenfalls heimrapportiert – nehme ich nicht teil.

Ghostery gibt es für Firefox, Safari und Chrome. Auch ist eine Version für den IE und Opera vorhanden, hier entfaltet die Software aber wohl nicht ihre volle Wirksamkeit:

Detection capabilities for third-party tools in IE are limited, thus a subset of all active trackers will be detected. (Quelle)

Was iPhone-Besitzer freuen dürfte: Ghosteryist auch für iOS via iTunes verfügbar.

Die Stimmen im Netz sind mehrheitlich begeistert. Ghostery ist demnach eine einfach zu konfigurierende und mit dem Browser Firefox auch noch angenehm schnelle Software, die mit ihrem kleinen Bericht im Browserfenster erst verdeutlicht, wie viele Dienste sich im Web an unsere Fersen heften. Als ich das einmal eine Woche erlebt hat, war ich durchaus beeindruckt und auch aufgerüttelt. So gesehen bin ich um Software wie Ghostery froh. Nicht verschwiegen werden darf an dieser Stelle aber auch, dass es durchaus auch kritische Stimmen zu Ghostery gibt. So schreibt man bei Chip…

Ghostery gibt nur vor, sich dem Schutz der User vor Schnüffel-Attacken zu verschreiben. Denn gleichzeitig stellt der Hersteller seine Datenbank der Werbewirtschaft zur Verfügung. Wir raten deshalb vom Gebrauch des Add-ons ab. (Quelle)

… und rät stattdessen zu NoScript (für Firefox). Den geäußerten erdacht konnte ich durch Webrecherche nun nicht erhärten und auch der Umstand, dass Ghostery sich unter den von Mozilla ausdrücklich empfehlenen Plugins befindet, stimmt versöhnlich. Aber in der Tat muss man darauf vertrauen, dass Ghostery keine Daten weitergibt, wenn man den Haken bei der „Evaluation“ nicht setzt. Was außerdem bedacht sein will: Ghostery arbeitet mit einer Blacklist. Wer eine noch höhere Sicherheit habe will, der müsste mit einer Whitelist arbeiten.

Das Nutzen von Ghostery hat mir auch bezüglich dieses Blogs die Augen geöffnet. Ganze 14 Tracker habe ich mir hier mit der Shoutbox eingeschleppt – der Grund, warum ich die Shoutbox ersatzlos gestrichen habe. Und auch den Publicons ist es demzufolge an de Kragen gegangen – den auch hier versteckte sich der ein – oder andere Tracker.

Simple Trackback Validation.

Mit Kommentarspam komme ich auf dieser Seite klar – seitdem ich SweetCaptch verwende. Ich denke, dass das lösen kleiner grafischer Aufgaben auch wesentlich angenehmer ist als das Entziffern irgendwelcher radomisierter wie verzerrter Hieroglyphen. D%as ich überhaupt ein Captcha hier einführte, wurde nötig, weil die Spammer mittlerweile intellig7ent genug sind, um das alte WP Catcha Free zu umgehen, das die Erstellungszeit des Textes misst. Das funktionierte immer hinreichend gut – aber inzwischen spammen die Spammer eben mit einem kleinen Delay.

Ein anderes Problem ist der in den letzten Monaten massiv gestiegene Trackback-Spam. Mit Pingbacks gibt es natürlich keine Probleme – gegen den Trackback.-Spam soll wiederum ein Plugin helfen, dass den eingehenden Trackback ähnlich wie beim Pingback verifiziert – nur viel einfacher: Anhand der IP wird verifiziert, ob der Trackback vom selben Rechner kommt wie der zugewiesene Link.

Ich mag solche einfachen Lösungen, weil hier die Fehleranfälligkeit recht gering ist. Wenn ein gewisser Prozentsatz an Spam dennoch durchrutscht, dann ist das ja nicht schlimm, das lässt sich dann manuell tilgen (zumindest finde ich das weniger Schlimm als ein paar Prozent falsch-positive).

Das Plugin heißt Simple Trackback Validation – es lässt sich problemlos installieren.

Ich werde berichten, ob es funktioniert – laut WP ist es sein etwa zwei Jahren nicht mehr geupdated worden.

Leistungsschutzrecht, II (leider).

Es ist einen guten Monat her, dass ich über das LSR gerantet habe. Aus lauter Doofheit Gier haben die Verleger das jetzt zumindest in die Lesung bekommen, ganz durch ist es nicht, aber es fehlt nicht mehr viel.

Ich habe mich wirklich darüber gewundert. Jetzt mal ohne Witz: Die Verleger schneiden sich ins eigene Fleisch. Suchmaschinen und Newsaggregatoren verlieren interessante Inhalte oder gar die Existenzgrundlage. Für Blogs und andere (Meinungs)Seiten wird ohne jede Not ein rechtlicher Graubereich aufgerissen. Bei schlampiger Formulierung könnte sogar das Zitierrecht tangiert sein. Und das alles ohne Gewinn für irgend jemand. Ohne Not gemeinsam in den Abgrund – total bescheuert.

Unter diesen Umständen wäre an dieser Stelle eine tiefergreifende Betrachtung indiziert. Kann ich mir aber sparen, das hat Mike Buchner schon gemacht und seine Betrachtungen seien Euch, liebe Leser, recht herzlich anempfohlen.

Ich stimme Mike zu – mit folgender Ausnahme: Dieses „Ein Groschen für einen Artikel“-Ding halte ich für kontraproduktiv, denn dann wird jeder Schreiber versuchen, sein Preview so zu gestalten, dass möglichst viele Groschen zusammenkommen. Das tut der Sache generell nicht gut. Und alle Effekte von Hypertext, Web 2.0… mache ich zunichte, wen ich jeden Content hinter eine Paywall packe. Die NN machen das in meinen Augen ganz gut: Was ich heute in der Zeitung lese, habe ich heute entweder gekürzt im Netz oder aber vollständig in drei Tagen. Wer vollständige und schnelle Infos braucht, abonniert die Zeitung, wer einen Informationskern teilen will, kann das weiterhin tun. Aber ich hör schon auf – die künftigen Geschäftsmodelle sollen sich die Verleger ruhig selber ausdenken, wenn sie wieder klar in der Birne sind.

Ein Jahr Windows – mir geht es gut. Ein Rant auf Apple eines ehemaligen Fanboys.

Ich habe dieser Tage ein einjähriges Jubiläum zu feiern: Ich bin seit einem Jahr Apple-frei. Und zwar komplett. Ich nutze auf meinen Rechnern Windows 7, auf meinem Telefon Symbian und auf den Tablets Android. Ich habe kein Gerät mehr mit iOS oder OS X. Und ich bin froh, Apple aus meinem Leben verbannt zu haben. Das war aber nicht immer so. Ich war nämlich mal ein richtiger kleiner Fanboy. Das ist vorbei – wie es dazu gekommen ist und warum mir Windows mittlerweile Spaß macht, das erzähle ich im Folgenden.

Zuerst aber möchte ich die Quelle meiner Inspiration zu diesem Post nennen: Der Chrisu hat in seinem Blog über Apple geranted  – und er spricht mir aus dem Herzen. Etliches sehe ich ähnlich. Nur: Viele Geräte hatte ich, manche sogar gerne. Und keines würde ich wieder wollen oder heute nochmal kaufen.

Ich steige in den 1990er Jahren ein: Mein erster Mobilcomputer (Laptop traue ich mich nicht zu schreiben) war von Toshiba. Eine Nummer oder Bezeichnung weiß ich nicht mehr, das Gerät hatte eine vollwertige Tastatur und einen LCD-Bildschirm, das Netzteil war fest eingebaut und das ganze Gerät war höllisch schwer. Mein Papa hat es zu dieser Zeit von einem befreundeten Ingenieur geschenkt bekommen und wusste damit wohl auch nichts sinnvolles anzustellen – auf jeden Fall landete das Ding schnell bei mir und setzte Staub an. Diese Kiste war – wie erwähnt – unendlich schwer und staubte so über die Jahre vor sich hin, aber während meiner ersten Praktika habe ich das Ding dann aber doch mit auf Arbeit genommen, weil ich so vor Ort meine Berichte tippen konnte – auch wenn das Gerät selbst damals schon ziemlich veraltet war. Interessanterweise gab es zu genau diesem Computer einen Werbefilm und just diesen Film habe ich auf Youtube wiedergefunden und selbst wenn es mit dem eigentlichen Thema nichts zu tun hat, binde ich hier mal ein:

Den nächsten Rechner habe ich wieder geschenkt bekommen und da sind wir dann schon beim Mac: Es war ein PowerBook 5300ce von 1995, der aber am Ende des ausgehenden Jahrtausends immer noch ein akzeptables Arbeitsgerät darstellte. Ich will jetzt gar nicht zu tief einsteigen, nur sagen, dass sich (abgesehen von den Jahren 2004 bis 2008) immer ein paar Dosen in meinem Besitz befanden, wie auch ein iMac DV 400, ein PowerMac G4 MDD, ein iBook G4, ein MacBook und ein Mac mini. Mit letzterem hatte ich übrigens wahnsinnige Probleme.

Der Umstieg von Win ME und 2000 auf OS X war eine Revolution für mich. Aber der Umstieg von Windows ME zu XP war auch eine Revolution. Eine kleinere – aber gut. OS X hatte mich schnell im Bann: Es sah chic aus und war sehr performant, die Renderingzeiten der alten Kisten mit ihren IBM- bzw. Motorola-CPUs waren zum damaligen Zeitpunkt großartig. Dazu kommt, dass das Design und die Haptik der Geräte wirklich top war.

Und dann kommt noch was dazu, ich will hier ganz ehrlich sein: Damals war ein Mac cool. Und ein Statussymbol. Und Leute, die mit ihrem Computer ernsthaft arbeiten wollten, hatten einen Mac. Sich zur damaligen Zeit nicht um Viren, Würmer und Trojaner kümmern zu müssen, war wirklich eine feine Sache. Der Mac-Besitzer war gefühlt Mitglied in einem elitären Zirkel und wer sein iBook im Kaffeehaus auspackte, erntete neidische Blicke. Ich habe mich natürlich auch ganz toll gefühlt, weil ich zur damaligen Zeit diese wirklich tollen Statussymbolrechner hatte. Und ich will weiterhin ehrlich sein: Ich hätte diese tollen Rechner seinerzeit gar nicht gebraucht, konnte bei weitem nicht das aus ihnen herausholen, was möglich gewesen wäre. Aber ich hatte einfach stylische Macs.

Mein erster iPod war der der dritten Generation. Vierzig GB Musik dabei zu haben, eine weitere Revolution. Dieser iPod war damals – wie heute immer noch alles von Apple – sündhaft teuer und nach einem Jahr kaputt. Und Apple weigerte sich freilich, den iPod zu reparieren, denn nach einem Jahr ist die Gewährleistung vorüber. Schon damals „erpresste“ Apple seine Kunden: Wer eine zweijährige Garantie haben wollte, wie sie eigentlich jeder Elektronikhersteller hierzulande gewährt, muss bei Apple einen ebenfalls sündteuren „Care Protection Plan“ kaufen – ich schüttle heute immer noch den Kopf, dass ich diesen frechen Unsinn seinerzeit kommentarlos hingenommen habe.

Mit dem iPod der dritten Generation, der im Vergleich zu den heute gelieferten Geräten noch robust verarbeitet war, komme ich gleich zum nächsten Problem, zur Hardware: Diese ist immer schlechter geworden. Jedes neue Apple-Gerät, das ich kaufte, war von de Verarbeitung her deutlich minderwertiger als sein Vorgänger. Losgegangen mit den Qualitätsproblemen ist es nach meiner Erfahrung bereits im Jahr 2005. Der Umstieg vom PowerPC-Prozessor zu Intel-Prozessoren markiert für mich ebenfalls einen Punkt, ab den Qualität und Performance der Apple-Produkte merklich nachließen.

Nicht nachgelassen hat indes der Preis. Früher war ich gerne bereit, diesen Preis zu bezahlen, waren doch z.B. die G4-Rechner sehr solide verarbeitet. Man bekam, kaufte man einen Mac, Premium-Hardware. Damit war der Preis zwar immer noch vergleichsweise hoch, es rechnete sich aber durchaus. Inzwischen habe ich MacBooks gesehen, von denen ich mit Fug und Recht behaupten darf, dass sie wesentlich schlechter verarbeitet sind, als Aldi-Laptops. Meine letzten beiden Macs, das MacBook und der Mac mini sind ob der meinen geringen Ansprüchen nicht mehr genügenden Qualität der Hardware – wie auch nicht anders zu erwarten – sang- und klanglos abgeschissen. Ich glaube inzwischen, dass man derzeit bei Apple unterdurchschnittliche Qualität zu Premiumpreisen bekommt – da mache ich nicht mehr mit.

Im Sommer letzten Jahres gingen mir hinsichtlich der Apple-Hardware die Augen auf. Wie es dazu kam, will ich kurz erzählen: Mein Ende 2009 gekaufter Mac mini ging in die Knie – eine Reparatur wäre trotz des an der Performance gemessenen durchaus knackigen Anschaffungspreises unwirtschaftlich gewesen. Da der Mac mini sehr gedrungen mit viel Notebooktechnik gebaut ist (was ebenso für die iMacs gilt), ist eine Selbstreparatur auch nicht jedermanns Sache. Meine Idee war also, mir wieder einen großen PowerMac zu kaufen – sollte da etwas kaputt gehen, dann könnte ich in vielen Fällen immerhin selbst Hand anlegen. Der Preis war schnell ermittelt – 2100,- hätte der Rechner in halbwegs vernünftiger Ausstattung gekostet (mit viiiiieeeeeeel Luft nach oben). Dass es aber keinen PowerMac diesseits der 1500-Euro-Marke gibt, hat mich dann doch erstaunt. Nur zum Spaß guckte ich, was ein ähnlich ausgestatteter Windwos-PC kosten sollte – wirklich nur zum Spaß. Was ich da sehen musste, ließ mir quasi das Blut in den Adern gefrieren: Für einen nahezu gleichwertigen Rechner inklusive Windows 7 Professional von Lenovo wurden von einem Onlinehändler weniger als 500,- Euro aufgerufen. Ihr könnt mein Erstaunen mit Sicherheit teilen: Ein Rechner mit mindestens gleichwertiger Performance von einem namhaften Hersteller sollte deutlich weniger als ein Drittel des Apple-Preises kosten? Ich habe ausführlich nach dem Haken gesucht und keinen gefunden. Ich habe dann dieses „ThinkCentre“ bestellt – abends um 17 Uhr, tags darauf stand der Computer um 9 Uhr unter meinem Schreibtisch – bei Apple hätte ich seinerzeit 8 Werktage gewartet.

Das Ding tut für kleines Geld bis heute, was ich will. Warum ich nicht früher zu Windows zurückgefunden habe, liegt an Vista. Ich war auf Arbeit mit dem im Grunde stabilen aber eben auch angestaubten XP recht zufrieden. Auf Vista habe ich mich aus reiner Neugier gefreut, war dann aber, als ich das erste Mal an einem solchen Gerät saß, so enttäuscht, dass ich Windows nicht als Alternative auf dem Schirm behielt und kurzerhand wieder einen Mac kaufte.

Nun habe ich Windows 7, auf einem Rechner Home, auf dem anderen Professional. Mir wurde auch schon zu Ultimate geraten, ich wüsste aber den Mehrwert für mich nicht zu benennen.

Als ich von OS 10.4.x auf Win 7 umgestiegen bin, hatte ich arge Vorbehalte – zu Unrecht. Windows ist heute performanter denn je. Windows präsentiert sich logisch und ist bedienbar. Man kann Windows sogar sehen. Für das Geld, das der langsamste Einsteiger-Mac kostet, bekommt der Windows-Nutzer einen i7-Rechner mit allen Features. Nach einem Jahr kann ich sagen: Ich vermisse Apple nicht. Ich habe schnellere Rechner mit besserer Hardware. Ich stehe nicht mehr unter der Knute eines Konzerns, der immer dreckiger mit seinen Kunden umgeht – ich werde nicht mehr von Apple verarscht.

Das Ganze hat natürlich seinen Preis: Ich bin mit einem Windows-PC freilich tierisch uncool. Hipster, SEO-Berater oder „was mit Medien“-Fuzzi wird man mit so einer Dose freilich nicht. Die richtige Sexiness hat nur der Mac-Besitzer, schon klar. Wider Erwarten ist mein Ego noch ok – aber wer weiß, wie lange das ohne Apple-Karma noch geht.

Obwohl: Manchmal erwische ich mich, wie ich fast etwas spöttisch auf Mac-Fanboys herabblicke. Dabei war ich doch selber mal einer. Klar kann man mit jetzt Arroganz vorwerfen. I used Macs before it was cool. Aber diese kognitive Dissonanz hält selbst der härteste Fanboy nicht aus. Auf der einen Seite bietet OS X gegen Windows 7 in Bestfall noch einen Designvorteil, auf der anderen Seite ist Apple als Konzern eigentlich nicht mehr akzeptabel: Auf der einen Seite steht da diese hochgradig lächerliche Patenttrollerei. Diese Nummer mit Samsung ist nicht mehr lächerlich sondern absurd. Richtig übel ist zudem, dass man mit iPhone und iPad nur Software benutrzen darf, die auch Apple gefällt. Wer heute sein iPhone aus der Tasche zieht, zeigt also, dass er sich gerne bevormunden lässt – herzlichen Glückwunsch. Interessant ist im Kontext dessen besonders, dass diese App-Nummer mehr und mehr auch auf dem Desktop raumgreift. Dafür bin ich mir wirklich zu schade.

Die Hardware von Apple ist billige Massenware, die Software im Kern schon gut abgehangen und den Service darf man wohl getrost als nicht so besonders bezeichnen – da fragt man sich, warum Apple-Produkte so teuer sind. Ich nehme an, dass man hier das Marketing blecht. Das ist für den Hipster schon in Ordnung so. Für mich nicht.

Wende ich also den Blick von meinen vergangenen Fehltritten und dem Fallobst hin zu Windows. Microsoft war ja dereinst unser innig gehassliebter Gegner, den es bis aufs Messer zu „bekämpfen“ galt. Gates, der reichste Mann der Welt, unantastbar und unsympathisch – ein Milchbubi. Steve Ballmer war so eine Art Reiner Callmund der Ammi-IT und machte eine nicht immer so gute Figur… Mit dem virtuellen Holzhammer versuchte Microsoft uns seinerzeit den Internet Explorer, ein Einfallstor für allerhand digitales Ungeziefer, zu verplätten. Und was auf unseren Rechnern lief, wurde fleißig nach Redmont, CA „heimtelefoniert“, es sei denn, man stopfte mit Software von Schlage eines „XP AntiSpy“ seinem eigenen Rechner in dieser Hinsicht das Maul. Und bei meinen Windowskisten hatte ich immer eine Aufwand: Zone Alarm aktualisieren, Virenscanner aktualisieren, immer wieder Treiber aktualisieren und trotzdem wurde der Rechner immer langsamer und langsamer. Wer Software öfter mal in der Demoversion ausprobierte, war halbjährlich gezwungen, die Kiste neu aufzusetzen, wollte er nicht davor verschimmeln.

Microsoft zu bashen war einfach in, der Fairness halber muss aber auch gesagt sein, dass Microsoft es einem nicht besonders schwer gemacht hat. Kurz nach dem Umstieg habe ich Windows auch nicht vermisst, das spricht bei genauerer Betrachtung auch für OS X – aber hin und wieder sind mir dann doch die ein oder anderen Unzulänglichkeiten aufgefallen. Mit dem Umstieg auf die Intel-Architektur ging eine Gefühl der Stabilität verloren, in der ganzen langen Zeit, in der ich Macs nutzte, schlug ich mich mit üsseligen Audioeditoren herum, weil es z.B. Sound Forge nicht für den Mac gab und Digas auch nicht. Vom Mac zu streamen war dann auch eine ziemliche Scheiße. Eine vernünftige Playout-Software am Mac? Zumindest damals nicht vorhanden. Irgendwann kaufte ich mir ein Vista-Gerät – und zwar sofort, als Vista herauskam. Ich wollte so den Mac-Frust hinsichtlich fehlender vernünftiger Enterprise-Software entgehen. Das klappte aber nicht, denn Vista war noch übler als der Mac. In meiner Erinnerung ist von Vista eigentlich nur geblieben, dass dieses OS Ressourcen gefressen hat wie Sau und ziemlich oft wegschmierte. Allerdings: Das war halt bei mir so, möglicherweise war mein System auch gehörig misskonfiguriert (wozu Vista ebenfalls einlud).

Wie vorhin schon gesagt: Ich habe mir von Windows 7 nicht viel erwartet – bin aber über einige Punkte echt begeistert: Zuerst muss ich hier die gute Abwärtskompatibilität nenen: Ich habe noch einige Software aus alten Tagen, die tut, was ich will. Bis zu XP ist das alles abwärtskompatibel und zwar performant! Da mag im Hintergrund eine Kompatibilitätsmaschinerie anspringen – der User kriegt davon nichts mit. Das ist schon extrem gut. Zum Vergleich: Ich konnte meine Macs nie auf Lion updaten, weil ich sonst meine alten universal binary-Programme nicht mehr hätte nutzen können. Desweiteren gefällt mir das Prinzip der Bibliotheken gut, die Suche bei Windows hat inzwischen eine akzeptable Geschwindigkeit (hier war der Mac immer besser!) und auch die Vorschaufunktionen im Explorer sind inzwischen richtig gut. Ich hatte früher Windows als ein System in Erinnerung, das schon bei der Erstinstallation mit Zeug wie Windows Mail, dem Movie Maker und anderem Krempel überfrachtet war. Hier nimmt sich Win 7 schlanker aus, das honoriere ich.

Was weiterhin sehr sehr gut ist: Ältere Hardware läuft flott mit 7, 64-Bit-Geräte rocken geschwindigkeitsmäßig die Sau. Ich bekomme also für einen älteren Rechner, der seinen Job durchaus noch tut, ein modernes System und nutze mit dem selben System die Leistung neuer Geräte voll aus. Und so kann ich dank 7 auch mit eher spärlicher Neu-Hardware gut arbeiten. Beispiel gefällig? Netbooks – sofern sie kein Vermögen kosten sollen, sind mit ihren kleinen Atom-Prozessorchen unter Vista nie sinnvoll benutzbar gewesen und selbst bei XP war der Spaß begrenzt. Wer sauber mit einem solchen 1,6 GHz-Atom-Dingli arbeiten will, braucht entweder Linux – oder 7. Ich sag jetzt mal ganz frech: Netbooks machen erst seit 7 Spaß und man ist damit um Welten produktiver als mit einem Tablet.

Freilich gibts auch Sachen die nicht so schön sind – zuerst einmal gehört dazu, dass im Schnitt 30 Euro im Jahr für die Lizenz des Virenscanners ausgebe. Der von Windows selbst soll gar nicht mal so übel sein, aber irgendwie will ich doch dem All-inclusive-Schutzpaket mehr vertrauen und das Gepopuppe der Freewarescanner würde mir zu sehr auf den Zeiger gehen. Auch das Java, Flash und besonders Acrobat gefühlt im Stundentakt um Updates betteln, nervt. Über Adobe Air habe ich mir schon die Platze geärgert. Aber da kann im engeren Sinne Windows nichts dafür.

Gewonnen habe ich aber für wenig Geld eine schnelle Maschine die tut, was sie soll. Ich bin also mit Windows zufrieden. Und zwar wider Erwarten.

Zum Schluss dieser sehr subjektiven Betrachtung, die sich dann irgendwie doch zu einem Rant gegen die Fallobstfabrik ausgewachsen hat, will ich auf das Thema noch ein wenig globaler schauen: Zuerst einmal finde ich diese Patentnummer – besonders die Causa Apple vs. Samsung hochgradig peinlich. Mich wundert nun nicht, dass Apple in Ammiland den Prozess gegen Samsung gewonnen hat – wer sich daüber ernsthaft gewundert hat, der möchte jetzt einfach mal das Wort „Protektionismus“ googeln und weiß dann im Groben Bescheid. Und mit der Realität hat das Urteil auch nichts zu tun, denn wer das zweier Galaxy von einem iPhone 4 nicht unterschieden kriegt, merkt auch den Unterschied zwischen einem Cheseburger und einem Mauerziegel nimmer.

Nebenefekt ist, dass Apple bei mir im Ansehen noch tiefer gesunken ist. Wir haben uns daran gewöhnt, dass Innovationen irgendwann Modifikationen erfahren und durch Mitbewerber in der Fläche verfügbar werden. Und dann kommen eben neue Innovationen. So funktioniert Fortschritt eben. Aus meiner Perspektibe wurde hier auch nicht nachgefeilt sondern sich an gängig gewordener Technologie orientiert. Dagegen zu klagen wird auf Dauer nichts bringen – zumal Apple sich ja durch unterschiedliche Märkte klagt. Klar ist auch: Mit Samsung ist ein Hardwarehersteller ins Fadenkreuz geraten, der zeigen konnte, dass sich mit Andoid massenkompatible Geräte bauen lassen. Ziel ist m.E. nicht Samsung sondern Google. Nur derzeit kommt Apple gegen Google nicht an. Und selbst wenn – das wirkliche Geschäft wird ja doch in China gemacht. Was bedeutet das? In meinen Augen muss Apple jetzt mit iPhone und iPad verdienen, was verdienbar ist, denn in wenigen Jahren ist das iPhone und iPad nicht mehr interessant. Android hat das Rennen ja schon jetzt gemacht – in extrem kurzer Zeit! Erinnert ihr Euch noch an das erste Google-Telefon? Das kam am 2. Februar 2009! Das sind ziemlich genau dreieinhalb Jahre, die Android gebraucht hat, um iOS haushoch zu knacken. Berücksichtigt man im diesem Zusammenhang noch die Lebensdauer der Produkte und die Marktsättigung und bezieht in die Betrachtung mit ein, dass das iPhone wegen seiner massenhaften Verbreitung auch als Statussymbol nicht mehr so recht taugt, bekommt man schnell das Gefühl, dass Apple jetzt – gegenwärtig – das Geld verdienen muss. Über Bande hat das freilich auch Auswirkungen auf Microsoft – die verdienen nämlich pro Android-Lizenz etwa 5 Dollar (Quelle: DRadio Wissen). Mit jedem verlorenen Prozent Marktanteil nährt Apple seine zwei wichtigsten Konkurrenten.

Apple-Chef Steve Jobs hat vor seinem Tod alles daran gesetzt, das konkurrierende Smartphone-Betriebssystem Android von Google zu „vernichten“. Er wollte einen „Atomkrieg“ dagegen führen. (Quelle)

Mich wundert das nicht. Nur: Mit der Politik, die Jobs fuhr und die jetzt noch gefahren wird, kann seitens Apple nicht mehr gewonnen werden. Ich bin überzeugt, dass man das weiß und daher im Endeffekt nur versucht, Verkaufsverbote zu erwirken um ad hoc das Geld zu machen, das (noch) zu machen ist. Eine langfristige Stategie kann ich nicht erkennen. Die Apple-Patenttrollerei könnte aber auch einen Imageschaden bedeuten, denn wenn Samsug-Telefone dem iPhone in der Tat so ähnlich seien wie behauptet, dann müsste ich ja bescheuert sein, um bei Apple für ein ähnliches Telefon viel Geld auszugeben – die Katze beißt sich in den eigenen Schwanz.

Wer also sein Geld mit Apple-Aktien verbrennen will – nur zu. Mich würde es jedenfalls nicht wundern, wenn Apple das zweite Facebook wird.

Neben iOS und Android ist ja Win 7 Mobile das dritte große System auf dem Handy – aber auch hier will ich mich nicht zu Jubelstürmen hinreißen lassen. Der Kardinalsfehler im Mobilfunkmarkt wurde in meinen Augen von Nokia begangen – indem man sich entschied, sowohl Symbian wie auch Meego nicht mehr weiterzuentwickeln.

Zum Thema Tablet nur einige wenige Gedanken:  Die Funktionen, die sich auf so einem Gerät sinnvoll nutzen lassen, sind limitiert. Es bedarf schon heute kaum noch schnellerer Hardware, surfen und Video schauen funktioniert ja. Vielleich werden in Zukunft die Grafikchips dieser Geräteklasse noch besser, das würden die Gamer sicherlich dankbar annehmen. Vielleicht kommt in den nächsten Jahren 3D aufs Tablet (obwohl aufgrund der Größe da der Spaßfaktor übersichtlich bleiben dürfte). Das war es dann aber auch. Insofern ist man auch hier weder auf „Innovationen“ von Apple oder Microsoft angewiesen – Android wird auch hier das Rennen machen.

Nicht dass jetzt der Eindruck entstünde, ich wäre ein Android-Fanboy – wirklich nicht. Ich finde Android per se ganz chic und gut benutzbar – sehe die tiefe Verquickung mit Google jedoch als ein wesentliches Argument, um um Android einen Bogen zu machen. Einige Kompromisse wird es aber geben müssen, denn recht viel mehr Auswahl gibt es nicht. Ich bin zwar sehr auf bada 3.0 gespannt – aber ich rechne mir da keine großen Chancen aus – zuviele App-Entwickler unterstützen bada nicht. Ich kann mir gut vorstellen, dass sich bada in der Nische der Einsteigersmartphones hält – nur da will ich persönlich halt nicht hin, eher würde ich mir ein gebrauchtes Telefon kaufen.

Sollte ich diesen Rant jetzt mit dem Rat beschließen, sich Microsoft zuzuwenden? Nein, pauschal kann man das nicht sagen und hinsichtlich der derzeitigen Entwicklung sollte jeder die hier viel zu kurz gekommene Alternative Linux in seinen uunterschiedlichen Ausführungen und Distributionen ansehen. Microsoft ist mit seiner „Heimtelefonierpolitik“ nämlich auch nicht so zivil unterwegs, wie man annehmen möchte. Trotzdem: Wer sich zu Linux nicht durchringen kann (was ich verstehe), der bekommt das „Fehlverhalten“ von Wndows immerhin noch regelhaft in den Griff. Bei den Apple-Geräten ist man da eher verloren.

SIII gewinnen.

*bing. Reklame* androidnext wird ein Jahr alt und verlost zu diesen Anlass unter anderem drei Galaxy S III, ein Gerät, auf das ich ja schon seit Erscheinen scharf bin. Um teilzunehmen, muss man Namen und Mailadresse hinterlassen, weiterhin kann man virtuelle Lose sammeln, indem man über die Aktion bloggt – was ich hiermit mal eben gemacht habe.

Auch wenn es meine statistischen Chancen schmälert, ein SIII zu gewinnen – bekommen kann man es mit Glück auf http://www.androidnext.de/gewinnspiel. Mitmachen.

Die Biergarten-Tester.

Das Wetter ist sonnig und warm und der anbrechende August bringt nicht selten freie Zeit in Form von Urlaub mit sich: Den „Daheimgebliebenen“ zieht es ins Freie und wenn sich der Zug ins Freie dann auch noch mit Schäuferla, einem Braten – auf jeden Fall aber einem Kristallweizen – krönen lässt: Dann ist alles perfekt. Vielleicht.

Damit ein Abend beschaulich im Biergarten ausklingen darf und alles perfekt wird,. gibt es die Biergarten-Tester aus Fürth. Die Biergartentester sind der bekennende Kristallweizenfan Michael und Andy. Und Ihre Mission ist einfach auf den Punkt zu bringen: Geh in einen Biergarten und berichte darüber.

Und so findet der Biergarten-interessierte Franke (und welcher Franke ist das nicht?) im Blog Biergarten-Tester, wonach es ihn wirklich sehnt – Besprechungen der bekannten Gärten und die Preisgabe des ein-oder-anderen Geheimtipps. Das aber ist längst nicht alles. Welche Brauerei noch das immer seltener werdende Kristallweizen bereit hält, wissen die Biergarten-Tester ebenso wie die die besten Brunch-Locations. Und damit man auch garantiert zum gewünschten Gastgarten findet, halten die Autoren auch eine auf Google-Maps basierende Biergarten-Landkarte bereit.

Mein Rat: Immer feste klicken, in den Reader stopfen oder hier aus der Blogroll fischen!

1 2 3 4 5 21