blog.fohrn.com

Gerücht: RTL will komplett aus DVB-T aussteigen.

Weil mir eine vernünftige Verifizierung nicht gelingen wollte, setze ich diesem Post das Wort“ Gerücht“ ganz bedacht voran – aber wenn da etwas dran wäre, dann sollte es nicht wundern: Heise geht davon aus, dass die RTL-Gruppe mit ihren Sendern komplett aus DVB-T aussteigt.

Wir Nürnberger kennen das ja schon, schließlich hat RTL die Verbreitung über DVB-T im Großraum bereits Ende 2010 eingestellt. Ob das nun ein Testballon war oder nicht, vermag ich nicht zu sagen.

Böse Zungen behaupten ja, dass der Ausstieg RTLs aus der DVB-T-Verbreitung in der Metropolregion dem hiesigen Bildungsniveau durchaus zuträglich gewesen sei, aber ich habe – ihr wisst das – keine böse Zunge. Und obwohl ich selbst RTL im DVB-T nicht vermisse, wäre es für den Verbreitungsweg doch ein mindestens bedeutsames Ereignis, wenn sich RTL nun komplett aus der terrestrischen Verbreitung zurückzöge.

Interessant ist vor allem die Rechnung, die bei heise aufgestellt wird: Knappe 5% Zuschauer rechtfertigen nicht die Verbreitungskosten (auch wenn diese deutlich höher sind als bei der Sattelitenübertragung)? Verdient man heute im Privatfernsehen so schlecht? Das sind für mich keine rhetorischen Fragen – früher ist man selbstredend davon ausgegangen, dass ein gesetzter Privatsender die technischen Verbreitungskosten locker einspielt… Bei der Zuschauerzahl von RTL zur Prime Time sind 4,8% doch echt ordentlich! Gehen wir davon aus, dass eine TOP-Sendung 4 Millionen Zuschauer erreicht – dann entfielen auf DVB-T immerhin 192000 Zuschauer. Da würden manche Sender sich die Pfoten schlecken!

Und so drängt sich mir in der Tat die Frage auf, ob RTL nicht doch seine Zuschauer in Verbreitungskanäle zwingen will, bei denen neben der Free-TV-Versorgung in SD-Auflösung auch hochauflösende Pay-Angebote gebucht werden können (was derzeit schon rein technisch mit DVB-T nicht möglich ist, DVB-T2 würde ein solches Szenario aber erlauben). Auch das würde einer gewissen Logik gehorchen: Um die Kartellstraf von RTL und Pro 7/Sat 1 wissen wir ja (Quelle) und auch um den Umstand, dass herausgehandelt wurde, dass die Hauptsender in SD-Auflösung frei empfangbar bleiben. Der Rückzug aus der terrestrischen Verbreitung würde das m:E. aber ein wenig konterkarieren. Bei den großen Privatsendern sehe ich immer wieder Werbung für HD+, die bei den DVB-T-Zuschauern verpuffen wird. Ich nehme daher schon an, dass es im Interesse der Sender liegt, möglichst viele Zuschauer zu Pay-TV-Kunden zu machen.

Persönlich gefallen mir die neuen digitalen terrestrischen Verbreitungswege DVB-T und DAB+ sehr gut. Mit wenig technischem Aufwand und zu guten Preisen lässt sich auf diesem Weg eine gute Auswahl senden, die ohne Limitationen und unabhängig von aufwändigen Installationen empfangen werden kann. Die Attraktivität dieser Technik hängt weniger von der technischen Qualität ab, interessant ist die Auswahl, die geboten wird. Und – auch wenn es dem Bildungsbürger nicht schmeckt – RTL ist ein Zieher. Wenn RTL weg ist, verabschieden sich Leute von der Technik – was der jeweiligen Plattform schadet. Deshalb fände ich es bedauerlich, wenn RTL die Verbreitung über DVB-T aufgibt.

Zu den kursierenden Zahlen: Zweit- und Drittgeräte werden gerne über DVB-T betrieben, ob sie in den jeweiligen Statistiken Berücksichtigung finden, ist nicht immer klar. Ich denke, dass es um DVB-T gar nicht so schlecht bestellt ist – wie sich allerdings die Akzeptanz gestaltet, wenn die Privatsender auf die Verbreitung verzichten, wagt sich auch Siegfried Schneider (CSU, Vorsitzender der BLM)  in einem Gastbeitrag in der InfoSat nicht auszudenken.

Ich selbst bin sowohl von DVB-T wie auch DAB+ großer Freund, denn diese Übertragungsart bringt eine gute Programmversorgung mit sich ohne den Nutzer zu aufwändigen Installationen zu zwingen. der Mobilitätsaspekt ist auch wichtig, essentieller ist er aber definitiv beim Hörfunk. Der Ausstieg von RTL senkt die Akzeptanz. Den Verweis auf die Kosten und die Lösung mit DVB-T2 ist m.E. nicht sinnvoll realisierbar. Es war seinerzeit zumutbar, dass sich die Zuschauer Set-Top-Boxen kaufen mussten, als die analoge Verbreitung abgeschaltet wurde. Nun haben aber alle die Boxen bzw. die LCD-Geräte mit integriertem Tuner. Da DVB-T2 zum jetzt verwendeten System nicht abwärtskompatibel ist und praktisch nur begrenzt HD-fähig ist, schrumpft aber der Mehrwert für den Zuschauer. Nur um Willen der möglichen Pay-TV-Verbreitung und der Kostenersparnis für die Privatanbieter rentiert der Umstieg nicht und wird dem Zuschauer auch nicht vermittelbar sein.

Powerline-Petition

Als DXer – also einen Kurzwellenradiohörer, der Spaß daran hat, möglichst weit entfernte Radiosender einzufangen – wollte ich mich nun nicht bezeichnen, aber ab und an begebe ich mich auch auf Wellenjagd. Dieses Interesse begleitet mich eigentlich schon seit frühester Jugend und Spaß an der Sache habe ich im Prinzip immer noch.

Um in der Stadt einen guten Kurzwellenempfang zu haben, muss man inzwischen aber einen ordentlichen Aufwand betreiben und gerade in Mehrfamilien- bzw. Mietshäusern ist ein sauberer Empfang der Kurzwelle immer schwieriger. Das war nicht immer so, ich würde sagen, dass der Empfang ab 2003 immer schlechter geworden ist. Der dahinterstehende Grund ist leicht ermittelt: Plasmafernseher, WLAN und DECT-Telefone sind omnipräsent und senden einen „Grundstörnebel“, der sich durchaus potenzieren kann. Für den Kurzwellenempfang besonders kritisch ist aber die Powerline-Technik. Grob holzschnittartig passiert dabei folgendes: Auf das Stromnetz in der Wohnung wird ein Trägersignal moduliert, mit dem sich dann Daten austauschen lassen. Powerline-Technik kommt im Privathaushalt immer dann zum Einsatz, wenn man weder mit WLAN arbeiten will oder kann und auch keine LAN-Kabel ziehen will. Dann steckt man einfach zwei „Adapter“ in die Steckdose und das Stromnetz wird zusätzlich zur Energieversorgung auch zum Netzwerkkabel.

Mit dieser Technik bin ich zuerst im Jahr 2001 in Berührung gekommen. Damals ging es aber nicht darum, innerhalb einer Wohnung Powerline zu nutzen sondern es ging darum, über das Stromnetz DSL auch in Gegenden anbieten zu können, wo es keine DSL-Versorgung über das (kupferne) Telefonnetz gab. Wirklich durchgesetzt hat sich das nie – einfach deshalb, weil man den Träger nicht beliebig stark in das Stromnetz blasen kann. Der Stromversorgung täte ein sehr starker Träger erstmal nix – aber der Träger würde mit steigender Intensität ganz schnell einen Störteppich „ausrollen“. Wenn man sich mal diverse Elektroinstallationen in Wohnungen ansieht, kann man schnell ein Gefühl dafür bekommen, dass da dann einige lustige Ringantennen ordentlicher Größe für das Trägersignal entstehen. Die Sache ist deshalb so kritisch, weil sich das aufmodulierte Signal in einem Range von etwa 2 MHz bis 30 MHz bewegt. Das berühmte 49-Meter-Band, in dem schon unsere Vorfahren Radio Luxemburg und ähnliches zu hören pflegten, reicht von 5900 kHz bis 6200 kHz – also von 5,9 MHz bis 6,2 MHz – und somit inmitten des Frequenzspektrums, das von der Powerline-Communication (PLC) genutzt wird.

Im Moment funktioniert das mit dem Kurzwellenempfang und Powerline noch in etwa. Allerdings sollte man schon heute bei entsprechender Lage zum Fernempfang über eine bessere externe Antenne verfügen. In Zukunft könnte diese Funktionfähigkeit aber verloren gehen, und zwar, wenn genau das eintritt, wogegen sich eine Petition wendet: Wenn die Grenzwerte der Intensität des aufmodulierten Trägers nach oben korrigiert werden, dann ist im Bereich der Kurzwelle ohne heftigen Aufwand nichts mehr zu wollen (das wird für Radiohörer und Funkamateure gleichermaßen gelten).

Nach Recherchen des Amateurfunkers Karl Fischer, der über den Hintergrund einen lesenswerten Artikel abgefasst hat, gibt es gar eine Herstellerlobby der PLC-Technik, die die Anhebung des Grenzwertes vorantreibt. Dabei gibt es sogar schlüssige Argumente, die für eine Senkung der Normen hochfrequenter Störstrahlung werben, da sich diese ja summiert. Ich wollte nun nicht soweit gehen, zu behaupten, dass Strahlung dieser Art gesundheitliche Nachteile mit sich führen würde, wie manch esoterisch angehauchter Zeitgenosse möglicherwise bei diesem Betrachtungsgegenstand annehmen wollte, ich denke aber trotzem, dass das Maß an „Abfallstrahlung“ doch so gering wie möglich gehalten werden sollte. Das dem heute nicht mehr so ist, liegt im Spar- und Optimierungszwang der Hersteller: Eine gute Schirmung kostet Geld – und weil wir unsere Sachen immer billiger haben wollen, wird genau an dieser für die Funktion vermeintlich nicht wichtigen Schirmung gerne gespart. Kabel in der Hausinstallation sind in der Regel eh nicht geschirmt… Ein Verhindern der Anhebung der Grenzwerte für die Intensität der Trägermodulation in PLC ist also im Interesse aller.

Und daher gibt es eine Petition gegen die Anhebung der Grenzwerte wie in FINAL DRAFT FprEN 59561-1 beschrieben.

Ich rufe Euch, liebe Leser, daher alle auf, diese Petition mitzuzeichnen!

Zur Petition geht es hier lang!

Ich bitte Euch, jetzt gleich zu unterschreiben, denn die Petition läuft nur noch 9 Tage und bislang wurde „nur“ von 7.120 Personen unterschrieben. Aber: Jede Stimme für die Sache zählt!

iPhone5 – einen Tag nach der Keynote.

Obwohl ich kein Apple-Fan bin, habe ich das „Event“ freilich gestern auch mitverfolgt – per Ticker und auf Twitter. Und ich muss mir ob der Reaktionen so mancher Fanboys schon echt ans Hirn greifen. In meiner Timeline wurde gestern gefeiert, dass das iPhone5 tatsächlich iPhnoe5 heißt. Nicht Euer Ernst, oder? Aber darüber sehe ich mal hinweg – wer sich freuen will, der freue sich. Nicht hinwegsehen kann ich über den Preis: Ab (!) 679,- Euro wird das iPhone5 auf apple.de angekündigt. Wer bei dem Gerät ohne Speichererweiterungsmöglichkeit 64GB habe will, muss knapp 900 Euro anlegen (!!). Müßg, zu sagen, dass es ähnlich ausgestattete Geräte beim Mitbewerb für 300,- bis max. 500,- Euro gibt.

Let´s talk about specs…

Von der Hardware her ist nichts weltbewegendes passiert. Das neue Apple-Telefon bekommt einen neuen Prozessor. Der soll schneller sein, als der alte, was nach meinem Dafürhalten kein Erfolg ist sondern eine längst überfällige Notwendigkeit. Und mit einem schnellen Prozessor kann man dann alles das tun, was Android seit einem Jahr kann: Zu dunkel geratene Fotos umrendern zum Beispiel. Wo wir gerade bei Fotos sind: Die Kamera des neuen iPhnoes löst 8 Megapixel auf – das ist genau so viel wie die des alten iPhones und war vor zwei Jahren bei Smartphoes solider Stand der Technik. Und auch das 4″-Display ist keine Revolution: Das Display ist genau so breit wie das des alten iPhones – nur etwas länger. Wo da der Sinn sein soll, erschließt sich mir nicht (Eine Anekdote am Rande: Wir waren am vergangenen Freitag bei Saturn in Fürth und haben uns spaßeshalber mal Telefone angesehen. Da lagen Handys aller Hersteller und freilich auch ein iPhone (4S). Fazit: Das iPhone hat im Vergleich zum Rest ein wirklich erschreckend kleines Display). Ok, das Display bleibt also klein.

Interessant ist also nur noch LTE – das ist zwar nicht überall verfügbar, zu hoffen steht aber, dass der Ausbau schnell voranschreitet. Ich sehe LTE bei der vorhandenen Abdeckung derzeit eher als Zukunftsinvestition denn als sinnvolles Feature – aber warum nicht? Dumm nur, dass das mit dem LTE hierzulande wohl nur mit der Telekom gehen soll. Das mit dem LTE ist für mich derzeit nicht kaufentscheidend. Ich denke dass so ein Gerät mach durchschnittlich 2-3 Jahren ausgetauscht wird und dann könnte LTE so gut ausgebaut sein, dass es interessant wird. So lange käme ich mit dem Durchsatz von HSDPA prima hin. Wenn es im mobilen Internet mal wieder länger dauert, ist in der Regel ja nicht der Übertragungsstandard sondern der Provider schuld. Das wird sich auch mit LTE nicht grundsätzlich ändern.

Was das iPhome nicht hat: Aktuelles Bluetooth (4.0), NFC und einen vernünftigen Stromanschluss.

Letzteres finde ich übrigens ärgerlich: Nach EU-Initiative bekommen sukzessive alle Handys nun Micro-USB als Standard zur Stromzufuhr und in aller Regel auch zum Datenaustausch. Das Feature hier ist, dass man sich einmal ein entsprechendes Ladekabel für daheim, das Auto, das Ferienhäuschen… zulegt, dazu noch die entsprechenden Datenkabel und man damit viele Jahre zufrieden sein kann und ein einzelnes Kabel vielleicht dann tauscht, wenn es mal kaputt ist. Das schont die Umwelt und theoretisch spart man sogar Geld, wenn nicht mehr jedem Handy ein Netzteil beiliegt. Ich finde das eine Feine Sache. Und keine Fragen mehr á la „Hat hierjemand zufällig ein Ladegerät für Motorola dabei?“

Apple ist hier natürlich mal wieder Spielverderber: Einen neuen Anschluss hat man sich einfallen lassen und das Ding ist natürlich mal wieder proprietär. Es kommt noch dicker: Wer seine bisherigen Apple-Kabel weiternutzen will, braucht einen Adapter, der knappe 30,- Euro kosten soll.

Und dann kommt jetzt also Nano-SIM. Man braucht eine neue SIM-Karte – schön ist das nicht.

Das Handy ist nun in einer Art Alubüchse untergebracht, der hintere Glasboden ist weg. Das ist ein kleiner Fortschritt, ändert aber nichts daran, dass die Vorderseite immer noch aus Glas ist. Ich bin ja der Meinung, dass Glas nicht zwingend das bestgewählte Material für einen Gegenstand ist, der mal zu Boden fallen kann.

Softwaremäßig…

…hat sich eigentlich nichts bewegendes getan – nur kann ich mich des Eindrucks nicht erwehren, dass Apple nun mit Google abrechnet. Zur Navigation wird  kein Goole-Maps mehr verwendet und die  vorinstallierte Youtube-Funktion ist auch runtergeworfen worden. Ersteres muss Apple mit sich selbst ausmachen, letzteres ist eine entlarvend lächerliche Aktion: YouTube ist DAS Videoportal (ob das nun gut ist oder nicht sei einmal dahingestellt). Wer das iPhone5 nutzt wird sich früher oder später die kostenlose YouTube-App nachinstallieren. Sie von iPhone herunterzunehmen zeigt meiner Meinung nur, wie tief der Graben zwischen Apple und Google ist und wie unsouverän Apple damit umgeht. Dasauf dem Buckel des Kunden zu tun – unschön und unangemessen.

Und: Mit der Kamera lassen sich nun auch Panoramafotos schießen. Das kündigt Apple voller Enthusiasmus an und die Jubelperser tun wie geheißen – sie jubeln. Das meine jahralte Hunderteurogroßmarktbillodigicam Panoramafotos schießt – nicht der Rede wert. Also, was uns Apple da als Feature verkaufen will, halte ich doch für sehr fragwürdig.

Mich wundert nicht, dass die Kommentare zum neuen iPhone mehrheitlich verhalten ausfielen. Auch ich hätte mir mehr gewünscht und in der Tat mehr erwartet. Vor noch nicht allzulanger Zeit wardie Innovationskraft von Apple ungebrochen und sie trieben die gesamte Konkurrenz vor sich her. Heute scheint es mir, alsversuche Apple verzweifelt, schritthalten zu können. Vergeblich, denn mit dem Lumia 920 oder dem neuen Note kann das iPhone freilich nicht mithalten.

Was bedeutet das? Ich gehe davon aus, dass der Hardware in der Zukunft zunehmend weniger Bedeutung zukommt, denn die Specs sind in der Regel recht ähnlich. Die technischen Unterschiede zwischen den Flaggschiffen von Samsung, Huawei, Nokia und Apple sind marginal, Apple hat derzeit das Problem, sich hardwaremäßig nicht so gut behaupten zu können. Interessant wird eher, welches Betriebssystem auf welchem Telefon läuft. Damit wird Apple aber mehr und mehr in die Ecke gedrängt – denn den Markt hat Android. Für Win 8 Phone rechnen ich mir keine großen Chancen aus. Es sollte mich nicht wundern, wenn Phone 8 in einer Nische wie Bada bleibt, hier steht man vor dem selben Problem wie Apple: Nur mit Nokia und HTC wird das Rennen nicht zu machen sein.

Warum kein Innovation mehr von Apple?

Zuerst einmal, weil ein Smartphone zu unserem Alltag gehört und per se nicht revolutionär ist. Das revolutionäre bei Apples Telefonen war ja nie die eigentliche Technik (da blieb man stets weit unterhalb des wirtschaftlich möglichen, eine iPhone war nie ein technisches TOP-Gerät, das erste und zweite konnte zum Beispiel kein UMTS obwohl das 2007 bereits gut abgehangene Technik war), das revolutionäre war immer eine extrem einfache und gute Mensch-Maschine-Schnittstelle. Beispiele gefällig? Das erste iPhone brachte einen benutzbaren Touchscreen mit sich – die Konkurrenz kannte nur resistive Screens, die am besten mit einem Stylus bedient werden wollten – Apple aber kam auf die glänzende Idee, den Stylus überflüssig zu machen. Oder Siri: Spracherkennung ist für sich genommen nichts Neues, Anfang des Jahrtausends sollte mein Siemens-Telefon durch Sprachsteuerung Kontakte aus dem Telefonbuch anrufen – was nicht klappte. 2003 experimentierte ich mit Daniel unter Windows mit Spracherkennung, was nur dann zu leidlich brauchbaren Ergebnissen führte, wenn man ein sehr ordentliches Mikrofon und das passende Mischpult zum Aus- und Gegensteuern sein Eigen nannte. Apple brachte Spracherkennung in benutzbar aufs Telefon – einwandfrei.

Nun aber kommt nichts mehr dergleichen. Dabei ist so einfach, was das Handy können müsste: Mit den Augen scrollen – Text weiterschieben, wenn die Auen am unteren Textende angekommen sind – nur so als Beispiel. Das wäre die logische Konsequenz, das ist ganz simpel die weitergedachte Optimierung des Mensch-Maschine-Interface. Die 720p-Frontkamera und den schnellen Prozessor hat Apple doch – also, was ist? Nix ist. Keine Innovation – dafür Milliardenklagen gegen Samsung. So kommt Apple nicht weiter und so erlebt die Konkurrenz leider auch nicht die Arschtritte, die sie braucht, um weiterhin coole Produkte für uns zu entwickeln. Irgendwie sehe ich zwischen Nokia und Apple Parallelen. Nokia ist auch irgendwann die Innovationsfähigkeit abhanden gekommen, damals trieb eine Firma namens SonyEricsson die Konkurrenz vor sich her. Besagte Firma gibt es übrigens in dieser Form nicht mehr. Wenn Nokia das nicht de 920er nicht zum Rennen bekommt war es das erst mal. Apple macht sich auf den Weg dahin.

Ein Jahr Windows – mir geht es gut. Ein Rant auf Apple eines ehemaligen Fanboys.

Ich habe dieser Tage ein einjähriges Jubiläum zu feiern: Ich bin seit einem Jahr Apple-frei. Und zwar komplett. Ich nutze auf meinen Rechnern Windows 7, auf meinem Telefon Symbian und auf den Tablets Android. Ich habe kein Gerät mehr mit iOS oder OS X. Und ich bin froh, Apple aus meinem Leben verbannt zu haben. Das war aber nicht immer so. Ich war nämlich mal ein richtiger kleiner Fanboy. Das ist vorbei – wie es dazu gekommen ist und warum mir Windows mittlerweile Spaß macht, das erzähle ich im Folgenden.

Zuerst aber möchte ich die Quelle meiner Inspiration zu diesem Post nennen: Der Chrisu hat in seinem Blog über Apple geranted  – und er spricht mir aus dem Herzen. Etliches sehe ich ähnlich. Nur: Viele Geräte hatte ich, manche sogar gerne. Und keines würde ich wieder wollen oder heute nochmal kaufen.

Ich steige in den 1990er Jahren ein: Mein erster Mobilcomputer (Laptop traue ich mich nicht zu schreiben) war von Toshiba. Eine Nummer oder Bezeichnung weiß ich nicht mehr, das Gerät hatte eine vollwertige Tastatur und einen LCD-Bildschirm, das Netzteil war fest eingebaut und das ganze Gerät war höllisch schwer. Mein Papa hat es zu dieser Zeit von einem befreundeten Ingenieur geschenkt bekommen und wusste damit wohl auch nichts sinnvolles anzustellen – auf jeden Fall landete das Ding schnell bei mir und setzte Staub an. Diese Kiste war – wie erwähnt – unendlich schwer und staubte so über die Jahre vor sich hin, aber während meiner ersten Praktika habe ich das Ding dann aber doch mit auf Arbeit genommen, weil ich so vor Ort meine Berichte tippen konnte – auch wenn das Gerät selbst damals schon ziemlich veraltet war. Interessanterweise gab es zu genau diesem Computer einen Werbefilm und just diesen Film habe ich auf Youtube wiedergefunden und selbst wenn es mit dem eigentlichen Thema nichts zu tun hat, binde ich hier mal ein:

Den nächsten Rechner habe ich wieder geschenkt bekommen und da sind wir dann schon beim Mac: Es war ein PowerBook 5300ce von 1995, der aber am Ende des ausgehenden Jahrtausends immer noch ein akzeptables Arbeitsgerät darstellte. Ich will jetzt gar nicht zu tief einsteigen, nur sagen, dass sich (abgesehen von den Jahren 2004 bis 2008) immer ein paar Dosen in meinem Besitz befanden, wie auch ein iMac DV 400, ein PowerMac G4 MDD, ein iBook G4, ein MacBook und ein Mac mini. Mit letzterem hatte ich übrigens wahnsinnige Probleme.

Der Umstieg von Win ME und 2000 auf OS X war eine Revolution für mich. Aber der Umstieg von Windows ME zu XP war auch eine Revolution. Eine kleinere – aber gut. OS X hatte mich schnell im Bann: Es sah chic aus und war sehr performant, die Renderingzeiten der alten Kisten mit ihren IBM- bzw. Motorola-CPUs waren zum damaligen Zeitpunkt großartig. Dazu kommt, dass das Design und die Haptik der Geräte wirklich top war.

Und dann kommt noch was dazu, ich will hier ganz ehrlich sein: Damals war ein Mac cool. Und ein Statussymbol. Und Leute, die mit ihrem Computer ernsthaft arbeiten wollten, hatten einen Mac. Sich zur damaligen Zeit nicht um Viren, Würmer und Trojaner kümmern zu müssen, war wirklich eine feine Sache. Der Mac-Besitzer war gefühlt Mitglied in einem elitären Zirkel und wer sein iBook im Kaffeehaus auspackte, erntete neidische Blicke. Ich habe mich natürlich auch ganz toll gefühlt, weil ich zur damaligen Zeit diese wirklich tollen Statussymbolrechner hatte. Und ich will weiterhin ehrlich sein: Ich hätte diese tollen Rechner seinerzeit gar nicht gebraucht, konnte bei weitem nicht das aus ihnen herausholen, was möglich gewesen wäre. Aber ich hatte einfach stylische Macs.

Mein erster iPod war der der dritten Generation. Vierzig GB Musik dabei zu haben, eine weitere Revolution. Dieser iPod war damals – wie heute immer noch alles von Apple – sündhaft teuer und nach einem Jahr kaputt. Und Apple weigerte sich freilich, den iPod zu reparieren, denn nach einem Jahr ist die Gewährleistung vorüber. Schon damals „erpresste“ Apple seine Kunden: Wer eine zweijährige Garantie haben wollte, wie sie eigentlich jeder Elektronikhersteller hierzulande gewährt, muss bei Apple einen ebenfalls sündteuren „Care Protection Plan“ kaufen – ich schüttle heute immer noch den Kopf, dass ich diesen frechen Unsinn seinerzeit kommentarlos hingenommen habe.

Mit dem iPod der dritten Generation, der im Vergleich zu den heute gelieferten Geräten noch robust verarbeitet war, komme ich gleich zum nächsten Problem, zur Hardware: Diese ist immer schlechter geworden. Jedes neue Apple-Gerät, das ich kaufte, war von de Verarbeitung her deutlich minderwertiger als sein Vorgänger. Losgegangen mit den Qualitätsproblemen ist es nach meiner Erfahrung bereits im Jahr 2005. Der Umstieg vom PowerPC-Prozessor zu Intel-Prozessoren markiert für mich ebenfalls einen Punkt, ab den Qualität und Performance der Apple-Produkte merklich nachließen.

Nicht nachgelassen hat indes der Preis. Früher war ich gerne bereit, diesen Preis zu bezahlen, waren doch z.B. die G4-Rechner sehr solide verarbeitet. Man bekam, kaufte man einen Mac, Premium-Hardware. Damit war der Preis zwar immer noch vergleichsweise hoch, es rechnete sich aber durchaus. Inzwischen habe ich MacBooks gesehen, von denen ich mit Fug und Recht behaupten darf, dass sie wesentlich schlechter verarbeitet sind, als Aldi-Laptops. Meine letzten beiden Macs, das MacBook und der Mac mini sind ob der meinen geringen Ansprüchen nicht mehr genügenden Qualität der Hardware – wie auch nicht anders zu erwarten – sang- und klanglos abgeschissen. Ich glaube inzwischen, dass man derzeit bei Apple unterdurchschnittliche Qualität zu Premiumpreisen bekommt – da mache ich nicht mehr mit.

Im Sommer letzten Jahres gingen mir hinsichtlich der Apple-Hardware die Augen auf. Wie es dazu kam, will ich kurz erzählen: Mein Ende 2009 gekaufter Mac mini ging in die Knie – eine Reparatur wäre trotz des an der Performance gemessenen durchaus knackigen Anschaffungspreises unwirtschaftlich gewesen. Da der Mac mini sehr gedrungen mit viel Notebooktechnik gebaut ist (was ebenso für die iMacs gilt), ist eine Selbstreparatur auch nicht jedermanns Sache. Meine Idee war also, mir wieder einen großen PowerMac zu kaufen – sollte da etwas kaputt gehen, dann könnte ich in vielen Fällen immerhin selbst Hand anlegen. Der Preis war schnell ermittelt – 2100,- hätte der Rechner in halbwegs vernünftiger Ausstattung gekostet (mit viiiiieeeeeeel Luft nach oben). Dass es aber keinen PowerMac diesseits der 1500-Euro-Marke gibt, hat mich dann doch erstaunt. Nur zum Spaß guckte ich, was ein ähnlich ausgestatteter Windwos-PC kosten sollte – wirklich nur zum Spaß. Was ich da sehen musste, ließ mir quasi das Blut in den Adern gefrieren: Für einen nahezu gleichwertigen Rechner inklusive Windows 7 Professional von Lenovo wurden von einem Onlinehändler weniger als 500,- Euro aufgerufen. Ihr könnt mein Erstaunen mit Sicherheit teilen: Ein Rechner mit mindestens gleichwertiger Performance von einem namhaften Hersteller sollte deutlich weniger als ein Drittel des Apple-Preises kosten? Ich habe ausführlich nach dem Haken gesucht und keinen gefunden. Ich habe dann dieses „ThinkCentre“ bestellt – abends um 17 Uhr, tags darauf stand der Computer um 9 Uhr unter meinem Schreibtisch – bei Apple hätte ich seinerzeit 8 Werktage gewartet.

Das Ding tut für kleines Geld bis heute, was ich will. Warum ich nicht früher zu Windows zurückgefunden habe, liegt an Vista. Ich war auf Arbeit mit dem im Grunde stabilen aber eben auch angestaubten XP recht zufrieden. Auf Vista habe ich mich aus reiner Neugier gefreut, war dann aber, als ich das erste Mal an einem solchen Gerät saß, so enttäuscht, dass ich Windows nicht als Alternative auf dem Schirm behielt und kurzerhand wieder einen Mac kaufte.

Nun habe ich Windows 7, auf einem Rechner Home, auf dem anderen Professional. Mir wurde auch schon zu Ultimate geraten, ich wüsste aber den Mehrwert für mich nicht zu benennen.

Als ich von OS 10.4.x auf Win 7 umgestiegen bin, hatte ich arge Vorbehalte – zu Unrecht. Windows ist heute performanter denn je. Windows präsentiert sich logisch und ist bedienbar. Man kann Windows sogar sehen. Für das Geld, das der langsamste Einsteiger-Mac kostet, bekommt der Windows-Nutzer einen i7-Rechner mit allen Features. Nach einem Jahr kann ich sagen: Ich vermisse Apple nicht. Ich habe schnellere Rechner mit besserer Hardware. Ich stehe nicht mehr unter der Knute eines Konzerns, der immer dreckiger mit seinen Kunden umgeht – ich werde nicht mehr von Apple verarscht.

Das Ganze hat natürlich seinen Preis: Ich bin mit einem Windows-PC freilich tierisch uncool. Hipster, SEO-Berater oder „was mit Medien“-Fuzzi wird man mit so einer Dose freilich nicht. Die richtige Sexiness hat nur der Mac-Besitzer, schon klar. Wider Erwarten ist mein Ego noch ok – aber wer weiß, wie lange das ohne Apple-Karma noch geht.

Obwohl: Manchmal erwische ich mich, wie ich fast etwas spöttisch auf Mac-Fanboys herabblicke. Dabei war ich doch selber mal einer. Klar kann man mit jetzt Arroganz vorwerfen. I used Macs before it was cool. Aber diese kognitive Dissonanz hält selbst der härteste Fanboy nicht aus. Auf der einen Seite bietet OS X gegen Windows 7 in Bestfall noch einen Designvorteil, auf der anderen Seite ist Apple als Konzern eigentlich nicht mehr akzeptabel: Auf der einen Seite steht da diese hochgradig lächerliche Patenttrollerei. Diese Nummer mit Samsung ist nicht mehr lächerlich sondern absurd. Richtig übel ist zudem, dass man mit iPhone und iPad nur Software benutrzen darf, die auch Apple gefällt. Wer heute sein iPhone aus der Tasche zieht, zeigt also, dass er sich gerne bevormunden lässt – herzlichen Glückwunsch. Interessant ist im Kontext dessen besonders, dass diese App-Nummer mehr und mehr auch auf dem Desktop raumgreift. Dafür bin ich mir wirklich zu schade.

Die Hardware von Apple ist billige Massenware, die Software im Kern schon gut abgehangen und den Service darf man wohl getrost als nicht so besonders bezeichnen – da fragt man sich, warum Apple-Produkte so teuer sind. Ich nehme an, dass man hier das Marketing blecht. Das ist für den Hipster schon in Ordnung so. Für mich nicht.

Wende ich also den Blick von meinen vergangenen Fehltritten und dem Fallobst hin zu Windows. Microsoft war ja dereinst unser innig gehassliebter Gegner, den es bis aufs Messer zu „bekämpfen“ galt. Gates, der reichste Mann der Welt, unantastbar und unsympathisch – ein Milchbubi. Steve Ballmer war so eine Art Reiner Callmund der Ammi-IT und machte eine nicht immer so gute Figur… Mit dem virtuellen Holzhammer versuchte Microsoft uns seinerzeit den Internet Explorer, ein Einfallstor für allerhand digitales Ungeziefer, zu verplätten. Und was auf unseren Rechnern lief, wurde fleißig nach Redmont, CA „heimtelefoniert“, es sei denn, man stopfte mit Software von Schlage eines „XP AntiSpy“ seinem eigenen Rechner in dieser Hinsicht das Maul. Und bei meinen Windowskisten hatte ich immer eine Aufwand: Zone Alarm aktualisieren, Virenscanner aktualisieren, immer wieder Treiber aktualisieren und trotzdem wurde der Rechner immer langsamer und langsamer. Wer Software öfter mal in der Demoversion ausprobierte, war halbjährlich gezwungen, die Kiste neu aufzusetzen, wollte er nicht davor verschimmeln.

Microsoft zu bashen war einfach in, der Fairness halber muss aber auch gesagt sein, dass Microsoft es einem nicht besonders schwer gemacht hat. Kurz nach dem Umstieg habe ich Windows auch nicht vermisst, das spricht bei genauerer Betrachtung auch für OS X – aber hin und wieder sind mir dann doch die ein oder anderen Unzulänglichkeiten aufgefallen. Mit dem Umstieg auf die Intel-Architektur ging eine Gefühl der Stabilität verloren, in der ganzen langen Zeit, in der ich Macs nutzte, schlug ich mich mit üsseligen Audioeditoren herum, weil es z.B. Sound Forge nicht für den Mac gab und Digas auch nicht. Vom Mac zu streamen war dann auch eine ziemliche Scheiße. Eine vernünftige Playout-Software am Mac? Zumindest damals nicht vorhanden. Irgendwann kaufte ich mir ein Vista-Gerät – und zwar sofort, als Vista herauskam. Ich wollte so den Mac-Frust hinsichtlich fehlender vernünftiger Enterprise-Software entgehen. Das klappte aber nicht, denn Vista war noch übler als der Mac. In meiner Erinnerung ist von Vista eigentlich nur geblieben, dass dieses OS Ressourcen gefressen hat wie Sau und ziemlich oft wegschmierte. Allerdings: Das war halt bei mir so, möglicherweise war mein System auch gehörig misskonfiguriert (wozu Vista ebenfalls einlud).

Wie vorhin schon gesagt: Ich habe mir von Windows 7 nicht viel erwartet – bin aber über einige Punkte echt begeistert: Zuerst muss ich hier die gute Abwärtskompatibilität nenen: Ich habe noch einige Software aus alten Tagen, die tut, was ich will. Bis zu XP ist das alles abwärtskompatibel und zwar performant! Da mag im Hintergrund eine Kompatibilitätsmaschinerie anspringen – der User kriegt davon nichts mit. Das ist schon extrem gut. Zum Vergleich: Ich konnte meine Macs nie auf Lion updaten, weil ich sonst meine alten universal binary-Programme nicht mehr hätte nutzen können. Desweiteren gefällt mir das Prinzip der Bibliotheken gut, die Suche bei Windows hat inzwischen eine akzeptable Geschwindigkeit (hier war der Mac immer besser!) und auch die Vorschaufunktionen im Explorer sind inzwischen richtig gut. Ich hatte früher Windows als ein System in Erinnerung, das schon bei der Erstinstallation mit Zeug wie Windows Mail, dem Movie Maker und anderem Krempel überfrachtet war. Hier nimmt sich Win 7 schlanker aus, das honoriere ich.

Was weiterhin sehr sehr gut ist: Ältere Hardware läuft flott mit 7, 64-Bit-Geräte rocken geschwindigkeitsmäßig die Sau. Ich bekomme also für einen älteren Rechner, der seinen Job durchaus noch tut, ein modernes System und nutze mit dem selben System die Leistung neuer Geräte voll aus. Und so kann ich dank 7 auch mit eher spärlicher Neu-Hardware gut arbeiten. Beispiel gefällig? Netbooks – sofern sie kein Vermögen kosten sollen, sind mit ihren kleinen Atom-Prozessorchen unter Vista nie sinnvoll benutzbar gewesen und selbst bei XP war der Spaß begrenzt. Wer sauber mit einem solchen 1,6 GHz-Atom-Dingli arbeiten will, braucht entweder Linux – oder 7. Ich sag jetzt mal ganz frech: Netbooks machen erst seit 7 Spaß und man ist damit um Welten produktiver als mit einem Tablet.

Freilich gibts auch Sachen die nicht so schön sind – zuerst einmal gehört dazu, dass im Schnitt 30 Euro im Jahr für die Lizenz des Virenscanners ausgebe. Der von Windows selbst soll gar nicht mal so übel sein, aber irgendwie will ich doch dem All-inclusive-Schutzpaket mehr vertrauen und das Gepopuppe der Freewarescanner würde mir zu sehr auf den Zeiger gehen. Auch das Java, Flash und besonders Acrobat gefühlt im Stundentakt um Updates betteln, nervt. Über Adobe Air habe ich mir schon die Platze geärgert. Aber da kann im engeren Sinne Windows nichts dafür.

Gewonnen habe ich aber für wenig Geld eine schnelle Maschine die tut, was sie soll. Ich bin also mit Windows zufrieden. Und zwar wider Erwarten.

Zum Schluss dieser sehr subjektiven Betrachtung, die sich dann irgendwie doch zu einem Rant gegen die Fallobstfabrik ausgewachsen hat, will ich auf das Thema noch ein wenig globaler schauen: Zuerst einmal finde ich diese Patentnummer – besonders die Causa Apple vs. Samsung hochgradig peinlich. Mich wundert nun nicht, dass Apple in Ammiland den Prozess gegen Samsung gewonnen hat – wer sich daüber ernsthaft gewundert hat, der möchte jetzt einfach mal das Wort „Protektionismus“ googeln und weiß dann im Groben Bescheid. Und mit der Realität hat das Urteil auch nichts zu tun, denn wer das zweier Galaxy von einem iPhone 4 nicht unterschieden kriegt, merkt auch den Unterschied zwischen einem Cheseburger und einem Mauerziegel nimmer.

Nebenefekt ist, dass Apple bei mir im Ansehen noch tiefer gesunken ist. Wir haben uns daran gewöhnt, dass Innovationen irgendwann Modifikationen erfahren und durch Mitbewerber in der Fläche verfügbar werden. Und dann kommen eben neue Innovationen. So funktioniert Fortschritt eben. Aus meiner Perspektibe wurde hier auch nicht nachgefeilt sondern sich an gängig gewordener Technologie orientiert. Dagegen zu klagen wird auf Dauer nichts bringen – zumal Apple sich ja durch unterschiedliche Märkte klagt. Klar ist auch: Mit Samsung ist ein Hardwarehersteller ins Fadenkreuz geraten, der zeigen konnte, dass sich mit Andoid massenkompatible Geräte bauen lassen. Ziel ist m.E. nicht Samsung sondern Google. Nur derzeit kommt Apple gegen Google nicht an. Und selbst wenn – das wirkliche Geschäft wird ja doch in China gemacht. Was bedeutet das? In meinen Augen muss Apple jetzt mit iPhone und iPad verdienen, was verdienbar ist, denn in wenigen Jahren ist das iPhone und iPad nicht mehr interessant. Android hat das Rennen ja schon jetzt gemacht – in extrem kurzer Zeit! Erinnert ihr Euch noch an das erste Google-Telefon? Das kam am 2. Februar 2009! Das sind ziemlich genau dreieinhalb Jahre, die Android gebraucht hat, um iOS haushoch zu knacken. Berücksichtigt man im diesem Zusammenhang noch die Lebensdauer der Produkte und die Marktsättigung und bezieht in die Betrachtung mit ein, dass das iPhone wegen seiner massenhaften Verbreitung auch als Statussymbol nicht mehr so recht taugt, bekommt man schnell das Gefühl, dass Apple jetzt – gegenwärtig – das Geld verdienen muss. Über Bande hat das freilich auch Auswirkungen auf Microsoft – die verdienen nämlich pro Android-Lizenz etwa 5 Dollar (Quelle: DRadio Wissen). Mit jedem verlorenen Prozent Marktanteil nährt Apple seine zwei wichtigsten Konkurrenten.

Apple-Chef Steve Jobs hat vor seinem Tod alles daran gesetzt, das konkurrierende Smartphone-Betriebssystem Android von Google zu „vernichten“. Er wollte einen „Atomkrieg“ dagegen führen. (Quelle)

Mich wundert das nicht. Nur: Mit der Politik, die Jobs fuhr und die jetzt noch gefahren wird, kann seitens Apple nicht mehr gewonnen werden. Ich bin überzeugt, dass man das weiß und daher im Endeffekt nur versucht, Verkaufsverbote zu erwirken um ad hoc das Geld zu machen, das (noch) zu machen ist. Eine langfristige Stategie kann ich nicht erkennen. Die Apple-Patenttrollerei könnte aber auch einen Imageschaden bedeuten, denn wenn Samsug-Telefone dem iPhone in der Tat so ähnlich seien wie behauptet, dann müsste ich ja bescheuert sein, um bei Apple für ein ähnliches Telefon viel Geld auszugeben – die Katze beißt sich in den eigenen Schwanz.

Wer also sein Geld mit Apple-Aktien verbrennen will – nur zu. Mich würde es jedenfalls nicht wundern, wenn Apple das zweite Facebook wird.

Neben iOS und Android ist ja Win 7 Mobile das dritte große System auf dem Handy – aber auch hier will ich mich nicht zu Jubelstürmen hinreißen lassen. Der Kardinalsfehler im Mobilfunkmarkt wurde in meinen Augen von Nokia begangen – indem man sich entschied, sowohl Symbian wie auch Meego nicht mehr weiterzuentwickeln.

Zum Thema Tablet nur einige wenige Gedanken:  Die Funktionen, die sich auf so einem Gerät sinnvoll nutzen lassen, sind limitiert. Es bedarf schon heute kaum noch schnellerer Hardware, surfen und Video schauen funktioniert ja. Vielleich werden in Zukunft die Grafikchips dieser Geräteklasse noch besser, das würden die Gamer sicherlich dankbar annehmen. Vielleicht kommt in den nächsten Jahren 3D aufs Tablet (obwohl aufgrund der Größe da der Spaßfaktor übersichtlich bleiben dürfte). Das war es dann aber auch. Insofern ist man auch hier weder auf „Innovationen“ von Apple oder Microsoft angewiesen – Android wird auch hier das Rennen machen.

Nicht dass jetzt der Eindruck entstünde, ich wäre ein Android-Fanboy – wirklich nicht. Ich finde Android per se ganz chic und gut benutzbar – sehe die tiefe Verquickung mit Google jedoch als ein wesentliches Argument, um um Android einen Bogen zu machen. Einige Kompromisse wird es aber geben müssen, denn recht viel mehr Auswahl gibt es nicht. Ich bin zwar sehr auf bada 3.0 gespannt – aber ich rechne mir da keine großen Chancen aus – zuviele App-Entwickler unterstützen bada nicht. Ich kann mir gut vorstellen, dass sich bada in der Nische der Einsteigersmartphones hält – nur da will ich persönlich halt nicht hin, eher würde ich mir ein gebrauchtes Telefon kaufen.

Sollte ich diesen Rant jetzt mit dem Rat beschließen, sich Microsoft zuzuwenden? Nein, pauschal kann man das nicht sagen und hinsichtlich der derzeitigen Entwicklung sollte jeder die hier viel zu kurz gekommene Alternative Linux in seinen uunterschiedlichen Ausführungen und Distributionen ansehen. Microsoft ist mit seiner „Heimtelefonierpolitik“ nämlich auch nicht so zivil unterwegs, wie man annehmen möchte. Trotzdem: Wer sich zu Linux nicht durchringen kann (was ich verstehe), der bekommt das „Fehlverhalten“ von Wndows immerhin noch regelhaft in den Griff. Bei den Apple-Geräten ist man da eher verloren.

Als ob es nur Android und iOS gäbe…

Ich habe gerade diesen Screenshot einer beliebigen IM- und Chatsoftware im Businessbereich gesehen:

*RRRRRÄÄÄÄÄÄHHHHHH!!!!!*

Erinnert mich irgendwie an die Blues Brothers:

Elwood: What kind of music do you usually have here?

Claire: Oh, we got both kinds. We got country *and* western.

Hintergrund: ARD-HDTV-Ruckler via Sat

Vor zwei Wochen hatte ich hier ja schon einmal das Problem mit den Rucklern insbesondere bei den neuen ARD-HDTV-Sendern über Satellit berichtet. Über die Hintergründe konnte zu dieser Zeit nur spekuliert werden, doch für mich hat sich nach einem Telefonat letzte Woche einiges an Klarheit ergeben.

Ich will meine „Quelle“ nicht verraten, kann aber soviel sagen: Ich hatte am Donnerstag ein interessantes Telefonat mit einem Entwickler eines kleinen und feinen deutschen Satreceiverherstellers. Ihn zu erreichen war nicht ganz einfach, denn gerade bei den kleinen Herstellern brennt wegen der Umstellung derzeit immer noch die Hütte und gerade ältere Menschen haben mit dem Einspielen von Softwarefixes so ihre Probleme. Hier muss dann mal eine kleine Firma mit Mann und Maus Support leisten – eine echte Herausforderung.

Im Zuge der Analogabschaltung über Satellit hat die ARD zum 2. Mai viele ihrer Programme, darunter auch etliche 3. Programme, auf HD umgestellt. Möglich wurde das, weil durch das abschalten der Analogübertragung entsprechend Bandbreite auf den Transpondern frei wurde. Nichts desto trotz: Viele HD-Sender (darunter auch z.B. die Regionalstudios des WDR) schlucken freilich viel Bandbreite und so liegt die Umsetzung meines Wissens in einem Kompromiss: Die immer mit fixer Datenrate übertragenen Sende wechselten zu einer Übertragung mit variabler Datenrate. Das ist zu DVB-S2 auch standardkonform – aber eben auch ungewöhnlich.

Nun werden in Satellitenreceivern unterschiedliche Chipsätze verwendet. Recht gebräuchlich sind die der Firma NEC und die der Firma ALi. Und gerade mit den ALis gibt es hin und wieder Probleme. Diese Chips gelten gemeinhin als billig und robust. Allerdings bedarf es bei einem guten Teil der Geräte eine Abstimmung der Software – genaueres wurde mir allerdings nicht mitgeteilt, die im Zusammenspiel bewirkt, dass sowohl HD-Sender mit fixer wie auch variabler Bitrate einwandfrei dargestellt werden können.

Die Problemlösung liegt einzig in einem Software-Update und damit tun sich selbst einen knappen Monat nach der Umstellung noch etliche Hersteller recht hart: Für einige Receiver gibt es noch gar keine Updates, für andere wiederum sind in kürzester Zeit mehrere Softwareversionen herausgekommen, weil man für ein anständiges Testing wohl keine Zeit hatte. Hin und wieder sind auch die Geräte wegen unzureichender Updates eingefroren und lassen sich nicht mehr softresetten. Wer es abwarten kann, der sollte noch ein wenig auf ein finales und problemlösendes Release warten.

Interessant sind auch die Wege, wie ein Software-Update vonstatten geht. Gängig ist, dass man sich online das Update besorgt und das via USB-Stick auf den Receiver einspielt. Hier muss die Formatierung des Sticks und gerne auch mal eine vorhandene Ordnerstruktur berücksichtigt werden. Das ist nicht jedermanns Sache. Weiterhin gibt es dann noch die OTA-Update-Lösung. OTA heißt nichts anderes als „over the air“ und  die Software wird in diesem Modus via Satellit übertragen. Das ist einfach und chic, wenn es denn funktioniert. Betrachtet man die Vielzahl der Receivermodelle, die jeweils einzelne Hersteller im Portfolio habewn, bekommt man eine Idee, woher das Problem rührt: Ein schmalbandiger Transponder kostet eine Jahresmiete von 60.000,- Euro, sinnvoll abbildbar ist darüber eine Update für etwa 8 Modelle, denn sonst wäre die Wartezeit auf ein Update nicht zumutbar. Und man kann OTA die Updates auch nicht beliebig rollieren, weil man ja nicht weiß, wann wer mit welchem Modell den Receiver einschaltet. Manche Modelle holen sich das Update silent beim Start, bei anderen muss das OTA-Update manuell angestoßen werden. Solche Probleme haben Besitzer von HBBTV-Receivern, die mit dem Internet verbunden sind, prinzipbedint nicht – aber auch hier gibt es längst nicht für alle Modelle ein passendes Update.

Die Devise lautet: Abwarten und SD gucken. Und wenn man feststellt, das dem Updates nach einer gewissen Zeit keine Revisionen mehr folgen, kann man das ja einspielen und dann sollte es gehen. Wer dann aber immer noch Probleme hat, möge auch mal seine HDMI-Einstellungen versuchen und je nach Gerät mal zwischen 780p und 1080i umschalten. Denn manche Fernseher haben mit der Interpolierung der Auflösung bei schnellen Bildwechseln auch ihre Probleme.

ARD HD ruckelt.

Nun wurde also das analoge Satellitenfernsehen abgeschaltet. Wer noch ein altes Gerät hatte, ist nun seit Montag gezwungen, sich einen neuen Receiver zu kaufen. Das ist mithin nicht das Problem, bringt doch die digitale Sat-Direktempfang mehr Programme und ein deutlich besseres Bild. Als kleines „Zuckerl“ sollte dem Zuschauer auch gleich ein ganzer Strauß neuer öffentlich-rechtlicher HD-Digitalprogramme zur Vefügung gestellt werden, darunter der neue ARD-HD-Kanal, BR HD, WDR HD und auch Phoenix HD. Doch das Ei, das die öffemntlich-rechtlichen Anstalten da gelegt haben, entpuppte sich als Kuckuksei.

Warum?

Heute habe ich mir mal die Mühe gemacht, die neuen ÖRR-HD-Sender auf unseren Receivern zu suchen und richtig zuzuordnen. Der DIGITALBOX Impertial HD2 plus hat es  – um es vorwegzunehmen – nicht überlebt, der Kathrein UFS 903 hatte keinen Stress damit und mit dem Samsung bin ich noch nicht durch.

Während ZDF HD und auch arte HD in der Vergangenheit keine Probleme auf den unterschiedlichsten Receivern machten, können nun einige Modelle die neuen HD-Angebote der ARD-Anstalten nicht mehr fehlerfrei auf den Bildschirm bringen. Typische Zeichen hierfür sind ruckelnde Bilder und Freezes. Warum das so ist, weiß derzeit noch keiner. Wenn man die derzeitige Berichterstattung verfolgt, so mag man das Gefühl haben, die ÖRR-Anstalten und die Receiverhersteller schieben den schwarzen Peter hin und her. Ober der „Fehler“ nun eindeutig im Ausstrahlverfahren der neuen HD-Sender liegt oder einfach in einer unsauberen Implementierung der Chipsätze der Empfänger, oder hier bei unterschiedlichen Empfängern sogar in beidem, ist unbekannt. Ich will hier also niemandem die Schuld zuweisen – nur feststellen, dass es sich bei den Empfangsproblemen nicht um Einzelfälle handelt – vielmehr um gut dokumentierte Sonderfälle.

Ich hatte heute mit meinem Digitalbox-Receiver genau dieses Problem. Der Hersteller hat hier sehr schnell gearbeitet und ein Software-Update angeboten, dass das Problem kurzfristig löste, beim Rückspielen der Senderliste plättete aber der Radio-Modus den Receiver derartig, dass selbst ein Hard-Reset das Gerät nicht mehr betriebstüchtig machte – sehr ärgerlich!

Interessant ist auch, dass manche Geräte z.B. von Kathrein mit dem Problem zu kämpfen haben, mein UFS 903, gekauft 2010, funktioniert auch mit den neuen HD-Sendern auf Anhieb – ohne jedes Update.

Lernen lässt sich aus der Sache zweierlei: Zum einen scheint es bei DVBS2 immer wieder dann zu Problemen zu kommen, wenn die Übertragungsbitrate variabel ist und zum Anderen sollte man jetzt nichts in Richtung Update überstürzen bzw. für Updates ein Fallback-Szenario haben. Letzteres ist bei manchen Receivertypen aber gar nicht so einfach, wenn z.B. der Bootloader beim Update in den Eimer geht.

Eine vollständige Liste mit betroffenen Geräten gibt es wohl noch nicht, aber Heise hat schon vor Tagen einige Geräte zusammengetragen:

Mittlerweile liegen uns entsprechende Störungsmeldungen unter anderem zu den Receiver-Modellen Avanit SHD3, CMX 4580, Comag SL90HD und SL100HD, Digitalbox Imperial HD 2 basic und HD 2 plus, Kathrein UFS922, Medion P24000 (MD 20148), Opticum 402p, Skymaster DCHD 9000 und DXH 30, Smart CX 04 und Topfield TF7700HSCI vor. Der Philips DSR5005 soll Schwierigkeiten bei der Farbdarstellung haben. Probleme beim Smart MX04 HDCI lassen sich angeblich durch ein Firmware-Update lösen, widersprüchlich sind die Angaben zu einem Modell von TechniSat. (Quelle)

Lesenswert ist in jedem Fall der Artikel von Digital Room, dort wird auf den Hintergrund mit den variablen Bitraten schön erklärt. Aber – wen wundert es – es gibt hierzu auch andere Meinungen: Auf den Webseiten der Zeitschrift Digital fernsehen heißt es:

Vermutungen der Redaktion, wonach der teilweise binnen weniger Sekundenbruchteile erfolgte Schwankung der Bitrate um bis zu 10 MBit/s das Problem verursacht, bestätigten sich dabei zunächst nicht. Ebenfalls in das Reich der Fabel lassen sich Spekulationen verbannen, wonach lediglich Billig-Geräte mit Schwierigkeiten zu kämpfen haben, da auch hochpreisige Markengeräte derzeit auf flüssige HD-Bilder verzichten müssen. (Quelle)

Widersprüchlich auch: Manch älteres DVBS2-Gerät hat keinerlei Probleme, manch neuer integrierte Tuner rauscht gnademlos weg. Bis eine Lösung in Sicht ist, gibt es immerhin noch den Behelf, die nicht funktionierten HD-Sender durch die weiterhin ausgestrahlten SD-Angebote zu ersetzen.

MyExtra-Shop Nürnberg Hangele & Küchler. Miese Behandlung inklusive.

Gegen einen Einzelhändler ranten? Darf man das? Eigentlich können einem die Einzelhändler ja ein wenig leid tun – in der Regel leisten sie gute Arbeit und können mit den Angeboten der Onlineshops nur schwer mithalten. Nach dem Erlebnis, das ich heute leider mit dem Mobilfunkladen Hangele & Küchler in der Äußeren Bayreuther Straße hatte, klicke ich meine Sachen noch viel lieber online. Die ganze Episode hat im Übrigen kaum fünf Minuten gedauert.

Was ist passiert? Ich war im Homeoffice. Und musste feststellen, dass mein Handy nicht so richtig funktioniert. Insbesondere das mit dem Internet haute nur sporadisch hin. Weiterhin liegt mir derzeit meine Freundin in den Ohren, dass sie ein iPhone haben möchte. Was man noch wissen muss: Seit 2004 bin ich E-Plus-Kunde und lasse dort im Monat reichlich 75,- Euro.

Also machte ich mich in der Mittagspause auf zum myExtra-Shop Hangele und Küchler. Der Plan war, dort ein iPhone mit vernünftigem BASE oder E-Plus-Vertrag zu erstehen und die Probleme mit meiner Internetzugang am Nokia E7 gefixed zu bekomen.

Um es vorweg zu nehmen: Es blieb beim Plan und schuld daran ist Hangele und Küchler.

Ich betrat den Laden, ich war der einzige Kunde, man hätte also theoretisch für mein Anliegen Zeit haben können. Ich ging zu einer Art Tresen, hinter dem eine ältere Dame saß und gelangweilt in einem Telekom-Heft blätterte. Ich machte mich bemerkbar und trug mein Anliegen vor: Ich möchte einen E-Plus- oder BASE-Vertrag, am liebsten in Form einer Partnerkarte und dazu ein iPhone. Ich halte zwar nix vom iPhone – aber es ist ja auch nicht für mich.

Nun sollte man eigentlich meinen, dass ein Verkäufer sich freut, wenn er ein teures Standardprodukt wie ein iPhone verkaufen kann. Bei Hangele und Küchler scheint man das indes anders zu sehen. Als ob mein Anliegen eine Unverschämtheit wäre, raunzte mich die Frau an, dass es bei E-Plus keine Partnerkarten mehr gebe und mit iPhone schon gleich gar nicht.

Ich ließ nicht locker und fragte,. ob ich einen BASE-Vertrag bekommen kann. Ja, kann ich. Aber nicht mit iPhone, maulte die Frau. Nur mit Telekom oder Vodafone oder o2. Ich ließ wieder nicht locker und fragte weiter: „Aber Sie haben doch iPhones, oder?“

Das hätte ich mal lieber gelassen. Die Laune der sowieso schon angespannten Dame sank augenblicklich ins Bodenlose. „Ja, haben wir – aber nur mit Telekom, Vodafone, o2!“ motzte sie mich an.

Welch ein Unding! Ich sehe das Problem nicht. Man verkauft mir ein iPhone. Dann gibt man mir einen BASE-Vertrag. Ich zahle das und fertig ist die Laube. Nun, bei Hangele und Küchler hatte man weder Bock auf das eine noch das andere. Die Frau senkt den Blick Richtung Telekom-Heft. Ich gebe das mit dem iPhone auf. Hier werde ich keines bekommen – das ist mir klar.

Da ist dann noch die Sache mit dem misskonfigurierten Internet auf meinem Nokia-Handy. Kühn wage ich einen neuen Versuch. Mit einem freundlichen Lächeln und einer diplomatischen Nuance in der Stimme versuche ich, die Aufmerksamkeit der Frau vom Telekomheft auf mich – genauer: auf mein Anliegen – zu lenken: „Ich habe da ein E7 und de Internet-Zugangsdaten verstellt. Möchten Sie so freundlich sein und sich das mal ansehen? Sie würden mir einen großen Gefallen tun.“

Nun, das war – wie zu erwarten stand – ein Schlag ins Wasser: Das einzige, was ich bekam, war eine patzige Antwort. „Sie haben da nix verstellt, das liegt an E-Plus“* war die lapidare Antwort der Frau. Ich konnte es noch nicht fassen, da setzte die motivierte Dame noch einen drauf: „Sie können das ja dalassen, wir prüfen das. Kost aber extra, denn Sie sind kein Kunde von uns“.

Was soll denn das? Will man mir damit sagen, dass MyExtra gleichbedeutend ist mit „Kost´extra“?? Ich bin immer noch fassungslos. Wofür betreibt man denn einen Laden, wenn man nichts verkaufen will? Warum sperrt mann den den Laden überhaupt auf, wenn man keinen Bock auf die Kundschaft hat? Es ist mir unbegreiflich. Und die Argumentation, dass die Dienstleistung extra koste, weil man kein Kunde sei, finde ich echt frech – ich wäre ja gerne Kunde geworden – nur bei Hangele und Küchler ist man nicht bereit, dass ich Kunde werde (ein iPhone wollte man mir ja nicht verkaufen).

Mein Fazit: Wer zu Hangele und Küchler in der Äußeren Bayreuther Straße geht, mit dem habe ich kein Mitleid. Ich will bloß was kaufen und muss mich dafür anblaffen lassen. Das geht ja mal gar nicht! Und dann will man mir noch für ein simples Nachgucken, ob meine Einstellungen fehlerhaft sind, Geld aus der Tasche ziehen? Und das auch erst, nach dem ich interveniert habe? Es ist unfassbar.

Das Problem mit dem misskonfigurierten Handy löste die E-Plus-Hotline übrigens in unter 60 Sekunden. Man schickte mir – kostenfrei – eine SMS mit den korrekten Einstellungen, das Handy übernahm diese automatisch.

* Das Handy blieb die ganze Zeit in meiner Hostentasche, angesehen hat sich das dort niemand

Mobilfunksender in Nürnberg

Hat Euch immer schon einmal interessiert, wo der nächste Handymast in Nürnberg steht? Dann darf ich Euch ganz herzlich eine Seite des Stadtplandienstes der Stadt Nürnberg ans Herz legen – hier kann man prima herauslesen, in welcher Straße (inkl. Hausnummer) die nächste Basestation steht. Es ist auch vermerkt, ob hier GSM oder auch UMTS verfügbar ist.

Leider kann man über diesen Dienst aber nicht herausfinden, welcher Provider an welchen Standorten sein Netz in die Luft bringt – aber ein erster Ansatzpunkt ist gegeben.

Hier gehts zur Liste der Mobilfunksender in Nürnberg.

Der NOXON DAB-Stick im Test

Schon einige Wochen vor Einführung des „neuen“ Digitalradios DAB+ wurde von Terratec ein günstiger, an den PC gebundener Empfänger angekündigt – der NOXON DAB-Stick. Neugierig, wie ich bin, habe ich den gleich zum Einführungspreis geordert und diese Woche Dienstag lag das kleine Stück USB-Hardware dann – sehnlich erwartet – in der Post. Nun geht es also los mit dem DAB+-Empfang. Was der USB-Digitalradiostick taugt, lest ihr hier.

Der NOXON DAB-Stick ist ein verhältnismäßig günstiges Device – wird er doch zu Preisen zwischen 20 und 30 Euro angeboten. Damit schlägt er preislich jedes hierzulande verfügbares Digitalradio preislich. Doch nicht allein der Preis ist ein gutes Argument für das PC-Radio, auch die auf einem Rechner natürlich hervorragend nutzbaren Zusatzdienste des Digitalradios machen den Stick attraktiv.

In einer Pappschachtel wird das kleine Teil geliefert, der Stick sieht aus wie einer dieser typischen DVB-T-Sticks, nur ein wenig kleiner und leichter. Auf der einen Seite befindet sich der USB-Anschluss, auf der anderen Seite die typische Belling-Lee-Buches (wir kennen die von den analogen Radiotunern und Fernsehern). Wer sich daran erinnert, dass die ersten DAB-Radios mit einem als F-Buchse ausgeführtem externen Antennenanschluss daherkamen, für den wird diese IEC-Buchse ein Fortschritt darstellen, weil man so ohne großen Adaptereinsatz nach einer passenden Antenne fahnden kann. Eine kleine Antenne ist ebenfalls im Lieferumfang enthalten, für gut versorgte Empfangslagen reicht diese auch, in kritischen Empfangssituationen sollte man sich nach etwas Anderem umsehen. Um hier auch flexibel zu sein und im Zweifel out of the box an eine ggf. vorhandene Dachantenne zu kommen, liegt auch ein IEC-Stecker-auf-Stecker-Adapter mit bei, das ist sehr löblich. Der Radioamateur besitzt in der Regel solche Adapter, hat sie aber selten zur Hand.

Als ebenfalls sinnvolles Zubehör erweist sich die beigelegte kleine USB-Verlängerung. Da der Stick zwangsäufig etwas dicker als ein üblicher USB-Stecker ist und die USB-Ports bei vielen Rechnern gerne dicht beineinander liegen, nutzt das Teil viel. Das Paket wird mit der Software-CD, einer Installationsanleitung und einer Servicekarte abgerundet, für die aufgerufenen zwanzig Euro ist das ordentlich.

Die Einrichtung geht erstaunlich unprätentiös vonstatten: Man legt die mitgelieferte CD in den Rechner ein und installiert den Treiber und die Software. Dann wird der Stick an einen freie USB-Port gesteckt, man macht einen Sendersuchlauf und schon hört man Radio, vorausgesetzt, man ist empfangstechnisch ausreichend versorgt und hat eine passende Antenne.

Das der Lieferung beigefügte Stummelantennchen ist bei sehr guter Versorgung gut geeignet, ein kleiner sich im Fuß befindlicher Magnet lässt den Stummel auf metallenen Oberflächen sicher haften. Doch schon in etwas schwierigeren Empfangslagen genügt das beigelegte Teil nicht mehr. Ich habe mir zum Empfang im Innenraum eine alte passive Stabantenne vom DVB-T-Receiver gegriffen, das Ergebnis im Nürnberger Norden: Perfekt! Lesson Learned: DAB und DAB+ bedürfen auch nach der Umstellung und entgegen anderslautendem Bekunden der Digitalradio-Initiative immer noch einer sehr guten und passenden Antenne. Dabei ist auch in der Praxis zu beobachten, was wir in der Theorie schon vorher wussten: DAB+ mit seiner AAC-Kodierung verhält sich aufgrund der verbesserten Fehlerkorrektur merklich unempfindlicher gegen suboptimale Empfangsbedingungen und Störungen als konventionelles DAB. Ohne passende Antenne aber geht es nicht.*)

Wenn also die richtige Antenne **) und die richtige Antennenposition gefunden ist, dann kann es mit dem Radioempfang via Software schon losgehen! Die Software – Terratec gibt hier stolz die Mitautorenschaft des renommierten Instituts für integrierte Schaltungen der Fraunhofer-Gesellschaft bekannt – funktioniert und präsentiert sich aufgeräumt:

Beim ersten Start fordert die Software zum Update und zum Sendersuchlauf auf – beides dauert ein paar Minuten. Schon hier ist die gute Antenne wichtig, sonst werden beim Suchlauf nicht alle Sender erfasst. Nun wählt man den gewünschten Sender und wenn begleitende Bildinformationen oder auch Journaline-Textinfos vorhanden sind, kann man sich diese anzeigen lassen. Hier wurde bei der Programmierung aber offensichtlich geschlampt: Während unter Windows XP mit SP3 alles ordnungsgemäß zu funktionieren scheint, hakelt es bei Win 7 Professional auf der 64 Bit-Architektur noch ordentlich: Wenn ich hier auf Journaline springe und dann wieder zur Übersicht zurückkehre, bleibt das Programm zwar funktionsfähig, das Fenster bleibt aber weiß. Unkontrolliertes Auf- und Wegblenden hilft (oft, nicht immer). Hier besteht also noch Tuningbedarf.

Geworben wird auch mit einem EPG, einem elektronischen Programmführer. Dieses Feature habe ich entweder noch nicht gefunden oder es ist noch nicht implementiert.

Alles in allem funktioniert die Software, etwas komfortabler hätte sie aber schon sein dürfen. Konnte jedes olle DAB-Radio mit einer Anzeige der Empfangsstärke bzw. Signalq3ualität punkten, gibt es im „NOXON DAB Mediaplayer“ ´lediglich den Status „Kein“, „schwacher“ oder „guter Empfang“. Metadaten wie Frequenz oder Blöcke sind nicht auf Anhieb ersichtlich. Und dann blendert das Programm auch noch Werbung für weitere NOXON-Radios ein. Eine Aufnahmefunktion fehlt, somit sucht man auch einen Timer vergeblich. Eine „Fernbedienung“ mit Grundfunktionen als Widget wäre nett gewesen, existiert aber ebensowenig wie eine Preset-Bank. Die Software betrachte ich daher eher als mit Grundfunktionen ausgestattetes Rudiment, hier sehe ich doch deutlichen Nachbesserungsbedarf.

Nach mehrtägigem Testen kann ich trotz der suboptimalen Software für den Stick im Speziellen sowie für DAB/DAB+ im Allgemeinen eine Kaufempfehlung abgeben: Hier in Nürnberg ist der Nutzen des Geräts groß: Neben dem Fußballsender 90elf werden fünf Slots für Liveübertragungen angeboten, der Bayerische Rundfunk hat neben den fünf bekannten Hörfunkprogrammen noch Regionalableger von Bayern 1, Bayern 2 plus, B5 plus, Bayern plus, BR News, BR Verkehr, einen Testkanal und das etwas misslungene on3 auf Sendung, Religion wird vom ERF für Protestanten und via Radio Horeb für Katholiken feilgeboten, das DRadio ist nicht nur mit Deutschlandfunk und DKultur vertreten sondern sendet auch noch den wirklich uneingesränkt empfehlenswerten Kanal DRadio Wissen, zudem noch den Kanal Dokumente und Debatten. Der klassische Dudelfunk wird mit Sendern wie absolut, ENERGY, KISS FM, Radio Bob, Fantasy Bayern, Radio Galaxy , RT1 in the mix, Rock Antenne und Magic Star+ abgebildet. Leichte Musik versprechen die Sender Klassik Radio, vil Radio und lounge fm, wobei besonders lounge fm durch eine sehr niveauvolle und ausgesuchte Musik unter den privaten Radios angenehm hervorsticht.

Damit bietet der Stick während der Arbeit und des Surfens am Rechner ein interessantes zusätzliches Radioprogramm – das ist wertvoll, insbesondere dann, wenn die Webradio-Streamingslots der Anbieter voll sind. Die Perspektive für DAB+ ist ordentlich, denn der Mehrwert ist schon jetzt erkennbar, auch wenn noch längst nicht alle Sender, die über UKW gehört werden können, auf DAB/DAB+ empfangen werden können.

Wenn der Empfang gut ist, ist die Tonqualität überdie recht gut. Nicht alle sender klingen optimal, die wichtigsten allerdings klingen ordentlich, man kann unangestrengt zuhören.

Ein Datenblatt zum Stick kann hier heruntergreladen werden.

—–

*) Nach dieser Erfahrung leite ich mal einen Ratschlag ab: Ich würde mir – komplett unabhängig vom NOXON-Stick – kein Digitalradio kaufen, dass nicht mindestens mit einem externen Antennenanschluss ausgerüstet ist. Und wenn doch: Dann nur im Internet mit 14 tägiger Rückgabemöglichkeit kaufen oder im Fachhandel entsprechendes aushandeln und dann ausprobieren! DAB+ zeigt sich nach ersten praktischen Tests um einiges anspruchsvoller als UKW.

**) Pro-Tipp: Das mit der richtigen Antenne ist gar icht so schwer. Der Handel hält kaum spezielle DAB/DAB+-Antennen bereit, eine ordentliche DVB-T-Antenne tut den Job aber mindestens ähnlich gut! Das ist auch dem Umstand geschüttet, dass sich DAB und DAB+ in ähnlichen Frequenzbändern abspielt wie analoges und/oder digitales terrestrisches Antennenfernsehen. Die DVB-T-Antennen sind sowohl passiv wie auch aktiv ausgeführt zu kaufen und wegen der Verbreitung auch durchaus günstig, weil Massenware.

Bildquelle: Terratec-Presseinfo/eigener Screenshot

1 2 3 4 6