Montag, 31. Oktober 2016

Der ganz normale Wahn

esotroner ist Schuld. Ich wollte mich eigentlich nicht zu sehr reinziehen lassen in diese Thematik um die Flüchtlinge (esotroner würde sagen: Invasoren) und die sich darum rankenden Verschwörungstheorien, aber er weiß wo er mich packen kann: Er meint ich hätte keine Argumente und keine Fakten parat.

Ich weiß es wird bei ihm nichts nützen, aber ich will es wenigstens nicht so aussehen lassen als hätte er damit recht.

esotroner verlinkt auf den Youtube-Kanal namens "Reconquista Germania" von einem Typen der sich Nikolai Alexander nennt, wo man Videos findet, die einem z.B. erklären, wer "wirklich" hinter der Flüchtlingswelle steckt (die US-Hochfinanz, z.B. George Soros). Das findet esotroner "absolut schlüssig".

Ich verstehe zwar nicht wie man solchen eindeutig demagogischen Machwerken auch nur einen Hauch von Schlüssigkeit attestieren kann, es sei denn man ist dem Wahn verfallen, aber ich will wie gesagt nicht so dastehen als hätte ich keine Fakten und Argumente auf meiner Seite. Also quäle ich mich durch diesen Scheißdreck, um ihn auseinander zu nehmen. Ich beziehe mich speziell auf das Video mit dem Titel "Wer steuert die Flüchtlingsinvasion?" vom 29. September 2015.

Alexander redet nicht lange darum herum: Er ist der Ansicht, bei der Flüchtlingswelle handle es sich um eine Invasion, bei einem guten Teil der Flüchtliche um Eroberer. Untermalt von Bildern von unbewaffneten, teils recht abgerissen wirkenden Zivilisten, die sich scharenweise in Marsch gesetzt haben, wirkt das unfreiwillig komisch. Invasionstruppen hatte ich mir bisher anders vorgestellt, mit Waffen und in Uniformen, so wie das in der Vergangenheit war. Man kann sich ja zur Vergewisserung, daß einen die Erinnerung nicht trügt, ein paar Videos von der Invasion Polens durch die deutsche Wehrmacht zu Beginn des zweiten Weltkriegs ansehen. Oder wenn einem das zu sehr an die Volksseele geht, vielleicht die Invasion der Alliierten an der Atlantikküste ein paar Jahre danach. Vielleicht hätte denen damals jemand sagen sollen, daß das alles viel einfacher geht, wenn man unbewaffnet und im T-Shirt kommt.

Nur: Warum es sich um Eroberer und Invasoren handeln soll, und nicht um das was es allem Anschein nach ist, nämlich Flüchtlinge, das begründet er nicht. Für mich sehen die Leute in seinen Videoschnipseln aus wie Flüchtlinge eben aussehen. Wenn es Invasoren sein sollten sind sie gut verkleidet.

Es ist auch keineswegs mysteriös warum die alle gerade im vergangenen Jahr bei uns angekommen sind. Alexander stellt sich hier weitaus dämlicher als er ist. Wer sich nur ein klein wenig informiert hat, für den war der steile Anstieg der Flüchtlinge im Sommer 2015 keine Überraschung. Das war eine Krise mit Ansage. Da sind einige Faktoren zusammen gekommen, die sich schon länger zusammengebraut haben, und das ist auch wohlbekannt:
  • Die Flüchtlingslager um Syrien herum waren chronisch unterfinanziert, sogar die Essensrationen mußten von der UN wegen Unterfinanzierung zusammengestrichen werden. Die meisten Länder in der EU waren offensichtlich der Ansicht, das ginge sie nichts an, und die syrischen Nachbarstaaten würden das schon hinkriegen. Zudem hat der sich in die Länge ziehende Syrienkrieg dazu geführt, daß Leute, die zuerst dachten sie müßten nur ein paar Monate in Lagern in der Nähe überdauern, sich darauf einstellen mußten, daß sie auf unabsehbare Zeit nicht zurückkehren können. Da fängt man automatisch an, sich über Alternativen Gedanken zu machen, auch wenn sie gefährlich sind.
  • Die Umwälzungen des arabischen Frühlings haben nicht bloß Syrien betroffen, sondern auch andere arabische Länder, und natürlich gab's aus allen betroffenen Ländern Leute mit gutem Grund zu fliehen. Jeder der auch nur ansatzweise versucht, sich in ihre Situation zu versetzen, wird das problemlos nachvollziehen können.
  • Libyen hat zu Ghaddafi's Zeiten die Flüchtlinge aus Schwarzafrika noch zurückgehalten, die schon damals auf dem Weg nach Norden waren. Schon seit vielen Jahren befinden sich an der afrikanischen Mittelmeerküste zahlreiche Flüchtlinge, die auf ihre Chance warten, nach Europa zu kommen, und denen es auch immer wieder gelingt. Siehe z.B. die Grenzbefestigungen der spanischen Exklaven in Marokko: Ceuta und Melilla. Mit der Beseitigung des unterdrückerischen Ghaddafi-Regimes eröffnete sich ihnen eine neue Möglichkeit über das Mittelmeer.
  • Wo eine Nachfrage nach Schleusern ist, da entwickelt sich auch ein Angebot. Wer weiß wie viel Geld die Leute für eine Schleusung bezahlen, der braucht keine Theorien mehr zu entwickeln welche Hochfinanz oder welches Establishment die Flucht finanziert haben könnte. Es sind die Flüchtlinge selbst. Und es ist ein einträgliches Geschäft.
  • Wo immer sich ein funktionierender Fluchtweg zu ergeben scheint, wird er sich in Windeseile herumsprechen. Dafür sorgen schon die Schleuser und die moderne Telekommunikation. Und die Schleuser werden im Interesse ihres Geschäfts alle möglichen Versprechungen machen, aus denen dann natürlich Erwartungshaltungen werden, mit denen wir uns hier herumschlagen müssen. Ist das so überraschend?
  • Das EU-Flüchtlingssystem (Dublin in seinen diversen Stufen) war untauglich für solch einen Andrang. Das war ebenfalls im Vorhinein klar und ist von Institutionen, die sich damit auskennen, auch so vorhergesagt worden. Konkret hätte Italien einen großen Teil der Lasten zu tragen gehabt, denn dessen Boden betraten die Flüchtlinge zuerst, die aus den Booten gerettet wurden. Es ist absolut verständlich, daß Italien das als unfair empfinden, und bei ausbleibender Solidarität irgendwann hintertreiben würde. Ich erinnere an die Aktion "Mare Nostrum", die Italien selbst finanziert hat, und die dann von der EU-Operation "Triton" ersetzt wurde, die aber weniger als ein Drittel der Mittel erhielt, und keine Seenotrettung auf hoher See mehr vorsah.
  • Die unverantwortliche und unwirksame EU-Flüchtlingspolitik hat in immer größerem Ausmaß EU-Bürger mobiliziert, die es unerträglich und inhuman fanden, die Flüchtlinge in großer Zahl im Mittelmeer umkommen zu lassen. Besonders nachdem immer deutlicher wurde, daß die EU bzw. deren Mitgliedstaaten eher daran interessiert waren, die Flüchtlinge fernzuhalten, und ihren Tod im Mittelmeer in Kauf zu nehmen, anstatt wirksam gegen die Fluchtursachen und/oder die Fluchtgefahren vorzugehen.
Und dann kommt es eben irgendwann zum Dammbruch, und die Folge eines Dammbruchs ist immer eine große Welle. Ich habe da keinerlei Bedarf, nach Gründen im Verborgenen zu suchen, so wie es Alexander offenbar hat. Die Gründe liegen offen zutage. Es braucht keine Verschwörung, damit es zu einer solchen Entwicklung kommt, es reicht schon wenn man die sich rechtzeitig einstellenden Anzeichen ignoriert.

Und was auch klar ist: Der Dammbruch gibt Trittbrettfahrern eine Gelegenheit, auf die sie gewartet haben. Auch hier stellt sich Alexander extra dumm, wenn er sich wundert warum aus dem Kosovo die Asylanträge 2015 in die Höhe geschnellt sind. Es ist völlig klar warum das so ist: Sie dachten die Gelegenheit ist günstig. Das mußte ihnen niemand einflüstern, da sind die schon ganz von selber drauf gekommen. Das hat auch nichts mit einer Invasion zu tun, sondern ist eine einfache Folge des Armutsgefälles zwischen dem Kosovo und der EU. Damit sich Leute zur Flucht aufmachen, müssen üblicherweise drei Dinge zusammen kommen:
  1. Prekäre Verhältnisse
  2. Mangelnde Hoffnung, daß sich diese bald bessern werden
  3. Eine Gelegenheit, bzw. eine Hoffnung auf eine solche, anderswo in der Welt.
Bei Leuten wie den Kosovaren, wo die ersten beiden Faktoren schon seit Jahren vorhanden sind, reicht das Hinzukommen des dritten, damit sie sich in Marsch setzen. Bei den Syrern sind die ersten beiden Faktoren erst im Laufe des mehrjärigen Konfliktes entstanden, deshalb standen sie nicht gleich vor unserer Tür. Es ist wirklich nicht schwierig, sich das zu überlegen, wenn man nur bereit ist, sich in die Situation der Leute hinein zu denken, statt sich in Verschwörungstheorien zu versenken.

Es ist auch nicht so daß ich das Gefühl hätte, mir wäre da von den Medien was verschwiegen worden. Ich bin immer recht problemlos an die Informationen heran gekommen, die mich interessiert haben. Daß Alexander sogar dunkle Machenschaften vermutet, bloß weil vom Bundesamt für Migration und Flüchtlinge in den Statistiken nur die Top Ten der Herkunftsländer explizit dargestellt sind, ist einesteils kurios, andererseits genau das was man bei Verschwörungstheoretikern regelmäßig beobachtet. Die sind ohne weiteres in der Lage, dunkle Machenschaften schon dann zu vermuten wenn es mal drei Tage hintereinander regnet (kann das noch Zufall sein? Hat nicht der Bundespräsident in Indien gesagt, Regen sei willkommen? Wollen vielleicht die Amerikaner unsere Agrarwirtschaft schädigen? Alles Fragen, auf die uns die Lügenpresse eine schlüssige Antwort verweigert!)

So habe ich es trotz angeblicher Lügenpresse geschafft, mir von Anfang an klar darüber zu sein daß die Flüchtlinge nicht bloß von Syrien kommen, sondern auch aus anderen Ländern wo Krieg und Elend herrschen. Und daß aus Syrien "nur" 20% der Asylanträge gekommen sind, wundert mich auch nicht wenn ich sehe, daß die von Alexander gezeigte Statistik vom Juni 2015 ist, wo es mit der Welle erst gerade richtig los ging, und viele neu angekommene Flüchtlinge noch nicht mal erfaßt waren, geschweige denn Gelegenheit hatten, einen Asylantrag zu stellen. Der explosive Anstieg in 2015 ist daher mit den Kriegen in Syrien, Irak, etc. und dem arabischen Frühling sehr wohl zu erklären, genauso wie der starke Anstieg in 1992 eindeutig mit dem Balkankrieg zu tun hatte. Alexander münzt seine eigene Unfähigkeit zum Denken in eine abstruse Verdächtigung um, das müsse deswegen so sein weil die Leute angelockt wurden, ja sogar daß Politiker das Aussterben der deutschen Bevölkerung wünschen würden. Beweis: Ein Ausspruch Gregor Gysi's, den Alexander "sinngemäß" verfälscht hat.

Daß ein Teil der Flüchtlinge tatsächlich vor Krieg und Zerstörung fliehen, räumt Alexander ein, aber nur um schon im nächsten Satz die "Vernichtungspolitik der USA und der EU" dafür verantwortlich zu machen. Sonst niemand. Keinen Assad, keinen IS, keine Taliban, keine Muslimbrüder, kein Al Quaida. Nur USA und EU. Soll heißen: Die USA und die EU vernichten den nahen Osten, damit von dort haufenweise Leute zu uns fliehen, und hier den Untergang des Abendlandes herbeiführen. Ja sie locken die Leute extra dafür hierher. Logisch?

Wenn man sowieso glaubt, daß hinter allem Bösen die USA stecken, und daß einzig den "Qualitätsmedien" aus Russland zu trauen ist, dann erscheint einem das vielleicht wirklich als logisch. Nur hat man dann das kritische Denken schon längst an der Garderobe abgegeben.

Wobei, der Gedanke hat ja durchaus etwas absurd-komisches: Die USA haben schon seit Jahrzehnten auf deutschem Boden jede Menge militärische Ausrüstung, bis hin zu Atomwaffen. Sie wollen die EU und insbesondere Deutschland destabilisieren oder gar vernichten. Da liegt es doch nahe, nicht wahr, daß sie eine andere Weltregion angreifen, nur damit dann von dort Leute hierher kommen und uns destabilisieren. Die Waffen direkt hier vor Ort einzusetzen, das wäre viel zu einfach, stimmt's? Da wäre ja der ganze Witz raus. Und ist nicht der nahe Osten die allerbeste Wahl als Angriffsziel? Man hätte ja auch Russland angreifen können, das hätte die EU auch destabilisiert. Aber das wäre nicht so schön chaotisch geworden wie im nahen Osten.

So gesehen ist so eine Verschwörungstheorie ganz lustig. Bzw. wäre lustig, wenn sie nicht so unendlich dumpf wäre: Die USA sind immer schuld. So einfach ist das.

Sonntag, 18. September 2016

Wahrheit ist von vorgestern

Die Frage "Was ist Wahrheit?" ist der berühmteste Spruch des Pontius Pilatus in der Bibel, womit eine klassische philosophische Frage mindestens einmal in die Nähe des Zynismus gerückt wird, schließlich geht es in der Geschichte um eine Hinrichtung. Heutzutage scheint diese Frage aus der Mode gekommen zu sein, die aktuelle Frage scheint zu lauten: "Wozu überhaupt Wahrheit?"

Nun stand die Wahrheit schon seit dem Altertum nicht allzu hoch im Kurs, wenn es um "Realpolitik" geht. Es ist ja geradezu ein Kennzeichen von Realpolitik, wenn man es mit der Wahrheit nicht so genau nimmt, und eher nach der machtpolitischen Zweckmäßigkeit fragt. Das klingt negativ, geradezu unmoralisch, und Pontius Pilatus wurde demzufolge auch oft als Negativbeispiel eines Bösewichtes dargestellt, aber man kann es natürlich auch ganz anders sehen. So wie z.B. Machiavelli, der in seinem "Fürst" Folgendes schrieb:
"Da es aber meine Absicht ist, etwas Nützliches für den zu schreiben, der es versteht, schien es mir angemessener, der Wirklichkeit der Dinge nachzugehen als den bloßen Vorstellungen über sie. [...] denn es liegt eine so große Entfernung zwischen dem Leben, wie es ist, und dem Leben, wie es sein sollte, daß derjenige, welcher das, was geschieht, unbeachtet läßt zugunsten dessen, was geschehen sollte, dadurch eher seinen Untergang als seine Erhaltung betreibt."

Er empfiehlt daher einem Herrscher, je nach Notwendigkeit moralisch oder unmoralisch zu handeln. Das ist geradezu die Definition von Realpolitik. So gesehen hat Pilatus korrekt gehandelt. Er hatte es mit genug Aufrührern zu tun, und angebliche Messiasse gab es damals in Palästina im Dutzend billiger, da konnte es nicht schaden sich einiger davon zu entledigen, wenn das die Chance bot etwas Ruhe in die aufgeheizte Lage zu bringen. Er könnte sich gedacht haben: Lieber jetzt einen von ihnen hinrichten als ein Jahr später tausend Aufrührer militärisch niederschlagen zu müssen.

Auch Machiavelli lebte in unruhigen und gewalttätigen Zeiten, und seine Ratschläge an die Herrschenden sind vor diesem Hintergrund zu verstehen. Er wollte nicht einem Despoten dabei helfen die Bevölkerung zu tyrannisieren, sondern er wollte daß jemand gewinnt damit wieder friedliche Verhältnisse eintreten können, und nicht immer wieder kriegerische Horden über's Land ziehen und die Bevölkerung übel zurichten. Auch wenn das mit unmoralischen Mitteln einher geht ist's doch recht wenn dabei Frieden dabei heraus kommt. Wie das ausgehen kann wenn ein religiös inspirierter Prophet eine Art Gottesstaat errichtet, in dem quasi per Definition alles höchst moralisch zugeht, weil göttlich, konnte er am Beispiel seines Zeitgenossen Savonarola studieren, der nach wenigen Jahren auf dem Scheiterhaufen starb.

An solchen geschichtlichen Beispielen fällt einem unwillkürlich auf, wie es doch immer wieder aus den gleichen Gründen schief geht. Lernen aus früheren Fehlern scheint auch heute nicht in hohem Kurs zu stehen.

In den Zeiten von Pilatus braute sich unter den Juden ein religiöser Exzess zusammen, der nach Jesus erst so richtig Fahrt aufnahm, obwohl seine Anfänge schon vor Jesus zurück reichten. Die Zeloten insbesondere waren eine zunehmend militante, von Messias-Vorstellungen inspirierte Gruppe, die irgendwann dazu überging, Leute am hellichten Tag auf öffentlichen Plätzen abzustechen. Das mündete schließlich im Jüdischen Krieg, der mit der Zerstörung Jerusalems und des dortigen Tempels im Jahr 70 endete, ein gräßliches Blutbad. Eine Gruppe von Aufständischen verschanzte sich noch zwei Jahre länger auf der Festung Massada, bevor sie angesichts der bevorstehenden römischen Eroberung der Festung kollektiven Selbstmord begingen.

60 Jahre später ging's noch einmal los: Der Bar Kochba Aufstand brach aus. In Jerusalem hatten sich drei konkurrierende jüdische Fraktionen religiöser Eiferer verschanzt, und bekriegten sich noch gegenseitig, als schon die Römer die Belagerung vorbereiteten. Dabei sollen die Rebellen sogar gezielt die eigenen Nahrungsvorräte vernichtet haben, damit sie nicht einer konkurrierenden Fraktion in die Hände fallen. Das Ende war ein erneutes Blutbad, und im Ergebnis waren die Juden 500 Jahre lang aus Jerusalem verbannt, außer an einem Tag im Jahr an dem sie den Verlust ihres Tempels beklagen durften. Erst mit der Eroberung Jerusalems durch die muslimischen Araber im Jahr 637 änderte sich das wieder, und die Juden durften zurück nach Jerusalem.

Das Beispiel Savonarolas zeigt, daß das gleiche Prinzip auch bei den Christen wirkte, wobei man in der Geschichte des Christentums noch viele andere, schlimmere Beispiele finden kann. Man braucht eigentlich nur die Kreuzzüge zu erwähnen, die ja noch heute in den Köpfen sowohl einiger Moslems als auch einiger Christen herumspuken. Mit denen wollten die Christen das rückgängig machen, was im Jahr 637 passiert war. Genauso blutig wie erfolglos.

Wenn es heute die Moslems sind, die mit solchen Vorstellungen vom Gottesstaat letztlich doch wieder nur ein Blutbad nach dem anderen anrichten, so sieht man daran vor dem ganzen geschichtlichen Hintergrund eigentlich nur, daß sich die verschiedenen Religionen in dieser Hinsicht nicht viel schenken. Einmal bricht der Wahnsinn bei den einen aus, einmal bei den anderen. Immer wieder sind es endzeitliche Phantasien, sei es nun das Kommen eines Messias, oder ein herbeigesehnter "jüngster Tag", oder was auch immer: Es hat sich noch jedesmal herausgestellt, wenn man in den rauchenden Trümmern der zerstörten Städte steht und der Rausch ein Ende gefunden hat, daß es doch keine Erlösung gegeben hat, und sich die Welt einfach weiter dreht, allen Leichen und aller Zerstörung ungeachtet.

Was das nun mit Wahrheit zu tun hat? Nun, es sind Beispiele für deren Abwesenheit. Wo das Wunschdenken Amok läuft ist die Wahrheit unwillkommen. Wenn man sich vom Leben nichts mehr erwartet und die Endzeit herbeisehnt erst recht.

Und es scheint sehr viele Leute zu geben, die sich nichts mehr vom Leben erhoffen. Anders ist ihr Verhalten nicht zu erklären. Es geht mir dabei nicht bloß um die Leute, die sich freiwillig um einer fixen Idee willen in die Luft sprengen oder sich anderswie unter Mitnahme möglichst vieler "Ungläubigen" um die Ecke bringen. Es geht mir auch um diejenigen, die unverantwortlichen Populisten zujubeln, von denen sie ganz genau wissen, daß sie lügen, sobald sie den Mund aufmachen. Das tut man nur dann, wenn man denkt, es könne ohnehin nicht mehr schlechter werden als es schon ist, und deswegen eine Lust verspürt, hemmungslos auf die Kacke zu hauen, bevor dann unvermeidlicherweise alles in die Binsen geht.

Oder kann mir jemand einen anderen Grund nennen, warum man Populisten wie Donald Trump oder den Clowns von der englischen UKIP auch dann noch zujubelt, wenn ihre dreisten Lügen auch für den letzten Idioten offensichtlich geworden sind? Das kann doch nur eins bedeuten: Die Anhänger dieser Leute wissen daß das alles Lügen sind - und es ist ihnen egal. Es geht nicht darum was stimmt und was nicht. Es geht nur darum wer sich darüber aufregt. So lange sich das "Establishment" oder die "versifften Linken" darüber aufregen, lohnt sich auch noch die schwachsinnigste Lüge. Daß die halbe Welt an Trump's Erfolg verzweifelt, daß die EU durch den Brexit in Not gerät, daß die "Gutmenschen" geschockt sind, wieviel schierer Egoismus und Rassismus ihnen ins Gesicht schlägt: Alles geil, genau diesen Schockeffekt will man haben. Auf die Kacke hauen, je mehr es spritzt desto besser.

Irgendeine Verantwortung für das Danach hat man ja nicht, denn man rechnet nicht damit daß es ein Danach geben wird, wo man dann wieder mit den Leuten zu tun hat, die man zuvor mit voller Absicht zur Weißglut gebracht hat. Trump z.B. gibt sich alle Mühe, möglichst vielen Leuten auf den Schlips zu treten mit denen er als Präsident wieder irgendwie auskommen müßte. Man kann sich nicht recht vorstellen, daß er überhaupt ernsthaft Präsident werden will, denn auf diese Art macht er sich seinen womöglich zukünftigen Job praktisch unmöglich.

Kein Wunder, daß das auch die Theorie von Michael Moore ist: Trump wollte nie Präsident werden. Er dachte ohnehin nicht, daß er so weit kommen würde. Das Ganze war eher ein Publicity-Stunt, um ihm bessere Chancen auf einen guten Deal mit dem Fernsehen zu verschaffen. Er hat keinen Plan für den Fall daß er gewählt wird. Man hat eher den Eindruck, daß er sich alle Mühe gibt, so viele Leute wie möglich zu beleidigen, damit er nicht gewählt wird, was ihm paradoxerweise gerade zu mehr Popularität verhilft.

Den gleichen Eindruck gewinnt man im Fall des Brexit-Referendums: Die Brexit-Wahlkämpfer haben an ihren Erfolg selber nicht geglaubt. Für diesen Fall hatten sie keinerlei Plan. Deswegen haben sie sich erst einmal verpisst, als sie wider erwarten gewonnen hatten. Es ging gar nicht um's Gewinnen, sondern darum, dem Establishment an den Karren zu fahren, mit so viel Schmackes wie möglich, damit's ordentlich scheppert. Egal welcher Schaden dabei entsteht. Deswegen hat man auch hemmungslos gelogen, denn das provoziert am besten - vor allem wenn jedem klar ist daß es eine Lüge ist. Daß man hinterher irgendwie Verantwortung übernehmen soll, und den Weg aus dem Schlamassel weisen soll, welches man angerichtet hat, kam in den Überlegungen offenbar nicht vor.

Es gibt keinen Grund, zu glauben es würde anderswo, z.B. hier in Deutschland mit der AfD, oder bei den Franzosen mit der Front National, anders laufen. Die funktionieren alle nach dem gleichen Prinzip. Sie sind auf ihren eigenen Erfolg nicht vorbereitet, denn sie haben keinen positiven, konstruktiven Plan für "Danach". Sie würden sich im Fall des Falles darüber intern heillos zerstreiten, wenn das nicht sowieso schon der Fall sein sollte, außer es setzt sich eine einzige Person durch, die dem Ganzen ihren Weg aufzwingen kann. Ihr ganzer Erfolg beruht auf zwei Faktoren:
  • Einer Bevölkerungsschicht, die keine positiven Erwartungen an die Zukunft hat, und deswegen keine Hemmungen hat, destruktiv zu sein. Die nicht glaubt, in der gegebenen Lage irgend etwas wirklich verschlechtern zu können, und darum auch keine Verantwortung verspürt. Die im Gegenteil glaubt, je heftiger es kracht, desto eher kann daraus etwas Positives, Neues entstehen.
  • Ein verbliebenes Verantwortungsbewußtsein bei einem anderen Teil der Bevölkerung, der als das "Establishment" wahrgenommen wird. Dieses kann man herausfordern, verspotten, und letztlich zur Geisel nehmen. Je mehr sich die dagegen sträuben, ihre Verantwortung und ihre Menschlichkeit preiszugeben, desto mehr hat man sie am Nasenring und kann sie quälen. Es ist der gleiche Trick wie bei einem pubertären Teenager, der durch seine demonstrativ zelebrierte Verantwortungslosigkeit seine Eltern zur Weißglut treibt, wohl wissend daß sie ihn im Ernstfall nicht hängen lassen werden.
Man müßte sie eigentlich die Folgen ihrer eigenen Verantwortungslosigkeit spüren lassen, einesteils um ihnen die Folgen zu verdeutlichen, andererseits um ihnen zur Erkenntnis zu verhelfen, daß es wider ihrem Erwarten nach Ende des Gemetzels ein Danach gibt, in dem sie sich wieder mit denen arrangieren müssen, denen sie zuvor den letzten Nerv geraubt haben. Nur, wohin verzieht man sich in der Zwischenzeit, wenn man nicht von den Trümmern getroffen werden will?

Eine Kolonie auf einem anderen Planeten wird so schnell nicht fertig sein...

Oder sollen wir uns doch lieber an Machiavelli halten, und die hehren Prinzipien fahren lassen und uns möglichst klug und effektiv ins allgemeine Hauen und Stechen stürzen, mit dem Ziel am Ende die Oberhand zu behalten, wenn genug Blut geflossen ist?

Sonntag, 21. August 2016

FAQ Rauschen

Was wäre angemessener, als das Sommerloch mit Rauschen zu füllen? Ein ideales Thema für einen neuen FAQ-Artikel (Fix Abgehandelter Quatsch), meine ich.

Rauschen, was für ein langweiliges Thema, höre ich Euch stöhnen, was gibt's da groß zu erzählen?

Wartet's ab. Wie so oft ist das ein Thema, das umso interessanter und vielfältiger wird, je tiefer man einsteigt. Rauschen taucht bei Audio immer wieder auf, denn es ist unausweichliche physikalische Realität, die gemessen, bewertet, erklärt und nach Möglichkeit in Grenzen gehalten sein will.

Was ist Rauschen eigentlich?

Verdammt gute Frage! Hier geht's schon los mit der Komplexität.

Im engeren Sinn ist es ein Signal, das durch Zufallsprozesse erzeugt wird. Durch die chaotische, thermische Bewegung von Gasmolekülen zum Beispiel. Die trommeln gegen die Membran im Ohr, und das erzeugt ein Rauschsignal, wenn auch ein sehr leises. Die chaotische Bewegung des Wassers in einem Wasserfall erzeugt ebenfalls ein Rauschsignal, bloß wesentlich lauter.

Im weiteren Sinn wird das Wort auch im Sinne von "Geräusch" benutzt, besonders im Englischen, wo das Wort "Noise" beide Bedeutungen abdeckt. Dazu gehören dann auch Signalarten, die nicht so zufällig sind, aber ebensowenig dem Nutzsignal zuzurechnen sind. Ein im Hintergrund vorbei fahrender Zug produziert ein Signal, das weitgehend aus Rauschen besteht, aber auch aus ein paar weniger zufälligen Komponenten, wie z.B. das Rattern von Rädern bzw. Stoßstellen der Schienen, und manchmal auch das typische Gekreische von Bremsen.

Es ist ein fließender Übergang zwischen dem eher gleichmäßigen Rauschen im engeren Sinn, und dem gesamten Geräusch im weiteren Sinn, das auch die weniger zufälligen Teile umfaßt. Oft wird unterschieden zwischen dem gewollten Signal (Nutzsignal) und dem ungewollen Signal (Störsignal), wobei beim Störsignal nochmal unterschieden wird zwischen denjenigen störenden Anteilen, die mit dem Nutzsignal zusammen hängen (Verzerrungen) und den "eigentlichen" Störungen, die vom Nutzsignal unabhängig sind. Bei den Verzerrungen kann man weiter unterscheiden zwischen den harmonischen Verzerrungen und den unharmonischen Verzerrungen, die beide dieselbe Ursache haben können, aber sich anders auswirken. Die vom Nutzsignal unabhängigen Störungen schließlich unterteilen sich in zufällige Störungen, also Rauschen in der einen oder anderen Form, und systematische Störungen, die eine bestimmte Regelmäßigkeit haben, z.B. Brummen aus der Netzstromversorgung.

Ich verstehe unter Rauschen eher dieses gleichmäßige Wasserfallgeräusch. Wieso zählst Du diese ganzen anderen Sachen ebenfalls dazu?

Das bin nicht ich, das kommt aus der Praxis. Und zum Teil auch aus dem Englischen, wo wie gesagt die Begriffsbedeutung etwas allgemeiner ist. Wenn man z.B. von "Signal to Noise" redet, auf Deutsch "Rauschabstand", dann meint man meist den Unterschied in der Stärke zwischen dem Nutzsignal und den Störungen, wovon das Rauschen im engeren Sinn nur ein Teil von mehreren ist. Eigentlich müsste man korrekterweise von "Störabstand" reden, aber der englische Begriff "Noise" wird oft etwas sorglos eingedeutscht, was begriffliche Mißverständnisse hervorrufen kann.

Es gibt eigentlich auch eine ziemlich klar definierte deutsche Begriffsdefinition, die man vor Jahrzehnten mal genormt hat, aber die scheint in der Praxis wenig bekannt zu sein und ist auch gegenüber den englischen Begriffen ins Hintertreffen geraten, so daß man sich ggf. genauer ansehen muß, welche Begriffsbedeutung man unterstellen kann, wenn man irgendwo etwas über Rauschen liest.

Also ich lese immer wieder was von "Rauschteppich", von "SNR", von "THD+N", von Rauschabstand oder auch vom "dynamic range". Scheint alles irgendwie ähnlich zu sein, und doch wieder anders. Wie ist das zu verstehen?

Da stecken wieder diese unterschiedlichen Arten von Störung drin, deshalb muß man das einzeln aufdröseln.

Nehmen wir zuerst mal den Begriff "SNR" (Signal to Noise Ratio). Als "Noise" wird in diesem Fall alles genommen, was nicht mit dem Signal zusammen hängt. Verzerrungen zählen also nicht dazu, systematische Störungen wie z.B. Brumm dagegen schon. Die Messung ist recht einfach: Man mißt die Stärke des Gesamtsignals bei eingeschaltetem Nutzsignal, und schaltet dann das Nutzsignal ab und mißt nochmal. Das Verhältnis zwischen den beiden Messungen ergibt den SNR-Wert, den man meist in dB angibt. Wenn man das Nutzsignal abschaltet, dann verschwindet nicht nur das Signal selbst, sondern auch seine Verzerrungsprodukte. Übrig bleibt all das, was mit dem Nutzsignal nichts zu tun hat.

Bei THD+N ist das anders, denn da bildet man das Verhältnis zwischen der Stärke des Gesamtsignals mit Nutzsignal und allen Störungen, und dem gleichen Signal, bei dem man das Nutzsignal herausgefiltert hat. Genau genommen ist das Verhältnis anders herum, die Störungen werden zum Gesamtsignal ins Verhältnis gesetzt, weswegen hier eine negative dB-Zahl heraus kommt, während sie bei SNR positiv ist (Wer sich wundert, wieso das Umdrehen eines Verhältnisses das Vorzeichen bei der dB-Rechnung umkehrt, der sollte seine Kenntnisse in Logarithmen auffrischen, auf denen die dB-Rechnung beruht). Der Effekt ist, daß hier auch die vom Nutzsignal abhängigen Störungen, also die Verzerrungen, mit zur Störung gerechnet werden. In der Praxis ist also der THD+N-Wert meist schlechter als der SNR-Wert. Der Unterschied geht auf das Konto der Verzerrungen.

Wie gesagt handelt es sich im Falle von SNR und THD+N um Verhältnisse zwischen zwei Messungen, weshalb dabei als "Einheit" einfach dB heraus kommen. Es wird eine Messung gemacht mit dem Nutzsignal, und eine ohne das Nutzsignal. Bei SNR wird das Nutzsignal abgeschaltet, bei THD+N nachträglich herausgefiltert. Beidesmal spielt für das Messergebnis eine wesentliche Rolle, wie stark das Nutzsignal bei der Messung gewählt wird. Für die korrekte Interpretation der Ergebnisse muß das bekannt sein.

Wenn ich Angaben über THD+N oder über SNR lese, steht so etwas aber oft nicht dabei.

Das ist ein Problem. Man wird aber in solchen Fällen meist davon ausgehen können, daß ein Hersteller diejenigen Messbedingungen wählt, die den größten Zahlenwert bei der Messung ergeben. Er will ja möglichst gut da stehen. Bei der SNR ist das etwas gefährlicher, weil die Verzerrungen nicht ins Messergebnis eingehen, also könnte der Hersteller ein derart starkes Nutzsignal wählen, daß schon erhebliche Verzerrungen auftreten. Das wäre geschummelt. Bei THD+N würde das den Messwert verschlechtern, also muss man mit dem Nutzsignal so weit zurück gehen, daß die Verzerrungen minimal werden.

Ist dann nicht THD+N grundsätzlich die sinnvollere Messung?

Nicht unbedingt. Es kommt darauf an was man wissen will. Wenn man wissen will, wie stark das Hintergrundgeräusch ist, das man ja bei vorhandenem Nutzsignal meist gar nicht hört, weil es überdeckt wird, dann hilft einem THD+N nichts. Wenn man dagegen wissen will, wie originalgetreu ein Signal wiedergegeben wird, dann liegt man mit THD+N besser, denn es beinhaltet alle Arten von Störung.

Woher weiß ich denn, ob die Messbedingungen, die der Hersteller für die Messung gewählt hat, mit den realen Bedingungen im praktischen Betrieb vergleichbar sind?

Du kannst leider oft davon ausgehen, daß sie es nicht sind, es sei denn die Messbedingungen sind angegeben. Der Hersteller will oft die bestmöglichen Zahlenwerte herauskitzeln, und nicht die bestmögliche Praxisrelevanz.

Nimm als Beispiel einen normalen Vollverstärker. THD+N wird da oft am kleinsten, wenn man in die Nähe der Vollaussteuerung kommt, also an dem Punkt an dem der Verstärker gerade noch keine Begrenzungserscheinungen zeigt. Das ist sehr laut, in den allermeisten Fällen weitaus lauter als im Normalbetrieb. Im Normalbetrieb kommt man oft nicht über 1 Watt Ausgangsleistung hinaus, wenn die Lautstärke im üblichen Rahmen bleiben soll. Eigentlich würde der THD+N-Wert bei dieser Betriebssituation eher interessieren, und wäre dann auch eher zwischen verschiedenen Verstärkern vergleichbar. Ähnlich geht das Argument bei SNR, denn wenn man daraus ermitteln will, welcher Verstärker in der Praxis mehr rauscht, dann interessiert weniger der Abstand zwischen dem absolut lautesten Signal und der Lautstärke des Rauschens, sondern eher die Lautstärke des Rauschens als solche.

Ein wenig besser sieht's aus, wenn die Norm angegeben ist, nach der man mißt, denn dort sind die Messbedingungen genannt. Das Problem für den Anwender ist dann aber, daß er die Norm nicht hat und teuer kaufen müßte. Schlimmer noch, es gibt diverse unterschiedliche Normierungsgremien und demzufolge viele Normen. Da gibt es AES, DIN, EIA, IEC, SMPTE etc., und es werden sogar teilweise immer noch Normen benutzt, die schon seit Jahrzehnten außer Kraft sind. Wenn der eine Hersteller nach der einen Norm mißt, und der andere nach einer anderen, dann müßte man sich schon zwei Normen besorgen, nur um dann vielleicht festzustellen, daß die Werte nicht miteinander vergleichbar sind.

Wie mißt man denn die Lautstärke des Rauschens als solche? Ist das der "Rauschteppich"?

Da gibt's auch wieder diverse Varianten. Der Begriff des Rauschteppichs ist dabei eher bildlich und hat mit einer Messung nichts zu tun. Das Bild kommt vielleicht von den FFT-Diagrammen, wo man einen Signalpegel als Kurve über der Frequenz aufträgt. Rauschen sieht dort wie eine unruhige Grundlinie aus, wie eine Wiese oder ein Teppich von der Seite betrachtet.

Im Grunde will man wissen, ob dieser Teppich höher oder tiefer auf dem Diagramm zu liegen kommt, je höher desto lauter. Das ist aber erst einmal nur eine qualitative Aussage. Eine quantitative Messung wird daraus erst durch eine Reihe von Festlegungen bei der Messung.

Will man das Rauschen mit einer einzelnen Zahl charakterisieren, so muß man festlegen, mit welcher Bandbreite man mißt bzw. welche Bewertungskurve man verwendet, und mit welchem Detektor. Eine korrekte Angabe wäre z.B.: Rauschen unbewertet 20 Hz .. 20 kHz (-3 dB), effektiv. Das Ergebnis gibt man z.B. in dBV an, wenn man Rauschspannungen mißt, z.B. am Ausgang eines Verstärkers.

Eine unbewertete Messung behandelt alle Rauschfrequenzen innerhalb der Messbandbreite gleich. Außerhalb der Messbandbreite werden sie unterdrückt. In aller Regel interessiert man sich nur für die Rauschfrequenzen im hörbaren Bereich, eine Bandbegrenzung von 20 Hz .. 20 kHz (oder so ähnlich) ist daher bei Audio üblich für solche Messungen.

Nun ist aber das Gehör nicht für alle Frequenzen gleich empfindlich, speziell dann nicht, wenn es um eher leise Signale geht, was für Hintergrundrauschen ja hoffentlich der Fall ist. Da sind wir wieder bei den berühmten Fletcher-Munson-Kurven. Eine unbewertete Messung wird also kein Ergebnis liefern, was ungefähr dem menschlichen Lautheitsempfinden entspricht. Man begegnet dem durch die Verwendung von Bewertungsfiltern, deren Kurvenverlauf so gestaltet ist, daß sie die "Badewannenkurve" von Fletcher-Munson in etwa kompensieren. Also die Badewanne auf den Kopf gestellt. Im Ergebnis wird die Messung für tiefe und besonders hohe Frequenzen sehr unempfindlich, für mittlere Frequenzen aber besonders empfindlich. Damit liefert der Messwert eine bessere Annäherung an das menschliche Lautheitsempfinden.

Es gibt zwei verbreitete Bewertungsfilter für das Messen von Hintergrundrauschen im Audio-Bereich (den Telefon-Bereich nehme ich hier einmal aus, dort gibt's andere Filterkurven). Eines ist unter dem Namen A-Bewertung bekannt und ist von der IEC genormt. Ein zweites ist als CCIR-468 bekannt (obwohl das CCIR schon längst in der ITU aufgegangen ist). Andere Bewertungen haben sich nicht auf breiter Front durchsetzen können. Diese Filterkurven beinhalten eine Bandbegrenzung, so daß man bei deren Verwendung keine ausdrücklichen Angaben zur Bandbreite zu machen braucht. Messungen mit solchen Bewertungsfiltern werden auch "psophometrisch" genannt, ein entsprechendes Messgerät heißt "Psophometer". Ein Psophometer ist also ein Messgerät zur "gehörrichtigen" Messung von Hintergrundrauschen. Früher wurde das als eigenständiges Gerät verkauft, heutzutage ist es eine Softwarefunktion in einem Audio-Analysator.

Das ist ja schon mal recht kompliziert. Und was ist mit den Detektoren?

Das kommt als Variable noch dazu. Da es sich bei unserem Signal um ein Wechselspannungssignal aus unterschiedlichsten Frequenzen dreht, bei dem sich die momentane Spannung dauernd ändert, braucht man für eine halbwegs stabile Messung einen Detektor, der dieses Chaos "ausmittelt" und eine ruhige Anzeige ermöglicht. Es gibt eigentlich drei prinzipielle Alternativen: Mittelwert, Effektivwert und Spitzenwert. Der Mittelwert-Detektor mittelt die Spannung über die Zeit (genauer: den Betrag der Spannung). Der Effektivwert-Detektor mittelt die Leistung über die Zeit (in der Praxis wird meist das Quadrat der Spannung gemittelt, und vom Ergebnis die Wurzel gezogen, worauf der englische Begriff RMS hindeutet -- Root Mean Square). Der Spitzenwert-Detektor folgt den Signalspitzen, entweder einseitig oder besser beidseitig.

In der Praxis haben solche Detektoren noch eine "Ballistik", das heißt eine Reaktionsgeschwindigkeit. Je schneller sie ist, desto mehr folgt die Anzeige dem Signal, desto unruhiger wird sie aber auch. Man strebt daher einen Kompromiß zwischen Ablesbarkeit, Meßzeit und Meßgenauigkeit an. Die genaue Charakteristik solcher Detektoren ist Gegenstand der Normung. Es sollte klar sein, daß die Wahl des Detektors das Meßergebnis beeinflußt, daß man also Meßergebnisse nicht ohne weiteres vergleichen kann, wenn sie mit unterschiedlichen Detektoren ermittelt wurden.

Na super, das sind ja schon einmal dutzende Kombinationsmöglichkeiten. Das Schöne an Normen ist, daß es so viele davon gibt. Und was nimmt man jetzt in der Praxis?

Wie ich oben schon mal schrieb: Es kommt darauf an was man wissen will.

Die erste grundsätzliche Entscheidung ist die, ob man gehörrichtig messen will oder nicht, also ob einen eher die elektrische Situation interessiert, ohne Bezug zu dem was davon hörbar ist, oder ob es eben darum geht, die vom Menschen empfundene Lautstärke des Rauschens zu ermitteln, also quasi den störenden Effekt des Rauschens. Das ist die Entscheidung, ob man gewichtet mißt oder ungewichtet.

Wenn man sich für eine ungewichtete Messung entschieden hat, ist damit unmittelbar klar, daß das Ergebnis mit dem Höreindruck nur wenig zu tun haben wird. Der Messwert wird also kaum als Argument in einer Klangdiskussion taugen. Dafür kann man daran eher erkennen, wie sauber der elektronische Signalpfad ist. Zum Beispiel geht ein Brummen ungeschwächt in das Messergebnis ein. Ähnlich sieht es bei sehr hochfrequenten Störfrequenzen aus, die auch dann noch ins Messergebnis eingehen, wenn sie schon nicht mehr hörbar sind. Immer vorausgesetzt, die Störfrequenzen sind innerhalb der Messbandbreite. Diese Messbandbreite ist die zweite Entscheidung, die man zu fällen hat.

Eine gewichtete Messung ist dagegen für Brummen recht unempfindlich, und auch für hochfrequente Störungen. Wie eben auch das menschliche Gehör. Deswegen korrelliert ein Messergebnis aus einer gewichteten Messung erheblich besser mit dem Höreindruck, und taugt folglich auch eher in einer Diskussion um den Klangeinfluß einer Komponente.

Hat man sich für eine gewichtete Messung entschieden, gibt es eigentlich nur zwei in Frage kommende Alternativen: Entweder man mißt A-bewertet mit Effektivwert-Detektor, oder CCIR-bewertet mit Quasi-Spitzenwert-Detektor. Das sind die dominierenden Kombinationen, auch wenn man natürlich auch andere Möglichkeiten hätte. Das "Quasi" bei der zweiten Alternative drückt aus, daß es sich nicht um einen reinen Spitzenwertdetektor handelt, sondern um eine speziell angepasste Variante, deren ballistische Eigenschaften auch nach den Eigenschaften des Gehörs gestaltet sind, denn das Gehör selbst hat ebenfalls eine Art Detektorverhalten bei der Bewertung von Hintergrundgeräusch, dem man sich anzunähern versucht.

Man kann also davon ausgehen, daß die CCIR-Methode noch näher an den Eigenschaften des Gehörs liegt, besonders für Störungen, die nicht nur aus gleichmäßigem Rauschen bestehen. Das CCIR-Verfahren wäre damit die erste Wahl, wenn nicht schlechtere Zahlenwerte dabei heraus kämen als bei der A-bewerteten Messung. Das läßt die CCIR-Wertung auf dem Papier schlechter da stehen, was beim Marketing unpopulär ist. Die Firma Dolby, die sich mit Marketing bestens auskennt, hat daher mal eine weitere Bewertungskurve in die Normierungs-Diskussion gebracht, die im Grunde gleich wie die CCIR-Kurve aussieht, bloß mit verschobenem Maßstab, so daß bessere Zahlenwerte heraus kommen, die gegenüber einer Messung mit A-Bewertung nicht schlecht aussehen. Das hat sich aber nicht durchgesetzt.

Falls Ihr also gehörrichtig messen wollt, und Marketingüberlegungen in Richtung Schwanzlängenvergleich nicht dominant sind, dann würde ich zur CCIR-Methode greifen. Wenn sich alle Messenden an die Regeln gehalten haben, dann kann man am Ergebnis tatsächlich erkennen, welcher Kandidat hörbar weniger Hintergrundgeräusch erzeugt als die anderen.

Wer sich für die ganze Geschichte und die Details dieses recht komplexen Themas interessiert, dem lege ich die Webseite des Australiers Robin Whittle ans Herz, falls Ihr mit Englisch keine Schwierigkeiten habt.

Uff, das war eine ziemliche Dosis! Und das alles für die Messung einer einzigen Zahl. Wieso ist das eigentlich so kompliziert? Wenn ich eine Spannung mit dem Multimeter messe ist das doch ganz einfach!

Das kommt daher, daß das Rauschen ein komplizierteres Signal ist als ein Sinussignal, und auch daher, daß das menschliche Gehör so komplizierte Eigenschaften hat.

Rauschen ist schon dann kompliziert, wenn es sich gleichmäßig anhört. Der einfachste Fall ist da das weiße Rauschen, in dem alle Frequenzen gleichermaßen vertreten sind. Das entspricht oft nicht der Realität, wo die Rauschanteile oft nach Frequenz unterschiedlich sind. Im allgemeineren Fall kommen da noch weitere Störsignale hinzu, die nicht mehr als Rauschen im engeren Sinn gelten können, sondern auf deutsch eher Geräusch genannt würden. Das alles läßt Rauschen zu einem komplizierten Signal werden.

Darin liegt z.B. die Ursache dafür, daß die Messbandbreite eine solche Rolle spielt. Wenn ich ein Sinussignal messe, z.B. eines mit 1 kHz Frequenz, dann ist die Messbandbreite des Messgerätes so gut wie egal, Hauptsache die 1 kHz liegen innerhalb des Bereichs. Dann ist das Messergebnis davon unabhängig. Man könnte ganz schmalbandig messen, und nur Frequenzen in unmittelbarer Nähe von 1 kHz zulassen, oder man könnte breitbandig messen, z.B. mit 20 Hz .. 20 kHz, es käme dasselbe Ergebnis heraus, so lange keinen nennenswerten Störsignale vorhanden sind.

Ganz anders beim Rauschen. Da hier alle Frequenzen vertreten sind, hängt das Messergebnis direkt davon ab, welche Frequenzen man berücksichtigt, und welche man wegfiltert. Je schmalbandiger man mißt, desto weniger kommt durch, und desto niedriger der Messwert.

Das heißt dann wohl, daß man durch schmalbandiges Messen gezielt Störsignale und Rauschen ausblenden kann, wenn man die Stärke eines Sinussignals messen will, stimmt's?

Ganz recht! Die Wahl der passenden Bandbreite ist nicht bloß beim Messen, sondern auch bei allen Kommunikationstechniken grundlegend. Man will möglichst wenig gestört werden, um seine Nachricht möglichst unverfälscht zu empfangen. Also schneidet man alles weg, was nicht zur Nachricht gehört. Wenn das Nutzsignal sehr schmalbandig ist, also im Idealfall eine einzige Frequenz, dann kann man durch entsprechend schmalbandige Filter beim Empfang oder bei der Messung eine optimale Empfindlichkeit erreichen. Damit einher geht auch eine entsprechende Reduktion des Rauschens.

Da der Pegel des Rauschens mit der Meßbandbreite zusammen hängt, bietet es sich an, ein Rauschmaß einzuführen, welches so mit der Bandbreite verrechnet ist, daß man die sich ergebenen Werte je nach Messbandbreite daraus ausrechnen kann. Dieses Maß ist die Rauschdichte. Man kann gedanklich den ganzen Frequenzbereich in einzelne schmale Scheiben zerschneiden, z.B. könnte jede Scheibe einen Bereich von 1 Hz umfassen. Die Messbandbreite von 20 Hz .. 20 kHz würde dann in 19980 solche Scheiben aufgeteilt. Der Energieerhaltungssatz legt nahe, daß sich die Gesamtleistung des Rauschens aus der Summe der Leistungen in jeder Scheibe zusammen setzt. Das heißt, in jeder Scheibe findet man nur einen Bruchteil der Gesamtleistung des Rauschens. Diesen Bruchteil, also die Rauschleistung pro Frequenzeinheit, nennt man Rauschdichte. Bei weißem Rauschen ist die Rauschdichte in jeder Scheibe gleich, sie ist also über die Frequenz konstant. Kennt man die Rauschdichte, dann kann man die gesamte Rauschleistung für jede Bandbreite berechnen.

Ist dann die Kurve, die man bei FFT-Messungen sieht, diese Rauschdichte, über die Frequenz aufgetragen?

Nein, nicht ganz. Die FFT macht genau das was ich oben beschrieb: Sie teilt den Frequenzbereich in Scheiben (engl. bins), und berechnet in jeder Scheibe den zugehörigen Leistungs- oder Spannungswert. Die "Dicke" der Scheiben, also die Frequenzspanne, die eine Scheibe repräsentiert, ergibt sich durch die Anzahl der Punkte der FFT, in Kombination mit der Abtastrate. Bei einer Abtastrate von 48 kHz und einer Punktezahl von 24000 würde sich genau 1 Hz pro Scheibe ergeben. Dann hätte man die Rauschdichte. Bei anderen Punktezahlen ergeben sich aber entweder dickere oder dünnere Scheiben, so daß kleinere oder größere Leistungswerte heraus kommen. Das führt dazu, daß mit steigender Punktezahl der FFT das gleiche Rauschsignal eine immer tiefer liegende Linie auf dem Diagramm bewirkt. Auf so einem Diagramm rutscht der Rauschteppich bei jeder Verdopplung der Punktezahl der FFT um 3dB nach unten.

Warum kompensiert man das nicht heraus, indem man den Maßstab um 3 dB verschiebt?

Weil das dann für Sinussignale nicht mehr stimmen würde. Ein Sinussignal mit z.B. der Frequenz 1 kHz fällt ja immer in eine Scheibe, egal ob die nun dicker oder dünner ist. Wenn ich nun bei einer Verdopplung der Punktezahl der FFT den Maßstab um 3dB verschieben würde, dann wäre zwar der scheinbare Rauschteppich auf der gleichen Höhe geblieben, aber die Spitze, die zum Sinussignal gehört, wäre um 3 dB höher geworden, obwohl sich am Signal nichts geändert hat. Das wäre noch verwirrender.

Es hilft nichts: Man muß bei Rauschbetrachtungen per FFT die Abtastrate und die Punktezahl der FFT kennen, sonst kann man keine vernünftigen Aussagen machen. Das heißt man muß diese 3dB-Regel bei Punkteverdopplung kennen und berücksichtigen.

Das heißt das "Gras" in so einer FFT-Kurve ist gar nicht der echte Rauschteppich?

Nein, dem Pegel nach nicht. Das Aussehen ist zwar so, aber die konkreten Zahlenwerte stimmen nicht. Unter dem Rauschteppich versteht man normalerweise die Gesamtheit des Rauschens in einem Frequenzbereich, was letztlich auf eine breitbandige Messung hinaus läuft, während die vielen "bins" bei einer FFT eine schmalbandige Messung darstellen, die ganz andere Werte ergibt. Man könnte aus dem FFT-Bild den Pegel des Rauschteppichs dadurch berechnen, daß man die in jeder Scheibe gemessene Rauschleistung addiert, und zwar für alle Scheiben, die zur gewünschten Bandbreite dazu gehören.

Es ist aber eine gute Gelegenheit für irreführendes Marketing: Mache eine möglichst hochauflösende FFT (mit möglichst vielen Punkten), dann verschiebt sich der dargestellte "scheinbare" Rauschteppich nach unten, und der Kunde wird glauben das Produkt sei besser.

OK, so langsam ist meine Informationsverarbeitungsfähigkeit an der Grenze. Eins fehlt aber noch: "Dynamic Range". Wie passt das ins Bild?

Das ist im Grunde das gleiche wie SNR, wenn man den maximal möglichen Signalpegel zur Messung nimmt. Erinnere Dich daß die SNR-Messung eine Verhältnis-Bildung zweier Messungen darstellt, eine mit Nutzsignal und eine ohne. Die Stärke des Nutzsignals ist bei SNR erst einmal undefiniert, und muß nicht unbedingt die maximal mögliche sein. Je nach Meßvorschrift kann es sich auch um einen Nennpegel handeln, oberhalb dessen durchaus noch einiger "Headroom" besteht.

Beim Begriff "Dynamic Range" wird dagegen immer mit dem maximal möglichen Pegel beim Nutzsignal gearbeitet, bei dem noch keine nennenswerten Verzerrungen auftreten. Wieviele Verzerrungen die Grenze darstellen, muß festgelegt sein.

Die Werte für SNR sind also entweder gleich oder schlechter als die Werte für den Dynamic Range, je nachdem welchen Referenzpegel man für die SNR-Messung benutzt, bzw. wieviel Headroom man bei der SNR-Messung läßt. Man könnte auch sagen: Dynamic Range = SNR + Headroom.

Während man bei einer SNR-Messung erwarten würde, daß der Referenzpegel explizit angegeben wird, würde man bei einer Angabe des Dynamic Range erwarten, daß angegeben wird, mit welchem maximalen Klirr man gemessen hat.

Bei digitalen Systemen wird in aller Regel das maximal verzerrungsfrei darstellbare Sinussignal als Referenz verwendet (0dBFS). Man nimmt dabei statt 1 kHz oft eine Frequenz von 997 Hz, damit die Signalfrequenz und die Abtastfrequenz prim zueinander sind. Bei reinen Digitalsystemen ergibt sich die Dynamik direkt aus der Wortlänge in Bit, lediglich die Wahl des Dither kann hier noch einen (kleinen) Einfluß haben. Die Tatsache, daß die Bitanzahl einem Rauschabstand entspricht, führt zu ENOB als Maß (Effective Number Of Bits), was aber letztlich nur eine andere Darstellung der gleichen Information bedeutet.

Gut, das reicht. Haste noch ein paar Literaturhinweise, für später wenn mein Kanal wieder aufnahmefähig ist?

Probier's mal mit diesem Tutorial, das ein bißchen A/D-Wandler, bzw. D/A-Wandler-zentriert ist.

Auch nicht schlecht ist das Papier von David Mathew, und natürlich die Informationssammlung des verstorbenen Eberhard Sengpiel. Der verweist auf diverse Wikipedia-Artikel, was ich hier aus Faulheitsgründen nicht gemacht habe.

Sonntag, 3. Juli 2016

Der endgültige, offizielle HRA-Beweis. Oder so ähnlich.

Die Audiophilen-Szene ist begeistert. Endlich ist bewiesen, daß HRA (High Resolution Audio) tatsächlich hörbar besser ist als CD-Audio. So jedenfalls könnte man meinen, wenn man die Presseerklärung der Londoner Queen Mary Universität liest, die einen in der neuesten Ausgabe des Journals der AES enthaltenen wissenschaftlichen Artikel von Joshua Reiss ankündigt. Ein wissenschaftlicher Artikel, mit peer-review, da kann man nichts mehr dagegen sagen, damit ist die Sache gelaufen, und die Audiophilen haben Recht behalten.

Oder etwa nicht?

Sehen wir uns das doch einmal etwas genauer an. Der AES-Artikel ist im Open-Access-Programm und daher für jedermann frei downloadbar (siehe obigen Link). Ihr könnt also mitlesen, wenn Ihr Euch einen auf Englisch geschriebenen wissenschaftlichen Artikel antun wollt.

Zuerst einmal das Grundsätzliche, und auch gleich eine Richtigstellung von ein paar "Kleinigkeiten", die in dem Freudengeheul da draußen schnell untergehen:
  • Die Studie ist eine Meta-Analyse, also eine zusammenfassende Auswertung schon stattgefundener Studien mit statistischen Mitteln. Es wurden keinerlei eigene oder zusätzliche Hörversuche gemacht. Auf solche Meta-Analysen trifft man auch in anderen Wissenschaftsgebieten, z.B. der Medizin. Die Motivation dafür ist fast immer, daß man hofft, auf diese Weise für eine Hypothese eine statistische Signifikanz heraus zu bekommen, die die Einzelstudien nicht erreichen konnten. Es ist im Grunde ein Weg, um den Testumfang zu vergrößern, ohne daß man tatsächlich testen muß. Das ist natürlich insbesondere dann attraktiv, wenn ein Test besonders teuer wäre. Die Nachteile sollten aber nicht aus dem Blickfeld verschwinden: Man kann nur Studien zusammenfassen, die auch zusammen passen, also die von der Fragestellung, der Testmethodik, und der Dokumentation her sinnvoll miteinander verrechenbar sind. Das muß man sich ggf. genauer ansehen. Zudem besteht immer die Gefahr, daß man - ob willentlich oder nicht - mit der Auswahl der berücksichtigten Studien bereits eine Tendenz in seine Auswertung einbaut. Das kann schon daher kommen, daß Studien eher veröffentlich werden, wenn sie ein "interessantes" Ergebnis haben. Studien ohne Überraschungswert werden eher zurückgehalten und bleiben unbekannt ("Publication Bias"). Wenn dazu noch wirtschaftliche Interessen hinein spielen, wird's vollends gefährlich. Entsprechend kritisch werden Meta-Analysen auch gesehen, wenngleich sie zum üblichen wissenschaftlichen Handwerkszeug gehören.
  • Die AES veröffentlicht den Artikel in ihrem Journal. Das bedeutet, daß es einen peer-review-Prozeß gegeben hat. Es haben mehrere Fachleute den Artikel begutachtet und ihre Kommentare abgegeben, ehe er veröffentlicht wurde. Wer diese Fachleute waren, und was sie zum Artikel meinten, ist vertraulich. Daß der Artikel abgedruckt wird heißt, daß diese Fachleute mit der Veröffentlichung einverstanden sind. Es heißt nicht daß sich die AES den Inhalt zu Eigen macht. Ein solcher Artikel ist keine formale Stellungnahme. Die AES hat meines Wissens auch keine Presserklärung darüber herausgegeben. Die oben verlinkte Presseerklärung stammt von der Universität, nicht der AES (*). "Offiziell" ist das Ergebnis also in keinem irgendwie belastbaren Sinn. Es ist immer noch lediglich das Werk eines Wissenschaftlers.
  • Von den 80 Studien, die als Kandidaten in Betracht kamen, gingen lediglich 18 in die Auswertung ein. Die anderen schieden aus diversen Gründen aus, wie sich im Artikel nachlesen läßt.
  • Die ausgewerteten Studien basieren (selbstverständlich!) auf Blindtests. Wie Anti-Blindtest-Krieger wie der oben verlinkte Lavorgna es mit ihrer Haltung vereinbaren können, eine solche Studie zu bejubeln, wo sie sonst bei jeder Gelegenheit betonen, daß Blindtests prinzipiell nicht funktionieren können, müssen sie selbst erklären.
Wo wir das mal abhandelt haben, wird es Zeit, sich mit dem Artikel selbst zu beschäftigen. In seiner Zusammenfassung bietet Reiss eine "Overall conclusion" an: "...that the perceived fidelity of an audio recording and playback chain can be affected by operating beyond conventional levels."

Wie heißt es dagegen in der Presseerklärung: “Audio purists and industry should welcome these findings – our study finds high resolution audio has a small but important advantage in its quality of reproduction over standard audio content.”

Ich bin wohl nicht der Einzige, der hier einen deutlichen Unterschied sieht. Ob das wohl etwas damit zu tun hat, daß Reiss in der Presseerklärung frei von der Leber weg reden kann, während er im Artikel auf die Begutachter Rücksicht nehmen mußte? Offenbar ist er der Meinung, er habe gezeigt, daß HRA einen Vorteil bietet, und daß der - wiewohl gering - wichtig ist. In der Studie steht das nicht so klar. Selbst wenn man einmal annimmt, daß das Ergebnis nicht aufgrund von Fehlern zustande kam, und daher belastbar ist (und das ist keineswegs so klar), so ergibt sich daraus lediglich, daß ein Unterschied mit knapper Not hörbar war, mit einer so geringen Wahrscheinlichkeit, daß man eine große Anzahl von Versuchen braucht, um sich sicher genug zu sein zu können, größer jedenfalls als es die Einzelstudien vermocht haben.

Ob der wahrgenommene Unterschied auch als Verbesserung empfunden wird, ergibt sich daraus nicht. Das bestätigt letztlich auch Reiss selbst, seine Studie "...was focused on discrimination studies concerning high resolution audio" und "...the causes are still unknown...". Wie kann man dann von einem Vorteil reden, wenn die Frage der Präferenz gar nicht Gegenstand der Analyse war? Und wie kann man behaupten, er sei wichtig? Beides ist eine Interpretation, die die Studie als solche nicht stützt. Reiss überinterpretiert seine eigenen Ergebnisse.

Wie man der Presserklärung leicht entnimmt, ist sich Reiss des wirtschaftlichen und politischen Umfelds wohl bewußt, in das er seine Studie entläßt. Tidal und Pono werden explizit erwähnt, und die Formulierung läßt kaum einen Zweifel daran, daß das Studienergebnis als Bestätigung der Behauptungen der Befürworter solcher Angebote verstanden werden soll. Ist es da verwunderlich, wenn ich den Verdacht hege, daß Reiss' Überinterpretation nicht ganz uneigennützig ist? Die Audiophilenszene hat die Steilvorlage jedenfalls sofort aufgenommen, und es wird auch nicht verwundern, daß man sich dort nicht damit aufhält, den Artikel genauer zu studieren.

Immer noch vorausgesetzt, daß das Ergebnis belastbar ist, kann man die Studie auch ganz anders interpretieren: Nämlich als Bestätigung dafür, wie klein der Effekt tatsächlich ist. Es bleibt völlig abwegig, das mit den Behauptungen der Audiophilen in Zusammenhang zu bringen. Es spottet ja schon der Logik, daß entsprechende Effekte mit einer geeigneten Anlage, die unter Audiophilen üblich ist, völlig mühelos hörbar sein sollen, während es unter Versuchsbedingungen plötzlich dermaßen hapert, daß man nur mit Meta-Analysen eine ausreichende statistische Signifikanz herauskratzen kann. Welch krasse Behauptungen einem da regelmäßig zugemutet werden, habe ich beim Thema HRA und Pono ja schon früher gezeigt. Das ist schlicht absurd, selbst wenn man einen Hang des Marketings zur Übertreibung mit einkalkuliert.

Ich bin allerdings auch skeptisch, was die Belastbarkeit der Studie betrifft. Reiss zeigt eine beunruhigende Bereitschaft, Ergebnisse von zweifelhaften Studien kritiklos heranzuziehen. Ein Beispiel dafür ist sein Umgang mit Studien im Bereich "Zeitauflösung" des Gehörs, ein Bereich in dem ziemlich viel Scharlatanerie betrieben wird. Reiss schreibt: "A major concern is the extent to which we hear frequencies above 20 kHz. Though many argue that this would not be the primary cause of high resolution content perception, it is nevertheless an important question. [36, 37, 39, 40] have investigated this extensively, and with positive results, although it could be subject to further statistical analysis.
Temporal fine structure [73] plays an important role in a variety of auditory processes, and temporal resolution studies have suggested that listeners can discriminate monaural timing differences as low as 5 microseconds [31–33]..."


Sieht man sich die von ihm referenzierten Artikel genauer an, dann findet man daß sie in der Fachwelt zu einem guten Teil umstritten sind, was Reiss wenigstens zur Kenntnis nehmen könnte und einer Erwähnung würdigen könnte. So sind zwei seiner drei Referenzen zum Thema "5 Mikrosekunden" von Kunchur, über den ich hier schon einmal schrieb. Ihn als seriöse Quelle heranzuziehen, ignoriert sämtliche Kritik, die Kunchur auf breiter Front entgegen geschlagen ist. Die dritte Referenz ist von Krumbholz et.al., und in ihr ist die Zahl von 5 µs nicht zu finden. Vielmehr ist im Text die Rede von "a few tens of microseconds". In der Zusammenfassung wird das in Relation zur binauralen Auflösung gesetzt, die schon anderweitig untersucht wurde und mit 10-20 µs angegeben wird. Entweder Reiss bringt hier etwas durcheinander, oder er überinterpretiert die Fakten. Mithin geben alle drei Referenzen die erwähnten 5 µs nicht auf seriöse Weise her.

Auch ein viertes Papier von Moore, das Reiss heranzieht um den Begriff der "Temporal fine structure" einzuführen, enthält keinen Hinweis darauf, daß es hier um zeitliche Feinheiten geht, die die Möglichkeiten der CD übersteigen. Es sieht eher danach aus als würden hier Begriffe auf suggestive Weise in einen Zusammenhang gestellt, den man nicht ausdrücklich herstellen will, den man im Leser hervorzurufen aber dennoch beabsichtigt. Und den man als wissenschaftlich untermauert aussehen lassen will.

Was die angeblich positiven Ergebnisse von Studien zur Hörbarkeit von Frequenzen über 20 kHz angeht, so soll das Beispiel von Ashihara genügen, das Reiss als Referenz [37] anführt: Ashihara's Papier enthält ein Diagramm, indem die gefundenen Hörschwellen dargestellt sind. Selbst die Maximalwerte zeigen, daß oberhalb von 20 kHz wenn überhaupt nur sehr laute Töne wahrgenommen werden können. Zudem schreibt Ashihara, daß subharmonische Signale nicht gänzlich ausgeschlossen waren, sondern lediglich immer unter 20 dB gelegen haben. Das garantiert allerdings noch nicht, daß sie unhörbar waren. Inwiefern es seriös ist, so ein Ergebnis als Bestätigung zu werten, daß Frequenzen über 20 kHz hörbar sind, überlasse ich Euch. Reiss jedenfalls scheint keine Bedenken zu haben.

Man könnte so noch eine Weile weiter machen, aber ich denke der Grundeindruck ist auch so rübergekommen. Der Tiger ist doch eher ein Bettvorleger, wenn man sich die Sache genauer ansieht.

Aber Ihr solltet Euch, genügend Interesse und Zeit vorausgesetzt, schon selber ein Bild machen. Einige der Artikel, inklusive dem von Reiss selbst, sind ja kostenlos im Netz zu finden. Happy hunting!

Wenn Ihr dann zu einem ähnlichen Ergebnis wie ich gekommen sein solltet, dann wird Euch vermutlich die entsprechende Pressearbeit des Autors sauer aufstoßen. So macht man sich vielleicht im audiophilen Lager Freunde, aber man schadet seiner Reputation und der Reputation von Wissenschaft insgesamt.

Und die AES scheint ein wachsendes Problem mit ihrem peer-review zu haben, scheint mir.


(*) Update: Wie ich eben sehe hat auch die AES eine praktisch gleichlautende Presseerklärung herausgegeben, siehe hier. Wenn man sich ansieht, wie selten die AES eine Presseerklärung aus Anlaß eines Journal-Artikels über ein Forschungsergebnis herausgibt, dann könnte man schon daraus schließen, daß zumindest die Presseabteilung dieses Ergebnis für ganz besonders bedeutsam hält.

In meinen Augen wird es dadurch noch dubioser. Es gibt keinen vernünftigen Grund, warum ein derart mageres Ergebnis ein solches Tamtam verdient hätte, jedenfalls keinen inhaltlichen Grund. Erklären kann ich mir das allenfalls vor dem Hintergrund der kommerziellen Interessen, denen sich die AES hier anscheinend beugt.

Freitag, 10. Juni 2016

Tödliche Ahnungslosigkeit

Zu Beginn der NSA-Affäre hatte ich hier schon einmal einen Artikel über Ahnungslosigkeit, fast 3 Jahre ist das jetzt schon her. Inzwischen haben wir einen Untersuchungsausschuß des deutschen Bundestags zu diesem Thema, und bei seiner gestrigen Sitzung scheint die Ahnungslosigkeit mal wieder Konjunktur gehabt zu haben. Einen Liveblog gibt's bei Netzpolitik. Weil es dabei auch um Drohnenangriffe ging, muß man wohl hier von (potentiell) tödlicher Ahnungslosigkeit reden, und sie hat natürlich noch immer genauso viel System wie vor drei Jahren.

Der Ausschuß befragte zwei Herren vom deutschen Verfassungsschutz, nämlich den momentanen Chef Maaßen, und seinen Vorgänger Fromm. Sehen wir uns mal an was die alles nicht wissen, obwohl es doch ihr Job wäre, Informationen zu beschaffen:

Fromm fängt an. Er war Chef des Verfassungsschutzes von 2000 bis 2012, die Anschläge des 11. September 2001 hat er also im Amt erlebt, und natürlich auch die Veränderungen der Arbeit der Geheimdienste in deren Folge.

Gleich ein interessanter Info-Schnipsel: Die EU hat nach den Anschlägen 2001 die Counter Terrorism Group (CTG) geschaffen, in der die EU-Länder zum Zweck der Terrorismusabwehr zusammenarbeiten. Die Gruppe ist aus dem Berner Club erwachsen, den es schon seit 1971 gibt. Ist es da nicht seltsam, daß man seither und bis in jüngste Zeit immer wieder gebetsmühlenartig aus der Politik hört, die Zusammenarbeit der Sicherheitsbehörden müsse gestärkt werden? Was haben die dann in der CTG in den letzten 15 Jahren gemacht? Wieso erzählt man der Öffentlichkeit immer wieder dasselbe, über mittlerweile Jahrzehnte, ohne daß neu geschaffene Gremien und Gesetze irgend etwas daran zu ändern scheinen?

Aber dann zum Thema Drohnen erfährt man, daß man beim Verfassungsschutz keine Ahnung hatte, daß man Handynummern auch zur Ortung benutzen kann, weswegen sie kein Problem damit gesehen hatten, solche Handynummern und weitere Informationen an die USA weiter zu leiten. Als dann in der Gegend um Afghanistan und Pakistan zwei Deutsche von Drohnen getötet wurden, zu denen der Verfassungsschutz Infos geliefert hatte, mußte man sich darüber Gedanken machen, und hat sich die Vorgehensweise dann vom Innenministerium absegnen lassen, "auch mit Blick auf Mitarbeiter".

Mit anderen Worten, Mitarbeiter beim Verfassungsschutz hatten Bedenken, ob das so in Ordnung sei, und wurden damit "beruhigt", daß der Innenminister die Vorgehensweise ausdrücklich billigt. Nach dieser Vorgehensweise ist die Weitergabe aller Informationen an die USA erlaubt, die nicht "unmittelbar" zur Zielortung taugen, also im Prinzip alles außer GPS-Koordinaten. Alle anderen Daten, wie z.B. Handydaten, die im Zusammenhang mit weiteren Informationen eine Ortung möglich machen, wurden weiter gegeben. Wie glaubhaft ist es dabei, daß beim Verfassungsschutz keiner gepeilt haben soll, daß man mit Handydaten auch orten kann? Soll ich lachen oder kopfschütteln? Wenn das wahr wäre, dann wäre die Inkompetenz dort mit Händen zu greifen.

Dabei wurde den Amerikanern auch der Hinweis mitgeliefert, daß die Informationen nur für nachrichtendienstliche Zwecke gebraucht werden dürfen, nicht aber zu einer Exekution. Darauf hat man sich dann verlassen. Von einer Möglichkeit zur Nachfrage bei der NSA, was genau mit den Daten passiert, machte man anscheinend keinen Gebrauch. Kein Wunder daß den Mitarbeitern das problematisch vorgekommen sein muß. Das ist ja geradezu eine Einladung zum Mißbrauch. Das muß auch dem Innenministerium klar gewesen sein, daher kann man annehmen, daß die Folgen dort in Kauf genommen wurden und werden. Die Versuche, das abzustreiten, finde ich einfach nicht glaubhaft.

Auch der Probebetrieb von XKeyScore, die umfassende Abhör- und Auswertungsanlage der NSA, der 2012 beim Verfassungsschutz anfing, nachdem der BND damit schon lange arbeitete, dauerte sehr lang und hält noch immer an, weil die Mitarbeiter des Verfassungsschutzes offenbar Sicherheitsbedenken hatten. Fromm ging das wohl zu langsam, er fand die Sicherheit zu streng, aber es scheint als hätte er mit Blick auf seine baldige Pensionierung keinen besonderen Aktionismus mehr entfaltet. Besonders interessant dabei: Der BND setzt sich mit der NSA zusammen in Frankfurt direkt an die Glasfaser und schneidet den gesamten Verkehr mit, obwohl im Inland eigentlich der Verfassungsschutz zuständig wäre. Eigentlich müßten beim Verfassungsschutz da alle Warnlampen brennen, und man müßte im Sinne der Spionageabwehr genau hinsehen was die beiden da miteinander treiben. Aber man tut gar nichts. Schaut nicht hin, beschwert sich nirgends, fragt nirgends nach. Was der BND da so tut wird schon seine Richtigkeit haben. Ob das wohl so der Sinn hinter der Trennung der Geheimdienste war?

Ebenfalls interessant: Der Verfassungsschutz ging davon aus daß in verschiedenen Botschaften Anlagen zur Überwachung der Mobilfunknetze installiert sind (wäre ja ein Zeichen absoluter Unfähigkeit, wenn sie das nicht angenommen hätten). Belegen konnte sie es nicht, aber sie (bzw. der Bundesgrenzschutz) haben Botschaftsgebäude regelmäßig "beflogen", und dabei auch "Indizien" festgestellt, z.B. auf der britischen Botschaft, die ihnen anscheinend geantwortet habe, es handle sich dabei um Kunst. Britischer Humor. :-)

Der Innenminister ist bekanntlich der Dienstherr des Verfassungsschutzes. Es möge jeder selber überlegen, was es zu bedeuten hat, daß sich der Verfassungsschutz im Klaren war und ist, daß Mobilfunknetze sehr wahrscheinlich abgehört wurden, auch von den eigenen Verbündeten, und deswegen auch abriet vor der Verwendung von Mobiltelefonen, und im Herbst 2013 meint dann die Bundeskanzlerin ganz überrascht, ein Abhören des eigenen Handies durch die USA "geht gar nicht".

Mein überwiegender Eindruck: Organisiertes Nichtwissen. Wenn man befürchten mußte, daß die Bedenken der eigenen Belegschaft zu groß werden, dann holt man sich ein passend formuliertes Genehmigungsschreiben vom Innenminister, und schickt den US-Partnern einen Text mit, wofür die Informationen benutzt werden dürfen, kümmert sich aber nicht darum ob das befolgt wird. Jeder weiß im Grunde Bescheid, was in der Praxis passiert, aber man hat die Verantwortlichkeit so gut verteilt, daß sich niemand mehr selbst verantwortlich fühlen muß. Am Schluß sterben Leute, und keiner kann was dafür.

Dann der jetzige Chef Maaßen. Dessen Verhalten finde ich so offensichtlich zweckgebunden, daß es mir schon wie ein Eingeständnis erscheint. Er ist ja schon seit Beginn an dabei, Snowden einen Verräter zu nennen, insoweit war sein neuester Auftritt nichts grundlegend Neues. Er spitzt es noch dadurch zu, daß er Snowden unterstellt, er sei ein russischer Spion, bzw. ein Doppelagent. Wie ernst man Maaßen nehmen kann, sollte klar sein wenn man sich ansieht, wie er noch 2014 nichts von Wirtschaftsspionage durch die USA wissen wollte. Selbst Maaßen's Vorgänger Fromm kam angesichts seines deutlichen Nich-Wissen-Wollen nicht drum herum zuzugeben, daß er von den Versuchen der USA, Informationen über EADS zu bekommen, erfahren hatte.

Jetz reitet Maaße also erneut darauf herum, daß Snowden ein russischer Spion sein könnte, obwohl er auch diesmal keinerlei Beweise beibringen kann. Es habe "eine hohe Plausibilität", wäre "aus Erfahrung der Spionageabwehr naheliegend". Maaßen legt vor dem Ausschuß eine Unverfrorenheit an den Tag, die zeigt, daß er sich für unangreifbar hält, und die wohl dem Ausschuß zeigen soll, daß sie keine Chance haben:

Er läßt sich in seinem Eingangsbeitrag über Snowden aus, als dann aber Nachfragen kommen, heißt es plötzlich, es gehe gar nicht um Snowden. Er wirft Snowden vor, wahrscheinlich ein russischer Spion zu sein, was nicht zuletzt auch mit seinem Aufenthalt in Russland zusammen hängt, und verschweigt völlig weshalb er da sitzt, ja er versteigt sich sogar zu spekulieren, er wisse nicht ob er nicht vielleicht sogar da eingeschleust worden sei! Er heuchelt ein Interesse, Snowden zu vernehmen, wenn er in Deutschland wäre, und vertritt zugleich die Haltung der Bundesregierung, die ihn auf gar keinen Fall hierher holen will. Wenn jemand es für nötig hält, derart offensichtlichen Rufmord in Richtung Snowden zu betreiben, und dabei noch behauptet, er würde keine Behauptungen machen und keine Desinformation betreiben, dann zeigt das, daß Snowden genau getroffen hat. Außerdem zeigt es die absolute Geringschätzung Maaßens an die Adresse der Ausschußmitglieder, die er offensichtlich provozieren will.

Fast noch frecher finde ich aber seine Andeutung, die Arbeit des Ausschusses, insbesondere der Auwand, der in seiner Behörde deswegen entsteht, würde letztlich die Terrorismusgefahr vergrößern. Das kann man schon perfide nennen: Ihr seid schuld wenn was passiert. Das geht schon gefährlich nahe an einen Verdacht, den man eben auch haben kann: Daß nämlich die Geheimdienste kein allzu großes Interesse daran haben wenn der Terrorismus aufhört, denn so lange die Gefahr besteht, mindestens gefühlt, so lange kriegen die Dienste Geld und Handlungsspielraum. Wenn man sich so ansieht, was Maaßen alles für plausibel hält, könnte dann nicht auch plausibel genannt werden, daß sich die Dienste ihre eigene Existenzgrundlage womöglich sichern wollen auch durch weniger legitime Tricks? Umso besser wenn man vorsorglich sogar die Verantwortung dafür an einen Untersuchungsausschuß abtreten kann, oder?

Ich habe natürlich nichts behauptet, wie Maaßen, aber Überlegungen dürfen doch wohl noch angestellt werden, auf Möglichkeiten wird doch wohl noch hingewiesen werden dürfen, nicht wahr? ;-)

Und zum Schluß zum Thema Drohnen noch mein Lieblingssatz von Maaßen: "Politisch wollten wir nicht mitarbeiten an Drohneneinsätzen." (Keine Ahnung ob er das wörtlich gesagt hat, aber sinngemäß trifft's absolut den Punkt). Das ist genau die Haltung, die sich schon seit Langem bei den Diensten wie bei der Bundesregierung herausschält: Wir wissen natürlich, was läuft, offiziell wissen wir aber nichts, vertrauen wir unseren Partnern, selbst dann noch wenn die Spatzen alles von den Dächern pfeifen, und wir sichern uns durch passend formulierte Dokumente ab. Politisch können wir uns damit als Unbeteiligte darstellen, und das ist worauf es ankommt. Wir wissen, daß durch Drohnen Leute ohne faires Verfahren umgebracht werden, und wir helfen dabei so weit mit, wie es möglich ist ohne sich nach außen hin die Finger damit schmutzig zu machen.

Da ist die institutionelle Nicht-Verantwortung auf's Tödlichste perfektioniert worden, und die menschliche Ethik ist in den Ritzen zwischen den Ämtern, Diensten und Paragraphen versickert.

Sonntag, 1. Mai 2016

Nordost braucht Streisand

Es ist mal wieder Zeit für den Streisand-Effekt. Da könnt auch Ihr mithelfen, zum Beispiel wenn Ihr in ein paar Tagen auf die High-End nach München geht. Weitere Details später, jetzt muß ich erst einmal erklären worum's geht.

Vor kurzem fand in den USA, in Illinois, die AXPONA trade show statt. Auf dieser Messe gab es auch Vorführungen von Kabeln der Firma Nordost, und um diese Vorführungen hat sich ein Streit entzündet, der inzwischen juristische Dimensionen angenommen hat.

Ins Rollen gebracht hat die Auseinandersetzung Mark Waldrep mit seiner Webseite, der selber auf der Messe ausgestellt hat, der aber nichts mit dem Kabelgeschäft zu tun hat (so weit ich weiß). Es geht also nicht darum, daß sich hier zwei Konkurrenten gegenseitig bekriegen. Die beiden Artikel, die er zu diesem Thema geschrieben hat, sind inzwischen wieder entfernt, was die Firma Nordost per "Cease and Desist Letter" erzwungen hat. Also eine Abmahnung bzw. Unterlassungerklärung.

Es fing offenbar damit an, daß ein Besucher der Messe ("Patrick") einer Vorführung von Nordost beigewohnt hat, bei der der Vorführer angeblich die Lautstärke etwas höher gedreht hat, als die teureren Kabel vorgeführt wurden. Das scheint ein gern benutzter Trick von Kabelverkäufern zu sein, Der gleiche Mark Waldrep berichtete schon im Januar davon, wie dieser recht billige Trick in einem Demovideo von HDMI-Kabeln der Firma AudioQuest benutzt wurde.

Der inzwischen entfernte Text der ersten Beitrags von Waldrep lautete wie folgt:
In case you missed the comment from Patrick regarding the Nordost power cord demo at the recent AXPONA Show, I’ve copied it below. Patrick was the young man that informed me during the show that he had some serious doubts about the legitimacy of the Nordost power cord demo. He wrote:
“I witnessed the power cord demo. Here’s what took place. The Nordost representative only swapped the power cable on the CD player – he did not swap any cables in the preamp. Here was the procedure.
He would turn off the CD player, unplug the power cable and plug in a seemingly better quality cable. As the cables got progressively more expensive, I was sitting in the front row and personally witnessed the representative increase the volume on the preamp from 58 to 61 (the preamp had a digital volume display that was easy to read when you’re sitting 5 feet away). This increase took place when the representative got into the $1000 and up power cords.
There was also another curiosity. The representative would play the same tracks generally for an AB comparison – but he continually seemed to be stumbling through the same CD to find the right track. In the beginning, he was playing Track 1 (again sitting 5 feet away gives you a clear line of sight to the display). Around the same time that he increased the volume on the preamp ever so slightly, I also noticed that the CD player was now on Track 7 – but it was the same exact song.
I can assure you that I did not go into the demo looking for any kind of tricks. This was my first audio show and I was genuinely curious if I could detect a difference. Needless to say, the volume increase was disheartening and I certainly won’t be buying any expensive power cables. I’m glad I learned that lesson early on in life."

If true, Patrick’s indictment of the Nordost demo would be more fuel to the fire that the high-end cable companies are literally scamming customers by faking their demos. In the interest of getting to the bottom of this issue, I spent over 30 minutes in the Nordost room (Westin Room 450) getting the same demo. In fact, the first demo that the Nordost representative played involved the differences between an expensive power strip when placed on the floor vs. the same power strip elevated by “Sort Kones”, the conical isolation accessories that “enhance” the fidelity of a system by minimizing the vibrations that “create timing errors that smear and distort the music”. The sound of the playback system with the cones was noticeably louder than without. Even the explanation on the Nordost website doesn’t claim that using Sort Kones will increase the amplitude of your system. But when the power strip was elevated, the volume was louder. What was the presenter doing to make it change?
To be continued tomorrow…
 Der zweite Artikel, den Waldrep ebenfalls zurückgezogen hat, lautete wie folgt:
This post is a continuation from yesterday. You can read the first part by clicking here.
Then I sat through the power cord swap out demo. I sat in the front row of their demo room. The presenter swapped out the power cord to the disc player…and only the disc player. He started with a simple IEC power cord, which probably cost about $1.50. He played about 30-45 seconds of a track from the CD. He stopped the player and turned off the power to the unit. He connected a $200 power cord from the Nordost product line. He powered up the CD player, stood in front of the player, and played the same piece of music once again. The sound coming from the speakers was noticeably louder…by about 1-2 dB. The Nordost guy stood to the side and expressed his satisfaction that the change was immediately obvious and repeatable. The volume setting on the front of the amplifier was the same in each case (unlike the change reported by Patrick…I think the presenter knew me and wasn’t going to risk moving the volume knob). This was proof positive that a “better” power cord results in “better” sound.
Nordost doesn’t build its power cords to meet certain price points. He explained that the company delineates their products by performance levels. He passed around the transparent power cords so that attendees could see the construction of the cables, the careful windings, the wires that keep the insulation from touching the power leads, and the heft of the $6000 Valhalla 2 cable (don’t you ever wonder about the AC cabling that is inside the walls? Wouldn’t that limit the sound?). The demo continued with successively more expensive cords connecting the CD player to the power strip. And each time the music amplitude associated with the more expensive cable was higher. It was not subtle, however the volume on the preamplifier remained the same (unlike the experience reported by Patrick above). The presenter stated that the expensive power cord “acts like a power conditioner” in removing the artifacts and sonic degradation coming from the wall. Was he saying you don’t need a power conditioner…just a $6000 6-foot power cord?
It was like a magician’s trick. Somehow the presenter was making a change to the system without turning up the volume. There was more output coming from the speakers after the swap. At first I couldn’t figure it out…until Patrick commented on his experience during an earlier demo. The volume on the amplifier didn’t change but the track played on the CD was never repeated more than once. I found that curious. The Nordost presenter would play some music and then swap the cable and replay the same piece of music. But instead of swapping out a new power cord and playing the same track for the third time, he always migrated to another track. This truck me as strange. Why wouldn’t he simply repeat the track a third or fourth time? At one point in the process, he turned to me as he was selecting the track number on the CD player and said, “I’m not sure which track number I played last?”
The disc that he was playing was not a commercial replicated CD. It was custom made for their demo. I believe the disc contained two copies of each track. One that was mastered slightly louder than the other. How else could I account for the difference in volume AND the fact that he didn’t go back and play the same track a third time. There were only two copies of each tune on the disc…not three or four.

I think that explains the increased volume that the audience experienced throughout the demo. The presenter played the same music from a different track…one that was 1-2 dB louder. It wouldn’t be hard to pull this off. In fact, as a former mastering engineer, I could create a custom CD-R that would retain the same track number so no one would be the wiser. I regret not recording the whole session or keeping track of the track number being played. I thought about it before heading upstairs but my wife was using my iPhone to run credit cards at our sales table.
Like the AudioQuest/Home Entertainment YouTube video earlier in the year, the Nordost demo was simply not believable. Small isolation cones and expensive power cords do not cause an audio system to get louder…if they do anything at all. The companies behind these audiophile products don’t even make that claim. There’s nothing more compelling or noticeable during an audio demo than comparing two music tracks with one louder than the other. If a power cord resulted in an increase in the volume of the output signal then using a Valhalla 2 power cord to connect a lamp to a wall socket would cause it to glow more brightly…and that doesn’t happen!
As I wrote this article, I went online and read a number of very positive reviews about Nordost cables…including a number that praised the Valhalla 2 power cords. One of them contained this sentence, “The results were stunning. Even with competing systems in adjacent rooms rattling the walls, it was easy to hear the much lower noise floor and improved soundstaging, texture and decay. Cash’s ragged voice sounded like he’d leaned an inch closer to the microphone, as well as pulled off the foam sock.” When a singer gets an inch closer to the microphone, the output amplitude of the microphone goes up. The reviewer was reporting an increase in volume and thinking the cable was the cause…it wasn’t. There are slick published “Guides to High-End Cables” full of glowing reviews and glossy photos of cables. Reading them will cause your head to spin…complete BS.
Cable vendors and the press that uniformly support them with ridiculous “reviews”, are not being truthful about the relative merits of their products. Overpriced cables…analog and digital…are not worth the money. It’s really that simple.
Ich denke es ist klar warum Nordost das nicht stehen lassen wollte, denn wenn stimmt, was Waldrep schreibt, dann hat der Nordost-Vertreter durch Manipulation der Lautstärke bei der Demo geschummelt. Man könnte es auch Betrug nennen.

Nun gut, Waldrep kann es wohl schwerlich beweisen, er kann bloß seine eigene Beobachtung schildern, deswegen hat er sich wohl auch entschlossen, dem Säbelgerassel der Nordost-Anwälte nachzugeben. Aber Waldrep ist kein Laie, der auf der Brennsuppe daher geschwommen kommt und irgend einen Unfug erzählt. Was er schildert ist plausibel. Und wahrscheinlich auch kein Einzelfall.

Diese und die AudioQuest-Episode zeigen meiner Meinung nach ein paar Dinge:
  • Die Verkäufer von überteuertem Zubehör verstehen genug von Psychoakustik, daß sie wissen was man mit ein bißchen mehr Lautstärke erreichen kann. Es wird Zeit, daß das breite Käufervolk begreift, wie wichtig stringente Lautstärkekontrollen bei solchen Vergleichen sind.
  • Die Konkurrenz im Kabelmarkt der "gehobenen Klasse" ist so groß, und die Verkaufsmargen so attraktiv, daß jegliche Hemmungen fallen, was die Verkaufstricks angeht. Waldrep schreibt die Lautstärkeunterschiede seien "not subtle" gewesen. Man wollte offenbar absolut sicher stellen, daß der Unterschied auch gehört wird.
  • Man braucht faule Tricks, um teure Kabel verkaufen zu können.
  • Zu wenige Leute durchschauen noch immer diesen Betrug. Wenn bei einer Kabelvorführung deutliche Lautstärkeunterschiede zu vernehmen sind, dann müßten eigentlich faule Eier nach vorne fliegen.
  • Den schönen Schein müssen notfalls die Rechtsanwälte verteidigen.
Ihr könnt mithelfen, der Firma Nordost zu zeigen, daß sie sich für die falsche Strategie entschieden hat. Berichte über solche Betrugs- und/oder Zensurversuche sollten viral werden, und möglichst weithin bekannt werden. Die Firma soll ruhig erfahren was man von ihrem Vorgehen hält.

Und man sollte in solchen Vorführungen wesentlich kritischer sein. Setzt Euch da rein und beobachtet was der Vorführer macht. Nehmt das Lautstärkethema ernst, aber konzentriert Euch nicht zu sehr darauf, es gibt auch andere Tricks. Generell verdächtig ist, wenn nicht sicher gestellt ist, daß Ihr immer derselben Audio-Probe in immer derselben Lautstärke zuhört. Es ist einfach, mehrere leicht veränderte Proben auf eine CD zu brennen, und die nacheinander vorzuführen. Und wenn Ihr ein begründetes Verdachtsmoment habt, äußert es so daß es möglichst viele Leute mitkriegen, nicht in Privatgesprächen hinterher. Eure Eindrücke dürft Ihr schildern, das kann kein Rechtsanwalt verbieten.

Die nächste Gelegenheit dafür ist schon in ein paar Tagen in München auf der High-End. Nordost findet Ihr auf dem Stand Nr. A4.1 E114

Sonntag, 17. April 2016

HMS reloaded

Es sind bald 6 Jahre, daß ich in der Folge eines Besuchs bei der Münchner High-End einen Blogartikel über Strassner und seine Firma HMS schrieb. HMS steht nach wie vor mit dem WWW auf Kriegsfuß, weswegen man sich schwer tut, im Internet auch nur einen Überblick über das Produktspektrum zu gewinnen. Man muß sich dies, und auch Infos über die dahinter stehende "Theorie", auf anderen Webseiten zusammensammeln. Eine dieser Seiten gehört zum "Fidelity Magazin", auf deren Online-Auftritt seit Kurzem eine Artikel-Serie mit einem Strassner-Interview zu lesen ist, die in der gedruckten Ausgabe schon vor Längerem erschienen war.

Ich habe schon in meinem damaligen Artikel hier im Blog dargestellt, wo mein Problem mit der Darstellung von Strassner ist. Strassner's neuere Darstellung ist in mancher Hinsicht "verfeinert", aber immer noch falsch, weswegen ich meine Erwiderung ebenfalls überarbeite.

Nun fällt es zwar leicht, sich klar zu machen weshalb Strassner die Darstellung so wählt, schließlich hat er ein finanzielles Interesse zu wahren - er will ja Kabel und entsprechendes Zubehör verkaufen. Seine Darstellung wird aber wohl vielen Lesern recht plausibel vorkommen, darum lohnt es vielleicht, sich damit etwas genauer zu beschäftigen.

Wie schon bei meinem alten Artikel geht die Diskussion von der Frage aus, was denn ein Meter Netzkabel noch ausrichten soll, wenn davor in der Wand und im Stromnetz schon viele Meter Standardkabel im Spiel sind. Strassner argumentiert, es käme auf den letzten Meter deswegen an, weil es um Differenzspannungen zwischen den Komponenten einer Anlage gehe, und die entstünden erst ab dem Punkt, an dem sich die Wege für Stromversorgung der Geräte trennen, also z.B. ab der gemeinsamen Steckerleiste. Siehe Abbildung 1 im Artikel des Fidelity-Magazins.

Der Interviewer des Fidelity-Magazins wendet dasselbe ein wie ich damals, nämlich daß die Differenzspannung wegen der galvanischen Trennung durch die Netztrafos in den Geräten gar nicht direkt mit der Netzspannung zusammen hängen kann. Dieser entscheidende Punkt blieb bei Strassner's Vortrag damals auf der High-End unerwähnt; diesmal liefert er einen Versuch einer Erklärung, der jedoch komplett fehl geht.

Schauen wir uns mal seine Abbildung 2 an, die zur Erklärung dienen sollte. Da wird sichtbar, daß die parasitären Kapazitäten zwischen Primär- und Sekundärseite für Störströme verantwortlich sein sollen. Wenn diese Störströme zu Differenzspannungen zwischen den Massen zweier Geräte führen sollten, dann führen sie in der Tat zu Audiostörungen, wenn man unsymmetrische Verbindungen benutzt, die sich auf diese Masse als Referenz beziehen. So weit so gut.

Nur, wieso und unter welchen Umständen kommt es dazu? Da muss man etwas genauer hinsehen als es Strassner tut. Wir werden sehen, daß sich die Sache ganz anders darstellt, als man es aus Strassner's Darstellung erwarten würde.

Der erste Punkt: Wenn die parasitären Kapazitäten tatsächlich für die Störströme verantwortlich sind, dann ist es praktisch egal welche Impedanzen oder Widerstände das Netzkabel hat, denn die Spannungen, die über diese Kapazitäten abfallen sind davon fast unabhängig. Die Netzspannung fällt über einen der beiden Kondensatoren C1 oder C2 ab, über den anderen fällt eine geringe, praktisch vernachlässigbare Spannung ab. Die Impedanz der Netzleitung sorgt selbt im extrem unvorteilhaften Fall nur für wenig Spannungsabfall, in der Praxis sind die immer vorhandenen Spannungsschwankungen im Netz wesentlich stärker. Entsprechend unerklärlich wird dann, was man von einem teuren Netzkabel mit extra niedriger Impedanz haben soll.

Strassner hat recht wenn er darauf hinweist, daß es insbesondere die höherfrequenten Anteile der Störströme sind, die in einem solchen Fall relevant werden, denn je höher die Frequenz, desto geringer die Impedanz der parasitären Kapazitäten. Daraus resultiert schon das nächste Problem in Strassner's Erklärung: Eine besonders niedrige Impedanz der Zuleitung verstärkt sogar tendenziell diese höherfrequenten Anteile. Wenn es überhaupt etwas ändert, ein besonders impedanzoptimiertes Kabel einzusetzen, dann sogar zum Schlechteren. Warum?

Nun, Strassner erklärt das mit Hilfe seiner Abbildung 3, wo beschrieben ist wie es wegen der Gleichrichtung und Siebung in jedem Gerät zu impulsförmigen Ladeströmen kommt. Das erzeugt Oberwellen im Netzstrom, also genau die höheren Frequenzen, die Strassner zufolge problematisch sind. Nur werden die umso stärker, je niedriger die Impedanz des Primärstromkreises ist.

Wollte man dagegen etwas unternehmen, dann müßte man die Impedanz der Stromleitung vergrößern, und nicht etwa verringern! Strassner's eigene Produkte wären kontraproduktiv!

Kurz gesagt, wenn der Mechanismus der Störung so sein sollte wie von Strassner dargestellt, dann müßte man eigentlich eine möglichst "schlechte" Netzleitung benutzen. Schlecht in dem Sinn, daß die Impedanz hoch wäre. Die höhere Impedanz dämpft die Stromimpulse, und verringert dadurch die Oberwellen, die besonders gut über die parasitären Kapazitäten einkoppeln.

Immerhin, in der Praxis wird der Trafo selbst dominieren, mit seinen Wicklungswiderständen, und die Widerstände irgendwelcher 2m Netzkabel samt Steckern werden demgegenüber vernachlässigbar sein. Strassner vermeidet es wohlweislich, ein quantitatives Beispiel durchzurechnen, sonst würde offensichtlich, daß es hier um heiße Luft geht. Stattdessen erweckt er den Eindruck, als käme es darauf an, daß wegen der Stromimpulse möglicht wenig Spannung über die Netzkabel und Stecker abfällt. Dabei geht es bei diesem Spannungsabfall gar nicht um die von ihm in die Diskussion eingeführte Differenzspannung zwischen den Geräten. Im Gegenteil, je mehr Störspannung über das Netzkabel abfällt, desto weniger bleibt für die Kopplung über die parasitären Kapazitäten übrig.

Strassner widerspricht sich also im Grunde selbst, was einem aber nur auffällt, wenn man genug von der Sache versteht, und sich die Verhältnisse im Detail durchüberlegt.

Bis hierher sind wir implizit davon ausgegangen, daß es keine Schutzleiterverbindungen gibt. Auch Strassner's Zeichnungen haben bis hierhin keine gezeigt. In diesem Fall fließen die Störströme, insoweit sie durch die parasitären Kapazitäten auf die Sekundärseite geleitet werden, natürlich durch die Massen der Cinch-Leitungen, also das von Strassner unterstellte Störszenario. Einen anderen Weg gibt's üblicherweise nicht, es sei denn man hat die Geräte extra über Massekabel miteinander verbunden. Wenn es aber Schutzleiterverbindungen gibt, dann können diese Störströme genausogut über diese fließen, und die Argumentation verändert sich fundamental.

Das ist ein weiterer meiner Kritikpunkte an Strassner's Ausführungen: Die Unterscheidung zwischen Geräten mit Schutzleiterverbindung, und Geräten ohne, ist hier absolut zentral. Strassner geht darüber hinweg.

In Abbildung 5 kommt dieses Thema in den Fokus. Hier erfährt man explizit, welches Gerät Schutzleiterverbindung hat und welches nicht. Warum nicht schon früher? Hier geht es aber nicht um die kapazitive Störeinkopplung, sondern um Brummschleifen. Ein übliches Szenario: Wir haben eine Masseschleife über eine Antennenverbindung, und ein Netzkabel mit Schutzleiter. Wenn eine Audioleitung Teil der Schleife ist, dann brummt's. Das ist ein völlig anderer Mechanismus, als der vorher beschriebene.

Auch hier ist die von Strassner präsentierte Abhilfe kontraproduktiv: Wenn man es mit so einer Brummschleife zu tun hat, dann kommt es darauf an, den Strom durch die Massen der Audioleitungen zu minimieren, um den Spannungsabfall (also die Differenzspannung) zu minimieren. Wenn man die Impedanzen der anderen Leitungen in der Schleife minimiert, dann kann das genau den umgekehrten Effekt haben, je nachdem wie die Störung eingekoppelt wird. Es wäre dann wieder einmal erfolgversprechender, wenn man die Impedanzen der Netzleitungen erhöhen würde. Wobei es in diesem Fall um die Impedanz der Schutzleiterverbindung geht, und nicht um die stromführenden Leitungen im Netzkabel.

Es zeigt sich, daß man ein paar Dinge säuberlich auseinander halten muß, die Strassner vermischt: Störströme durch kapazitive Kopplung in den Geräten, Störströme die in Brummschleifen umlaufen, und die Wege, die diese Störströme nehmen (können). Mehr noch, es geht auch noch um Störungen durch Funk, was die Sache weiter verkompliziert. Wer das nicht säuberlich trennt, der verwirrt sich selbst.

Im Grunde kommt es zu der ganzen Problematik deswegen, weil man im Hifi-Bereich noch immer auf breiter Front unsymmetrische Audioverbindungen benutzt. Die vertragen sich schlecht mit Geräten, die über den Schutzleiter geerdet werden, weil man dadurch fast unvermeidlicherweise Brummschleifen kriegt. Alles was man da an den Netzkabeln oder generell der Stromversorgung "herumoptimiert" ist ein Herumdoktern an den Symptomen. Falls man dieses Problem hat, dann ist durchaus plausibel, daß sich die Situation hörbar verändert, wenn man andere Kabel nimmt, oder irgendwelche Filter einbaut. Es ist aber weder klar ob die Änderung hin zum Positiven ist, noch hat man sich das Problem damit vom Hals geschafft. Man hat nur ein paar Parameter geändert, und das meist recht planlos und ohne eine objektive Erfolgskontrolle.

Die "klassische" Strategie ist noch immer die am weitesten verbreitete: Alle Geräte haben Stromversorgungen ohne Schutzleiteranschluß, dann kann man auch eine Erdverbindung über den Antennenanschluß haben, ohne daß man sich dadurch eine Brummschleife durch's ganze Haus einhandelt. Die Geräte in der Anlage haben dann zwar untereinander Masseverbindung über die (unsymmetrischen) Audiokabel, aber das ergibt höchstens lokale und entsprechend harmlose Schleifen. Die Ausgleichsströme (die über die oben diskutierten parasitären Kapazitäten zustande kommen) fließen mangels Alternative über die Audiokabel, aber in den meisten Fällen sind sie schwach genug um keine hörbaren Probleme zu machen. Verbessern kann man die Situation, indem man zusätzliche Masseverbindungen zwischen den Geräten schafft. Wohl dem, dessen Geräte dafür eine Masseklemme haben, andernfalls muß man eine geeignete Gehäuseschraube zweckentfremden.

Haben die Geräte Schutzleiteranschluß (es fängt schon an wenn es nur ein Gerät ist), dann tritt sofort die Problematik aus Strassner's Abbildung 5 auf den Plan. Hat man einen Anschluß an eine geerdete Antennenanlage, dann gibt es nun eine Brummschleife quer durch's Haus, über die meist getrennten Erdungen der Antennenanlage und des Stromnetzes. Die darin fließenden viel stärkeren Ausgleichsströme fließen zum Teil wieder durch die Audiokabel, und verursachen hörbare Probleme. Nur nutzt es wenig, wenn man hier an der Impedanz des Netzkabels herumoptimiert. Man müßte die Impedanz des Schutzleiters schon bei 50 Hz so hoch machen, daß die Störungen deutlich vermindert werden, und dann hätte der Schutzleiter seine eigentliche Funktion, nämlich zu schützen vor Stromschlag, verloren.

Strassner geht daher in die völlig falsche Richtung, wenn er sich mit Kabelimpedanzen und Übergangswiderständen beschäftigt, denn dadurch löst er das tatsächliche Problem nicht.

Wenn man schon mit unsymmetrischen Verbindungen leben muß, und nicht auf die in dieser Hinsicht weitaus unproblematischeren symmetrischen Verbindungen umsteigen kann, was bei Geräten mit Schutzleiteranschluß eigentlich nötig wäre, dann muß man sich um die "topologischen" Probleme kümmern, nämlich um die Schleifen selbst, und muß versuchen, sie entweder aufzutrennen, oder sie so zu legen, daß der Störstrom nicht über die Audioleitungen fließt.

Eine Möglichkeit besteht darin, die Masse des Antennenanschlusses am Steckdosenverteiler der Anlage mit dem Schutzleiter zu verbinden. Damit entsteht ein Massesternpunkt an der Vielfachsteckdose, und die vorherige große Masseschleife wird zweigeteilt, wobei die Audiogeräte nur noch kleine, lokale, relativ harmlose Schleifen bilden. Manche Vielfachsteckdosen haben integrierte "Filter" und/oder Blitzschutz für Antennenleitungen, aber leider ist meist unklar wie die intern aufgebaut und verschaltet sind. Filter bräuchte man eigentlich keine, es kommt eher auf die interne Masseführung an. Falls das in Ordnung ist, sind solche Leisten wirksam, falls die ganze Anlage darüber versorgt wird, und die Anlage nirgendwo eine weitere Erdverbindung hat. Es braucht wohl kaum erwähnt zu werden, daß so etwas recht billig sein kann, denn auf irgendwelche besonders niedrigen Impedanzen, oder hochwertige Materialien kommt es hier nicht an. HMS könnte sich hier verdient machen, indem sie in die angebotenen Vielfachsteckdosen noch Antennenbuchsen einbauen würden, für diejenigen Kunden, die so teure Vielfachsteckdosen kaufen.

Die andere Möglichkeit besteht in der Auftrennung der Brummschleife. Die Herausforderung besteht darin, die geeignetste Stelle dafür zu finden. An der Seite der Stromversorgung kommt man dabei sehr schnell mit den Sicherheitsvorschriften in Konflikt, es sei denn man verwendet Trenntrafos, aber deren parasitäre Kapazitäten sind auch nicht umbedingt vernachlässigbar. Am einfachsten und billigsten ist in der Regel eine Massetrennung in der Antennenleitung, also ein galvanisch getrennter "Mantelstromfilter". Aber auch die Audioleitungen kann man galvanisch trennen, nämlich mit einem Übertrager oder einem Trennverstärker.

Strassner's "Lösung" scheint dagegen auf der Überlegung zu beruhen, daß die Schutzleiterverbindung ja auch eine Masseverbindung zwischen den Komponenten schafft, und je niederimpedanter diese ist, desto kleiner wird auch die Differenzspannung zwischen den Geräten. Wenn das so sein sollte, dann wäre immer noch der direktere (und billige) Weg, eine Masseverbindung zwischen den Geräten auf dem kürzesten Weg, durch ein extra Massekabel, anstatt durch die Netzkabel und die Verteilerleiste zu schaffen. Wenn die Geräte direkt beieinander stehen, dann ist das viel kürzer und niederimpedanter als durch die Netzkabel. An der Brummschleife durch das ganze Haus ändert sich daran aber nichts.

Es ist einfach so: Die unsymmetrischen Audioverbindungen sind umso ungünstiger, je weiter eine Anlage wächst, also je mehr Komponenten untereinander verbunden werden, besonders wenn auch noch Antennenanlagen ins Spiel kommen. Irgendwann bekommt man die entscheidende Erdverbindung zu viel. Mit den entstehenden Brummschleifen und anderen Störproblemen kann der Laie oft nicht vernünftig umgehen, und ein Teil davon neigt dann zur Anschaffung von teurem Firlefanz, wovon solche Firmen wie HMS profitieren. Dabei wäre die "richtige" Lösung hier oft ziemlich einfach und billig, aber die Überlegung, die dahin führt, ist nicht einfach. Abhilfe bestünde darin, daß man konsequent auf symmetrische Audioverbindungen umsteigt. Das würde den Laien von der Last befreien, daß er Probleme lösen muß, die ihm die Hersteller aufgehalst haben. Aber was würde dann aus Firmen wie HMS?

Besonders obskur in der Beschreibung von Strassner ist das Thema "Netzfilter". Da wird behauptet, die Spannungsschwankungen, die ein Verstärker im Stromnetz erzeugt, indem er eine mit der Musik wechselnde Last darstellt, hätten einen "möglichen Dynamikverlust" in anderen Komponenten zur Folge. Das ist blanker Unfug. Spannungsschwankungen im Netz sind völlig normal, auch ohne einen Verstärker, und wenn ein Gerät darauf mit Dynamikverlust reagiert, dann hat sein Entwickler etwas falsch gemacht. Da rettet man auch nichts mit einem zusätzlichen Filter. Strassner erfindet hier schlicht und einfach eine zu seinem Verkaufsziel passende Story.

Wer mir das nicht glaubt, dem sei in Erinnerung gerufen, daß die Geräte ja ohnehin die Wechselspannung aus dem Netz gleichrichten und filtern, und meist noch regeln, so daß sie einerseits gegen Schwankungen aus dem Netz immun sind, andererseits ihren eigenen impulsförmigen Strombedarf aus dem internen Filter (den Siebelkos) bestreiten. Die sich nach außen mitteilenden Lastschwankungen aufgrund der Musik sind folglich recht niedrig in ihrer Frequenz, und entsprechend leicht auszuregeln. Es ist nicht zu erkennen, wie Strassner auf die Idee kommen kann, damit könnte irgend ein Geräteentwickler ein Problem haben.

Mein Fazit aus diesen Erklärungen bleibt also weitgehend das Gleiche wie in meinem vorigen Artikel: Strassner verbreitet nur die halbe Wahrheit, und unterschlägt alles, was gegen seine Erklärungen spricht. Seine Produkte lösen entweder Probleme, die erst herbeiphantasiert werden, oder er löst tatsächliche Probleme auf eine sehr teure Art, deren Lösung ganz einfach und billig sein könnte, oder er ändert nur die Symptome eines Problems, das ganz anders gelöst werden müßte, als durch den Einsatz eines seiner teuren Produkte. Er versucht so seriös wie nur irgend möglich zu wirken, aber was er vorträgt ist eben nicht seriös, sondern es ist Marketing, wo ja die selektive Darstellung zu den am weitesten verbreiteten Tricks gehört.