Donnerstag, 29. Oktober 2015

Irreführung gut gemeint

Es ist schon erstaunlich wie die Grundlagen von Digital-Audio noch Jahrzehnte nach der technischen Einführung falsch dargestellt werden. Es ist anscheinend so, daß sich die falschen Darstellungen durch stetige Weiterverbreitung immer wieder selbst bestätigen und in Umlauf halten. Und sie werden so sogar von gutmeinenden Leuten weiterverbreitet, die meinen damit Anderen einen Dienst zu tun, dabei aber eher zur Verwirrung beitragen.

Kürzlich machte mich ein Blogleser auf dieses aktuelle Beispiel aufmerksam. Es ist ein Video auf Englisch, aber die meisten von Euch werden's wohl verstehen. Der "Präsentator" David Domminney Fowler gibt von sich an, er sei "Programmer, Producer and Professional Musician". Was Digital-Audio angeht scheint er jedenfalls nicht über die Basics hinaus gekommen zu sein.

Was macht er falsch? Ich handle das mal in Listenform ab:
  • Fowler kennt offenbar die menschlichen Hörfähigkeiten schlecht. 

Es ist keineswegs so daß die Menschen Frequenzen bis hoch zu 22050 Hz hören würden. So genau kann man die Grenze ohnehin nicht ziehen, denn je höher die Frequenzen werden, desto unempfindlicher wird das Ohr, und der Ton muß immer lauter werden damit man noch was hört. Siehe die alten Kurven von Fletcher/Munson oder Robinson/Dadson oder die normierten von der ISO. Die hören üblicherweise schon bei 16 kHz auf, darüber hören sehr viele Leute bereits nichts mehr, und diejenigen die noch was hören gehören zu den jüngeren Semestern.

Es gibt immer wieder Leute, die behaupten sie könnten noch weit darüber was hören, aber es ist die Frage woher sie das haben. Man kann auch auf Verzerrungen und andere "Falschmeldungen" hereinfallen, wenn man nicht aufpaßt. Wen's interessiert: Hört Euch einmal einen aufsteigenden "Sweep" an, mit Kopfhörer oder per Lautsprecher. So etwas kann man als Datei entweder mit geeigneter Software selbst erzeugen, oder man findet es im Netz. Es sollte nicht zu schnell gehen damit man auch was mitkriegt. Wenn der Pfeifton extrem hoch wird, wird er auch leiser und verschwindet irgendwann. Sollte er in der Tonhöhe zwischendurch wieder niedriger werden, oder springen, dann stimmt was nicht, und man hört "Störungs-Artefakte", aber nicht die höhere Frequenz. Ich würde wetten daß von Euch Lesern so gut wie niemand über 20 kHz hinaus kommen wird. Die allermeisten vermutlich nicht mal über 16 kHz. Das ist normal.

Der Tonhöhenumfang eines üblichen Konzertflügels reicht in etwa von 27 Hz bis knapp unter 9000 Hz. Manche Instrumente haben ein paar Tasten mehr und kommen damit etwas weiter. Für die Musik spielt das aber so gut wie keine Rolle. Andere Instrumente haben tendenziell weniger Tonumfang, allenfalls üppig ausgestattete Kirchenorgeln kommen noch darüber hinaus. Auch der Hinweis auf Obertöne ("Harmonische") zieht nicht wirklich, denn die Töne, für die die Obertöne klangrelevant sind, sind nicht die ganz hohen Töne. Die Obertöne der höchsten Flügelsaite hört so gut wie niemand. Folglich kann man sagen daß sich die Musik, selbst anspruchsvolle Musik, im Frequenzbereich zwischen etwa 30 und 8000 Hz abspielt. Darunter und darüber spielt nur noch eine geringe Rolle, besonders mit steigendem Alter des Hörers.

Ich finde man sollte das als professioneller Musiker und Tonschaffender wissen.

Der üblicherweise angegebene Hörbereich von 20 Hz bis 20 kHz ist damit schon eine großzügige Festlegung, die nur noch von sehr wenigen Personen und Situationen übertroffen werden dürfte, und sie hat darüber hinaus den Vorteil der Einfachheit. Deswegen wurde sie zugrunde gelegt, als man die CD und die weiteren Digital-Audio-Systeme eingeführt hat. Und wie es zu den 44,1 kHz kam ist auch recht einfach erklärbar: Es hat mit dem Mastering zu tun, das in der Anfangsphase der CD nicht auf dem Computer geschah, sondern mit Hilfe von PCM-Adaptern, die das digitale Audiosignal in ein analoges Videosignal umgewandelt haben, damit man es auf Videobändern aufnehmen konnte. Die Abtasftrequenz mußte deswegen zu der Videofrequenz passen, und 44,1 kHz war eine der möglichen Frequenzen. Da hat Fowler einfach ahnungslos vor sich hin spekuliert.
  • Fowler scheint nichts von Dither gehört zu haben.

Dither ist ein kleines bißchen Rauschen, das digitale Signale so macht wie analoge. Es ist wichtig, weil damit seine ganze Erklärung mit der Bit-Tiefe obsolet wird. Mit Dither degeneriert ein kleiner werdendes Signal nicht zur Rechteckform, wie er suggeriert, sondern geht - genau wie im Analogen - allmählich im Rauschen unter.
Nochmal zur Bestätigung: Mit ein klein wenig Rauschen wird die Digital-Audio-Technik zur Analog-Audio-Technik äquivalent, und in beiden Fällen passiert das Gleiche: Man hat einen Rauschteppich, und Signale gehen im Rauschteppich unter, wenn sie leiser werden. Bei 24 Bit ist einfach der Rauschteppich leiser als bei 16 Bit, aber in beiden Fällen ist, wie jeder leicht nachprüfen kann, der Rauschteppich sowieso schon niedriger als der von analogen Medien.

Wenn Fowler Probleme hat mit kleinen Signalen, die rauh und "grainy" werden wenn sie leiser werden, dann hat er einen Fehler, den er dingfest machen sollte. Entweder es fehlt Dither, oder er hat irgendwelche Verzerrungen im Kleinsignalbereich, möglicherweise gar nicht im digitalen Teil seiner Anlage sondern im analogen. Mit den Grundlagen der Digital-Audio-Technik hat es nichts zu tun.

Das bedeutet auch, daß es nicht viel bringt, die Anzahl der möglichen Stufen der Codierungen miteinander zu vergleichen. Klar sind mehr als 16 Millionen viel eindrücklicher als nur gut 65000, aber was heißt das für das Audiosignal? Nicht viel. Da wir gesehen haben daß der Unterschied im Pegel des Rauschteppichs liegt, ist es viel sinnvoller, diesen Unterschied zu benennen. Dabei kommt die viel nützlichere Zahl heraus. Nämlich daß durch die zusätzlichen 8 bit der Rauschteppich um etwa 48 dB niedriger ist. Das ist ein Maß, das im Audiokontext einen Sinn ergibt, im Gegensatz zu irgendwelchen freischwebenden Zahlen.
  • Es gibt keine "Centerline", durch die sich die Bit-Tiefe halbiert.

Fowler behauptet, daß der Zahlenvorrat letztlich deswegen halbiert ist, weil sich eine Welle ja aus negativen und positiven Halbwellen zusammensetzt, also einen Teil unter und einen über der Mittellinie, und damit letztlich in jede Richtung nur die Hälfte der Zahlen zur Verfügung steht.

Das ist richtig und falsch zugleich. Richtig ist natürlich, daß man beide Halbwellen codieren können muß. Der von ihm vernachlässigte Punkt ist aber, daß es diese Mittellinie nicht wirklich gibt. Es ist ein darstellerisches Artefakt ohne Entsprechung im physikalischen Signal. Man hört keine Gleichspannung, also keine Frequenz Null. Eventuell vorhandene Gleichspannungen werden sogar von Audiosystemen weggefiltert, denn sie können die Technik stören. Das bedeutet man könnte die Nullinie beliebig hoch oder runter schieben, ohne daß sich etwas ändert. Speziell kann man genauso gut so tun als wäre die Nullinie ganz unten, und alle Zahlen positiv. Der für Audio relevante Signalanteil würde sich dadurch nicht ändern; es gäbe nur einen irrelevanten Gleichspannungs-Offset.

Ergo: Man hat 16 Bit für die Codierung zur Verfügung, das ist alles was man wissen muß.


Immerhin, Fowler hat auch ein paar gute Hinweise in seinem Vortrag, nämlich z.B. was Headroom angeht, und Clipping, besonders wenn man Signale zusammen mischt. Könnte also schlimmer sein. Trotzdem, mir wäre es lieber, wenn die falschen Vorstellungen korrigiert würden, anstatt als Tutorial weiter unter den Leuten verbreitet zu werden.

Freitag, 9. Oktober 2015

Gedämpftes Verständnis

Der sogenannte "Dämpfungsfaktor" ist ein Begriff, dem man im Zusammenhang mit Verstärkern und Lautsprechern seit vielen Jahrzehnten begegnet, und um den sich viel Ideologie, aber auch viel Unverstand rankt. Ich finde, die damit erzeugte Verwirrung ist größer als die erzeugte Einsicht, und wenn's nach mir ginge müßte man den Begriff in der Versenkung verschwinden lassen. Ich werde hier den Versuch machen, zu erklären worum es überhaupt geht, und wie ich zu dieser vielleicht etwas provokativen Ansicht komme.

Der Dämpfungsfaktor ist ein Begriff, der sich im Zusammenspiel zwischen einem Verstärker und dem daran angeschlossenen Lautsprecher ergibt. Er wird gebildet als das Verhältnis aus der Impedanz der Last (Lautsprecher) und der Impedanz der Quelle (Verstärker). Er beschreibt damit eine Situation, und nicht etwa die Eigenschaften eines Gerätes. Das ist schon das erste Problem.

Oft wird versucht, einen Dämpfungsfaktor-Wert als Eigenschaft eines Verstärker auszugeben. Etwas, was man in die technischen Daten des Verstärkers hinein schreibt. Dafür muß man aber den angeschlossenen Lautsprecher idealisieren, und sein Verhalten in Form einer einzigen Zahl ausdrücken, nämlich seiner Nennimpedanz. Das ist eine derartig radikale Vereinfachung, daß man damit der Praxis nicht ansatzweise gerecht wird. Es dient nur dazu, den Dämpfungsfaktor ebenfalls als eine einzelne Zahl ausdrücken zu können, was natürlich ebenso wenig praxisgerecht ist. Es würde lediglich die Situation ausdrücken, die entsteht wenn man an den Verstärker einen Lastwiderstand anschließen würde, anstelle eines echten Lautsprechers. Das ist nur für den Labortisch relevant.

Will man die Eigenschaften des Verstärkers für sich angeben, z.B. für seine technischen Daten, dann sollte das auf eine Weise geschehen, die möglichst keine künstlichen Annahmen über den angeschlossenen Lautsprecher braucht. Das wäre die Angabe der Ausgangsimpedanz (= Quellimpedanz des Verstärkers). Weil die in aller Regel mit der Frequenz variiert, und oft auch reaktive Komponenten hat (also nicht so wirkt wie ein einfacher Widerstand), wäre es günstig, einen Impedanzschrieb über die Frequenz als Diagramm darzustellen, und zwar nach Betrag und Phase. Bei Lautsprechern kennt man solche Impedanz-Diagramme, aber das Gleiche wäre auch für Verstärker sinnvoll. Eine solche Angabe würde dann lediglich den Verstärker selbst charakterisieren, ohne Abhängigkeit vom Lautsprecher.

Hat man ein solches Impedanzdiagramm für den Verstärker und eines für den Lautsprecher, dann kann man für diese Kombination (bzw. Situation) auch den tatsächlichen Dämpfungsfaktor bestimmen, und zwar sogar in seinem Frequenzverlauf, und nicht bloß als einzelne Zahl. Das wäre erheblich aufschlußreicher und näher am echten Verhalten. Nur wäre das ein bißchen zu anspruchsvoll für Leute, die sich lieber an einzelnen Zahlen festhalten, weil die besser für den Schwanzlängenvergleich taugen.

Aber das ist erst der Anfang. Bis hierher ging es um den Dämpfungsfaktor an der Schnittstelle zwischen dem Verstärker und dem Lautsprecher. An dieser Stelle geht es darum, welchen Einfluß der Dämpfungsfaktor auf den Frequenzgang des gesamten Arrangements hat. Man sieht die Kombination von Lautsprecher und Verstärker als einen frequenzabhängigen Spannungsteiler, bestehend aus der Lastimpedanz und der Quellimpedanz. Ein Spannungsteiler ist etwas recht einfaches, und selbst die Frequenzabhängigkeit macht das nicht wesentlich komplizierter. Das Ergebnis ist eine Frequenzgang-Kurve, von der man natürlich meist möchte, daß sie möglichst gerade horizontal verläuft. Das klappt am besten wenn die Quellimpedanz möglicht klein gegenüber der Lastimpedanz ist. Das entspricht dann einem hohen Dämpfungsfaktor.

Aber mit dem Dämpfungsfaktor wird auch oft ein ganz anderes Konzept verbunden, nämlich die "Kontrolle" des Lautsprechers. Dabei geht's um Folgendes: Ein Lautsprecher-Chassis, also eine Anordnung aus Magnet, Schwingspule, Membran und Korb, ist ein schwingfähiges mechanisches System, in dem die schwingenden Teile eine Massenträgheit haben. Einmal in Bewegung, möchten sie sich weiter bewegen, auch ohne Antrieb. Wenn der Strom zum "Motor", bestehend aus Magnet und Schwingspule, abgestellt wird, dann bewirkt die Massenträgheit, daß die Bewegung weitergeht, und die Funktion des Motors sich umkehrt und er zum Generator wird. Das Teil liefert Strom. Man nennt das die Gegen-EMK (Elektromotorische Kraft). Dieser Strom fließt zurück zum Verstärker. Die Quellimpedanz des Verstärkers bildet für diesen Strom die "Last". Der vorhin erwähnte Spannungsteiler wirkt jetzt anders herum. Auch diesmal ist es günstig, wenn die Ausgangsimpedanz des Verstärkers möglichst klein ist, denn umso mehr wird die Gegen-EMK "kurzgeschlossen", was dazu führt daß die Bewegung des Motors möglichst schnell abgebremst wird. Das ist was man mit "Kontrolle" meint: Möglichst wenig eigenmächtige Bewegung der Membran aufgrund von Massenträgheit; die Membran soll so unmittelbar wie möglich den Vorgaben des Verstärkers folgen, also der Spannung, die er abgibt. Besonders deutlich wird das bei der Resonanzfrequenz des Chassis, wo die Tendenz zur eigenständigen Bewegung am größten ist.

Daher kommt ursprünglich der Begriff: Die Tendenz der Lautsprechermembran zur eigenmächtigen Bewegung soll so gut wie möglich gedämpft werden. Der Begriff des Dämpfungsfaktors sollte dem ein Maß geben.

So lange der Verstärker direkt an das Lautsprecher-Chassis angeschlossen ist, stimmen diese beiden Betrachtungsweisen sogar einigermaßen überein. So ist es aber in der Praxis nicht: Man hat es mit einem Lautsprecher zu tun, der aus mehreren Chassis und einer passiven Frequenzweiche besteht. Die Frequenzweiche sitzt zwischen Verstärker und Chassis. Das bedeutet, daß man für die Betrachtung des Dämpfungsfaktors entscheiden muß, auf welcher Seite der Weiche man guckt.

Will man wissen, wie gut die Gegen-EMK des Chassis gedämpft wird, dann muß man die Weiche rechnerisch zum Verstärker schlagen. Man betrachtet also die Quelle als die Kombination von Verstärker und Weiche, und die Last ist dann das einzelne Lautsprecher-Chassis.* Es liegt auf der Hand daß dann die Impedanzen ganz anders ausfallen als bei der Betrachtung oben, wo man die Weiche zum Lautsprecher gerechnet hat. Entsprechend andere Dämpfungsfaktoren ergeben sich. Konkret läuft es darauf hinaus, daß in aller Regel die Weiche eine größere Rolle spielt als der Verstärker. Die Ausgangsimpedanz des Verstärkers wird irrelevant wenn sie einmal deutlich unter der Impedanz der Weiche liegt, und dazu braucht's nicht viel.

Mit anderen Worten: Die Kontrolle des Lautsprechers kann nicht besser werden als es die Weiche erlaubt.

Nachdem die meisten Verstärker heutzutage Ausgangsimpedanzen haben, die unter der Weichenimpedanz liegen, bedeutet das, daß der Verstärker bei der Kontrolle der Gegen-EMK von Lautsprechern eine eher untergeordnete Rolle spielt, und der Dämpfungsfaktor, so wie er üblicherweise angegeben wird, wird entsprechend nebensächlich.

Diese Betrachtung geht davon aus, daß das Problem der Gegen-EMK das Bass-Chassis betrifft, und daß die Weiche für dieses Chassis eine Serien-Induktivität hat. Das dürfte der Normalfall sein. Andere Lautsprecher-Konstruktionen, so wie z.B. Elektrostaten, bieten andere Bedingungen, so daß ich nicht den Anspruch auf universelle Gültigkeit meiner Argumentation erhebe. Das ist aber egal, denn mir geht's um die üblichen Situationen. Spezielle Situationen brauchen sowieso eine getrennte Betrachtung.

Der Punkt, um den es mir geht, ist daß der Begriff des Dämpfungsfaktors keinen Praxisnutzen bringt, und gerade im Beisein einer Weiche eher Verwirrung stiftet. Also so gut wie immer. Geht es um die Kontrolle der Gegen-EMK, dann dominiert die Weiche, über deren Daten man meist zu wenig weiß. Geht es um die Linearität des Frequenzgangs, dann wäre man besser bedient mit den Impedanzschrieben von Lautsprecher und Verstärker, weil die üblich angegebene Zahl für den Dämpfungsfaktor zu wenig über die tatsächliche Situation sagt.

Im Grunde ist das ein Argument für Aktivboxen, denn da hat in der Regel jedes Chassis seinen eigenen Verstärker, und die Weiche entfällt. Für jede Paarung eines Chassis mit einem Verstärker in der Aktivbox gibt es dann jeweils einen eigenen Dämpfungsfaktor, aber das braucht nur den Hersteller zu interessieren. Als Anwender hat man mit derlei Details und ihrer korrekten Interpretation nichts zu tun.

Besonders absurd wird es meiner Ansicht nach dann, wenn in der audiophilen Szene besonders teure und aufwändige Weichen benutzt werden. Beispielsweise gibt es Leute, die darauf schwören, die Induktivität für das Tiefton-Chassis möglichst niederohmig zu machen, eben gerade um die "Kontrolle" zu optimieren. Mir erscheint das widersinnig spätestens dann, wenn dabei eine Bauteilrechnung zusammen kommt, für die man auch die für eine Aktivbox nötigen Verstärker bezahlen könnte. Was einem dabei zupaß kommt ist, daß die Bauteile für einen guten Verstärker immer billiger geworden sind. Für eine gute Drossel, die ein Audiophiler akzeptieren würde, hängt der Preis aber mit dem Materialverbrauch an Kupfer (und evtl. Eisen) zusammen, und das wird eher teurer. Damit wird die Passivweiche wirtschaftlich immer unvorteilhafter. Elektronisch war sie ohnehin schon immer die schlechtere Lösung.

Ich hoffe, daß daraus ein Trend zur Aktivbox wird, womit sich dann auch das Thema Dämpfungsfaktor erledigen würde. Es wäre langsam Zeit.

* Das ist, wie ich dem Hinweis eines Bloglesers verdanke, im Grunde sogar noch zu optimistisch dargestellt. Für die Dämpfung einer Eigenbewegung müßte idealerweise der Widerstand im kompletten Stromkreis, in dem die Gegen-EMK wirkt, möglichst niedrig sein. Da gehört auch der Widerstand der Schwingspule dazu, neben dem des Verstärkers und der Weiche. In der Praxis hat der Widerstand der Schwingspule den größten Anteil, gefolgt (meistens) von der Weiche, dann erst vom Verstärker und dem Kabel. Es ist also noch unwahrscheinlicher, daß sich dabei Verstärker und Kabel bemerkbar machen.

Sonntag, 9. August 2015

Digital ist auch nur analog, oder?

Seit immer mehr Audiogeräte mit dem Internet verbunden werden, gibt's immer mehr Netzwerkverbindungen in einer typischen Audio-Anlage. Der Audiophile braucht daher standesgemäße Netzwerkkabel, denn es kann ja nicht sein, daß ein profanes Patchkabel für 'nen Euro keine hörbaren Probleme macht. Ergo hat sich ein Markt für "audiophile Netzwerkkabel" entwickelt, selbstredend mit einer nach oben offenen Preis-Skala, und der ebenfalls nach oben offenen Bullshit-Skala in den dazugehörigen Werbetexten.

Das wäre für sich gesehen nichts Neues; so erwartet man's von der audiophilen Szene. Jetzt hat die britische Seite Ars Technica ein solches Kabel unter die Lupe genommen, und auch mal zerlegt, damit man sieht wie es drinnen aussieht. Für 300 englische Pfund bekommt man 1,5 Meter davon, immerhin mit coolen Steckern aus deutscher Produktion, von einer ganz Voodoo-unverdächtigen Firma. Das Kabel selbst ist eher solide Industrieware, die offensichtlich für Festverlegung gedacht ist (es werden keine Litzen, sondern Einzeldrähte für die Leiterpaare benutzt, und die geschäumte Adernisolierung ist zwar gut für die Dämpfung bei langen Kabeln, aber nicht so gut für die Langzeitstabilität bei mechanischer Knick- und Biegebelastung). Es ist also eigentlich kein Patchkabel. Macht aber für Audiophile sicher Sinn, denn steifere Kabel haben da eine größere Qualitätsanmutung, frei nach dem Motto: Je unpraktischer, desto besser muß es sein.

Ebenfalls sehr audiophil ist die Idee, die Schirmung nicht durchzuverbinden. Nun bin ich zwar selbst ein Freund von ungeschirmten Ethernet-Patchkabeln, denn da ist einfach die Chance geringer, daß man mit Brummschleifen Probleme kriegt, aber dann lasse ich den Schirm doch lieber gleich weg, anstatt ihn innen drin mit Kreppband zu isolieren.

Ars Technica hat das Kabel nicht bloß auseinander genommen, sondern auch einen Hörtest organisiert, und zwar gleich zusammen mit dem Magier und Esoteriker-Schreck Randi, mit einem wenig überraschenden Ergebnis. Lest selber nach, ich brauche das nicht zu kommentieren. Stattdessen geht's mir hier um was anderes, über das ich bei dieser Gelegenheit gestolpert bin. Es geht um Analog vs. Digital, und was daran der fundamentale Unterschied ist.

Vor zwei Jahren schrieb Michael Lavorgna einen zweiteiligen Artikel über ein (email-)Gespräch mit drei Leuten über dieses Thema, nämlich mit Charles Hansen, Gordon Rankin und Steve Silberman. Wer sind diese Leute?

Lavorgna ist der Editor von AudioStream, einer Schwesterpublikation der bekannteren Stereophile, mit einem Schwerpunkt auf Audio Streaming bzw. Computer Audio. Ein wirklich unangenehmer Bullshitter in der Art wie Michael Fremer von der Stereophile. Was er schreibt hat beinahe eine Schwachsinns-Garantie. Kann gelegentlich auch unterhaltsam sein.

Hansen ist der Chef von Ayre Acoustics, einer High-End-Marke an der vordersten Front der Anti-Feedback-Bewegung, und die Firma, die für Neil Young den Pono entwickelt hat.

Rankin ist der Chef von Wavelength Audio, ebenfalls ein High-End Hersteller, unter anderem von USB-DACs.

Silberman schließlich ist Vizepräsident für Entwicklung bei AudioQuest (früher war er im Marketing für Ayre und AudioQuest, was schon zeigt welche Qualifikation man in diesem Bereich für die Entwicklung braucht), also der Firma, die das bei Ars Technica getestete Ethernet-Kabel anbietet.

Jetzt wißt Ihr wie ich auf diese Diskussion gekommen bin. Auf etwas verschlungenen Pfaden, wie das öfter so ist wenn man im Internet unterwegs ist. Sei's drum, ich fand dieses Thema "Analog vs. Digital", so wie die vier Herren es sehen, für symptomatisch dafür, wie sogar die grundlegendsten Fakten von den Akteuren im audiophilen Markt völlig verdreht und verzerrt werden, bis hin zum Verdacht daß sie selbst von Tuten und Blasen keine Ahnung haben, obwohl sie Produkte zu verkaufen versuchen, die auf diesen Grundlagen basieren. Entweder das, oder es sind gewohnheitsmäßige Lügner. So oder so verheerend.

Das zentrale Argument, das man nicht nur dort, sondern auch hierzulande, immer wieder hört, ist: Digital ist in Wirklichkeit auch Analog. Es leidet damit unter den gleichen Problemen wie Analog, und die angebliche "Perfektion" von Digitaltechnik ist eine Schimäre.

Weil nicht allen Lesern klar sein dürfte, wo darin der fundamentale Fehler ist, habe ich mich entschlossen, mal einen Blogbeitrag dazu zu schreiben. Diejenigen, die das alles völlig trivial finden (und es ist tatsächlich trivial), mögen mir verzeihen und brauchen nicht weiter zu lesen. Ihr könnt Euch stattdessen direkt über die beiden Teile des erwähnten Artikels amüsieren. Unterdessen arbeite ich das hier mal ein bißchen auf.

Gleich zu Beginn: Was ist der entscheidende, fundamentale Unterschied zwischen Analog und Digital? Man kann es auf diverse Arten beschreiben, aber letztlich läuft es darauf hinaus, daß man für die digitale Darstellung eines Signals ein Alphabet benutzt, während man für die analoge Darstellung direkt eine physikalische Größe benutzt. Letzlich wird zwar für die Darstellung des Alphabets auch wieder eine physikalische Größe herangezogen, aber das ändert nichts an der Tatsache, daß hier ein Zwischenschritt über ein Alphabet existiert, der bei der analogen Darstellung nicht existiert. Selbst wenn beidesmal dieselbe physikalische Größe, wie z.B. eine elektrische Spannung, zur Repräsentation benutzt wird, ist der Unterschied immer noch da: Einmal mit Alphabet, einmal ohne.

Es ist klar, worin das "Alphabet", von dem ich hier etwas kryptisch spreche, tatsächlich besteht, wenn wir über Digital-Audio reden: Es sind Zahlen, im Zweiersystem als Einsen und Nullen codiert, weil man damit in der Elektronik so schön einfach umgehen kann. Das ist aber nicht so wichtig. Es könnte auch eine andere Art der Codierung sein, ohne daß sich an diesem Argument etwas ändern würde. Und tatsächlich kommen andere Arten der Codierung in der Technik vor.

Es ist wichtig, diesen Grundsatz festzuhalten: Der Unterschied zwischen Analog und Digital liegt in der Verwendung einer Codierung mittels eines Alphabets bei der Digitaltechnik. Bei der Analogtechnik fehlt das, und die Information wird direkt als kontinuierliche physikalische Größe ausgedrückt.

Jetzt seht mal nach ob man von diesem Sachverhalt auch nur eine Spur in der Argumentation der vier High-End-Diskutanten bemerkt. Fehlanzeige. Im Gegenteil wird explizit so getan als gäbe es diesen Unterschied nicht.

Was gewinnt man durch den Umweg über ein Alphabet? Das ist ja unzweifelhaft mit zusätzlichem Aufwand verbunden, den man bei der Analogtechnik nicht hat.

Man kann sich das als Analogie recht einfach klar machen, auch ohne jede Kenntnis der Digitaltechnik. Ich schreibe hier Text, den Ihr lest. Der besteht aus Buchstaben, aus denen Wörter geformt werden. Ich verwende ein Alphabet, eine Sprache. Was Ihr seht, sind optische Muster. Auf dem Computerbildschirm werden die durch ein Punkteraster erzeugt, wenn der Text auf Papier gedruckt wäre, dann wären es Tintenflecke. Man könnte es auch von Hand schreiben, mit Kugelschreiber oder Bleistift. Man kann es größer schreiben oder kleiner, mit unterschiedlicher Schriftform, unterschiedlicher Farbe, usw.

Das Wichtige dabei: Der Inhalt bleibt der gleiche.

Das Alphabet bewirkt, daß man ohne einen Einfluß auf den Inhalt der Information, ihre Darstellung, bzw. ihre physikalische Repräsentation, in weiten Bereichen ändern kann. Die Information wird von ihrer Darstellung entkoppelt.

Das hat weit reichende Konsequenzen. Eine sehr wichtige Konsequenz besteht in der Möglichkeit, Fehler zu erkennen, und sie wieder rückgängig zu machen. Ich mache in meinen Artikeln hier im Blog immer wieder einen Tippfehler, der unkorrigiert bleibt. Aber das macht nichts, weil er in aller Regel leicht erkennbar ist, und die Bedeutung nicht verändert. Das verleiht der Digitaltechnik eine Robustheit, die die Analogtechnik nicht hat. Die Schrift, und unsere Sprache, sind in diesem Sinn ebenfalls digital, sind das schon immer gewesen, auch wenn die Darstellung als Bits eher neu ist.

Der Begriff "Digital" geht auf die Finger zurück (Digitus = Finger), mit denen man z.B. zählen kann (üblicherweise im Zehnersystem, daher bedeutet Digital nicht automatisch gleich Einsen und Nullen). Aber es geht streng genommen nicht allein um Zahlen, sondern um beliebige Symbole, um ein Alphabet. Mit dem kann man zwar auch Zahlen darstellen, die Idee ist aber viel allgemeiner, und erlaubt es, jede Information darzustellen, sofern man dafür eine passende Codierung hat (= eine Sprache). Aus dem gleichen Grund kann ein Computer nicht bloß rechnen, sondern auch andere Arten von Information verarbeiten, einschließlich menschlicher Sprache, oder eben auch Musik.

Das heißt, nebenbei gesagt, daß das "digitale Zeitalter", in dem wir uns angeblich befinden, nicht erst mit dem Computer begonnen hat, sondern mit der Erfindung der Schrift. Genauer gesagt, mit der Erfindung (bzw. Entdeckung) des Prinzips, daß man mit Symbolen Informationen darstellen kann. Die Computer bieten "nur" die Möglichkeit, mit diesen Symbolen "automatisch" zu hantieren, außerhalb des menschlichen Kopfes.

Daraus entsteht die Frage, was denn im Falle der Digitaltechnik eigentlich die "Information" ist, oder das "Signal". An dieser Frage macht sich der grundlegende Fehler fest, in dem sich die vier audiophilen Faktenverdreher geradezu wälzen: Sie setzen auch bei der Digitaltechnik das Signal gleich mit der elektrischen Kurvenform, die man z.B. bei der Übertragung auf einem Kabel würde messen können. Diese Kurvenform ist natürlich immer "analog", denn eine physikalische Größe wie die elektrische Spannung macht in der Natur nun einmal keine Sprünge. Die Änderungen werden da immer kontinuierlich sein, und folglich auch Zwischenwerte einnehmen, die nicht eindeutig einem Symbol aus dem Alphabet (im einfachsten Fall 0 oder 1) zuzuordnen sind.

Nur ist bei der Digitaltechnik diese Kurvenform nicht das Signal um das es geht. Es ist nur die Repräsentation. Um in der Analogie mit der Schrift zu bleiben: Das wäre die Form der Buchstaben, also z.B. die Dicke und Farbe der Linien. So lange man den Buchstaben erkennt, bleibt der Text derselbe, der Inhalt unberührt. Darin besteht eben die Robustheit der Digitaltechnik: Die Repräsentation kann man bis zu einem gewissen Ausmaß ändern und stören, der Inhalt bleibt unverändert. Das ist der entscheidende Punkt und die Motivation warum man den Umweg über das Alphabet macht. Es ist der Existenzgrund für die Digitaltechnik, und auch der Existenzgrund für die Schrift, ich kann das nur nochmal betonen.

An dieser Stelle sollte klar sein, warum die Argumente unserer vier Audiophilen auf der einen Seite richtig sind (auch digitale Signale werden als "analoge" = kontinuierliche Kurvenformen übertragen), und auf der anderen Seite eine völlige Themenverfehlung und Unverständnis über die Grundlagen der Digitaltechnik bedeuten (die Information steckt bei der Digitaltechnik nicht in der kontinuierlichen Kurvenform, sondern in den damit codierten Symbolen). Sie bringen durcheinander, was eigentlich das "Signal" ist, um das es hier geht. So ignorieren sie den eigentlichen Grund dafür, warum es die Digitaltechnik überhaupt gibt.

Ich hätte noch ein gewisses Verständnis dafür, wenn es sich um Laien handeln würde, bei denen man den entsprechenden Sachverstand nicht unbedingt voraussetzen kann. Bei Leuten, die sich zum Teil schon seit Jahrzehnten mit der digitalen Audiotechnik beschäftigen, und sogar eigene Produkte entwickeln, ist ein solcher Verständnisfehler ein Offenbarungseid. Wenn man unterstellt, daß sie hier wirklich ehrlich sind, und ihr eigenes Verständnis der Sache darstellen, dann wären sie in einem Ausmaß unfähig, das sie als Diskussionspartner disqualifizieren würde. Ich kann das nicht recht glauben. Ich glaube sie verbreiten bewußt Desinformation, und wissen insgeheim wie sich die Sache wirklich verhält. Mit anderen Worten: Sie lügen. Außer vielleicht Lavorgna. Der könnte wirklich so unfähig sein; es wird schließlich einen Grund geben warum er als Editor bei so einer Publikation arbeitet.

Nur damit keine falschen Eindrücke entstehen: Es dürfte klar sein, daß bei genügend großen Fehlern in der Kurvenform eines Digitalsignals, irgendwann auch mal die Information verfälscht wird, weil die Erkennung der Symbole auf der empfangenden Seite nicht mehr korrekt funktioniert. Das ist bei der Schrift auch nicht anders: Wenn die Zeichen zu stark verzerrt sind, kann man's nicht mehr zuverlässig lesen, und die Information wird verfälscht. Komplett egal ist damit die "analoge Seite der Digitaltechnik" nicht. Man muß dafür sorgen, daß die Erkennungssicherheit gut genug ist. Das ist ein wichtiges Gebiet in Forschung und Technik mit einem riesigen Ausmaß an Literatur. Man kann das studieren (Nachrichtentechnik). Hätten die vier Bullshitter auch nur die ersten 25 Seiten eines entsprechenden Lehrbuches gelesen, hätten sie sich nicht derart blamieren müssen.

Und noch ein Punkt: Wenn ein Taktsignal mit übertragen wird, wie das oft der Fall ist bei Digital Audio, dann ist das nicht digital kodiert. Das Taktsignal ist ein Analogsignal, auch wenn die restliche Information digital übertragen wird. Damit gilt die ganze Argumentation, die ich oben angeführt habe, nicht in dieser Form für die Taktübertragung, sondern nur für das Signal als solches. Also z.B. für die Musik.

Das heißt aber nicht, daß man bei der Taktübertragung keine Korrekturmöglichkeit hätte. Im Gegenteil, da man weiß daß der Takt gleichmäßig sein muß, kann man Unregelmäßigkeiten ("Jitter") ganz gut herausfiltern. Auch das ist ein Standardproblem, mit dem man sich seit Jahrzehnten in Forschung und Technik auseinander setzt, so daß es keinen Mangel an Literatur gibt, wie man mit diesen Problemen umgeht. Aber dazu habe ich schon genug in vorigen Artikeln geschrieben.

Sonntag, 14. Juni 2015

Werden jetzt die Snowden-Dokumente freigegeben?

Die britischen Medien behaupten, in China und Russland habe man die Snowden-Dokumente "geknackt". Prima, dann kann man sie ja jetzt freigeben, oder? Der "Feind" weiß jetzt ohnehin alles, was bringt dann noch Geheimhaltung?

Vielleicht ist das aber auch bloß die nächste Etappe beim Snowden-Bashing. Viel Intelligenz scheint man beim Leser jedenfalls nicht vorauszusetzen.

Hier ist was ich drüber denke:

Wenn die britischen oder USAmerikanischen Geheimdienste bislang nichts unternommen hätten, um ihre Spione in Sicherheit zu bringen, dann wären sie geradezu sträflich inkompetent. Auch wenn Snowden immer behauptet hat, die Russen oder Chinesen hätten von ihm keine Dokumente bekommen, und seine Verschlüsselung sei sicher. Was Snowden da sagte stimmt wohl auch, aber gerade die Geheimdienstler werden ja wohl diejenigen sein, die ihm am allerwenigsten über den Weg trauen. Wenn sie über zwei Jahre hinweg nichts getan hätten, um ihr Personal zu schützen, wären sie dümmer als die Polizei erlaubt, und zwar völlig unabhängig davon ob man nun Snowden trauen kann oder nicht.

Was Snowden ja von Anfang an klar gemacht hat, ist daß er die Dokumente an Journalisten weitergegeben hat, denen er die Entscheidung über eventuelle Veröffentlichungen überläßt. Er sagte zudem, daß er die Dokumente selber gar nicht mehr hatte als er nach Russland einreiste. Das bedeutet erstens, daß man mit Veröffentlichungen rechnen muß, denn genau dafür hat Snowden die Dokumente ja übergeben, und damit erfahren's selbstverständlich auch die Russen und die Chinesen, denn da gibt's höchstwahrscheinlich (man glaubt es kaum) Leute die Zeitung lesen können.

Und zweitens bedeutet es, daß man sich diese Journalisten zur Brust nehmen kann und muss, wenn man an die Dokumente heran kommen will. Es ist ziemlich klar, welche Leute das sind, und die haben auch keinen riesigen Geheimdienst-Apparat, der sie vor Ausspähung schützen könnte. Wie schwierig ist es wohl, auf einem ihrer Computer einen Trojaner zu installieren, mit dem man nicht bloß die Dateien, sondern auch die Schlüssel dazu abgreifen kann? Noch nicht einmal ein gewiefter Journalist wird wohl eine Chance haben, wenn die größten und leistungsfähigsten Geheimdienste an seine Daten heran wollen.

Mit anderen Worten: Es wundert mich nicht im Geringsten, daß die Chinesen und die Russen die Daten haben. Es hätte mich eher gewundert wenn sie sie nicht hätten. Angesichts der Tatsache, daß Snowden so einfach so viele Dokumente aus dem System schmuggeln konnte, würde ich sogar vermuten, daß die russischen und chinesischen Geheimdienste einen Großteil davon bereits vor Snowden kannten.

In den Dokumenten, die bisher bekannt wurden, ging es so gut wie überhaupt nicht um Spionageeinsätze in China oder in Russland. Ich wüsste nicht wieso dadurch irgendwelche Leute in Gefahr kommen können, die dort vor Ort eingesetzt sind. Darum ging es Snowden offenbar nie, warum hätte er entsprechende Dokumente überhaupt mitnehmen sollen? Vielleicht ist ihm das eine oder andere dazwischen geraten, was man bei der Menge auch ohne bösen Willen annehmen kann. Ich habe aber keinen Zweifel, daß er an der Gefährdung von Spionen vor Ort keinerlei Interesse hatte und hat.

Das Ziel von Snowden war die Aufdeckung der Spionageaktivitäten gegen die eigene Bevölkerung in den USA und den verbündeten ("befreundeten"?) Ländern. Darum geht's bei den Dokumenten, und bei den daraus resultierenden Veröffentlichungen in den Medien.

Man kann also wohl vermuten, daß die eigentliche Frustration der britischen Geheimdienstler nicht wegen der Einschränkungen bei der Arbeit in China oder Russland entanden ist, sondern wegen der Konsequenzen zuhause. Immerhin sind sie so "ehrlich" und geben zu, daß bisher das Leben keines Spions in Gefahr geraten ist. Na also. Alles halb so wild.

Aber immerhin, man wollte wohl mal wieder Snowden vor's Schienbein treten. Er wird's verschmerzen können. Man weiß ja woher es kommt.

Aber was ich oben schrieb meine ich ernst: Was spricht jetzt noch dagegen, daß man die Dokumente veröffentlicht? Die ggf. betroffenen Spione müssten mittlerweile in Sicherheit sein, die Chinesen und Russen wissen sowieso alles, und die britischen und US-Geheimdienste haben sich 2 Jahre lang darauf einstellen können. Jetzt sind wir dran: Die Öffentlichkeit, die einen Anspruch darauf hat, zu erfahren was da in ihrem Namen und auf ihre Rechnung veranstaltet wurde.

Mittwoch, 20. Mai 2015

Über die Kunst, Blindtests zu diskreditieren, indem man welche durchführt.

Janus ist raus. Wer hätte das je erwartet, nachdem er mit bemerkenswerter Hartnäckigkeit 6 Jahre lang den Hifi-Foristen auf die Nerven gegangen ist. Eine Diskussion mit ihm konnte ein lehrreiches Erlebnis sein, denn wenige konnten so gut wie er Bullshit verbreiten und seine Diskussionsgegner an der Nase herum führen. Wer das an sich erlebt hat, wird sich lange daran erinnern. Wer zu ihm eine Einführung braucht, sei auf meinen alten Blogartikel verwiesen.

Aber er betreibt ja nach wie vor seine Webseite, auf der er seine Erfahrungen mit dem Hifi-Forum verarbeitet, und der Geschichte seinen eigenen Spin geben kann. Nicht ganz zufällig geht es dort schwerpunktmäßig um Blindtests, und darum, dem audiophilen Volk Ausreden Gründe an die Hand zu geben, diese abzulehnen. Das ist ja schon länger eine wichtige Form der Traumabewältigung im audiophilen Sektor, und Janus macht sich als Therapeut besonders gut, denn er lehnt zwar Blindtests genauso ab wie jeder gestandene Audiophile, versteht es aber, diese Ansicht mit einer wesentlich differenzierter wirkenden Pose vorzutragen. Nicht zuletzt deshalb hat er wohl selbst Blindtests durchgeführt, um gewissermassen sagen zu können: "Ich hab's probiert, also kann ich Euch aus Erfahrung sagen: Vergesst es, Blindtests taugen nichts, jedenfalls nicht für das was Ihr wollt."

Ich habe die Kernaussage natürlich stark verkürzt, die Argumentation von Janus ist weitaus ausschweifender. Das macht sie nicht besser, aber es wirkt tiefgründiger. Dabei ist der Bullshit immer noch der gleiche, was man unter anderem daran erkennt, wie jede Gelegenheit zur verzerrenden Darstellung genutzt wird. Das fängt schon damit an, daß man die "Gegenposition" ins Groteske übertreibt, was einem die Widerlegung einfach macht. Ein sehr gern genommener Trick in einer Argumentation.

Seht Euch mal die Webseiten zu den Blindtests an, die Janus geschrieben hat. Hier die erste. Sieht recht professionell aus, viele Details, viele Fotos, man könnte es für seriös halten, nicht wahr? Es ist aber das Gegenteil. Das ganze umfangreiche Programm verschleiert die teils sehr grundsätzlichen Defizite der ganzen Veranstaltung. Und ich denke das ist auch der von vorn herein beabsichtigte Effekt. Es ist ein Versuch, Blindtests ad Absurdum zu führen, indem man welche so durchführt, daß sie vom naïven Leser für bare Münze genommen werden, dabei aber unbrauchbar sind. Es ist so als führe man ein Auto so gekonnt gegen die Wand, daß es alle für einen Unfall halten, der dem Auto anzulasten ist. Geplant und absichtlich, um das Auto oder seine Befürworter zu diskreditieren.

Ich kann und will hier keine vollständige Erwiderung in allen Einzelheiten versuchen, dafür schreibt Janus zu viel. Es bringt auch nichts, denn das würde nur ermüden. Besser ist es, ein paar grobe Fehler aus dem schönen Schein auszugraben.

Es fängt damit an, was für eine Frage der Test beantworten soll. Sie steht ausdrücklich da: "TESTFRAGESTELLUNG: Ist es möglich unterschiedliche gebrauchte HiFi-Verstärker, die aufgrund ihrer klanglichen Charakteristika von geübten Hörern unverblindet unterschieden werden können, auch dann noch zweifelsfrei 20x in Folge zu unterscheiden wenn eine zuverlässige Verblindung besteht? Zielsetzung ist es dabei, nicht nur zu erkennen ob eine Unterscheidung zwischen Gerät A und Gerät B möglich ist, es soll auch sicher erkannt werden welches Klangbild zu welchem Gerät gehört."

Das ist eine in dieser Form sinnlose Frage. Sie geht implizit von der Annahme aus, der "Gegner" würde jegliche Möglichkeit hörbarer klanglicher Unterschiede zwischen Verstärkern kategorisch ausschließen, was die oben erwähnte Steigerung ins Absurde darstellt. Die Position des Gegners sieht hier aber ganz anders aus. Man könnte sie so formulieren: "Auf klangliche Neutralität hin entworfene Verstärker klingen gleich, sofern sie unter gleichen und fairen Bedingungen verglichen werden." Daß man Verstärker finden kann, die dieses Kriterium nicht erfüllen, bestreitet niemand ernsthaft. Daß man Bedingungen schaffen kann, unter denen sich Verstärker hörbar unterscheiden, bestreitet auch keiner. Wenn man also zwei Verstärker hernimmt, und durch einen Blindtest zeigen will, daß sie sich hörbar unterscheiden, dann hat das nur dann Überraschungswert, wenn dieser Unterschied nach allem was man über die Verstärker und deren Betriebsbedingungen weiß, nicht hätte auftreten sollen.

Janus versucht durch Fotos von Laborausrüstung und von Messungen den Eindruck zu erwecken, als hätten sich die Geräte nicht klanglich unterscheiden dürfen. Sie seien daraufhin überprüft worden, ob sie in Ordnung sind, und zwar von einem Fachmann. Nur, man bekommt keine Informationen über Frequenzgang und Verzerrungsmessungen, die das belegen würden. Im Normalfall würde ich, bei einer seriösen Studie, voraussetzen, daß sich die Organisatoren davon überzeugt haben, daß der Klirr niedrig genug, und die Frequenzgänge linear sind. Bei Janus halte ich jede Manipulation und jeden Bock für möglich. Er hat Platz für Fotos von Messgeräten, aber einen Messchrieb von einer Frequenzgangmessung sieht man nicht bei ihm. Schöner Schein, aber keine Substanz.

Vielleicht sind die Geräte tatsächlich deutlich unterschiedlich im Klang. Vielleicht war in einem von beiden eine Loudness-Schaltung aktiv? Ein Klangregler? Da muß kein Defekt vorliegen, das kann auch aus Versehen passieren, weswegen man sich bei seriösen Tests normalerweise per Messung an der fertig aufgebauten Testanlage vergewissert. Ein Test mit Geräten, deren Frequenzgänge oder Klirrfaktoren sich offensichtlich deutlich unterscheiden, bringt nichts, denn er widerlegt nichts, was ein "Objektivist" behauptet hätte.

Wenn man bei einem Blindtest zwischen zwei Verstärkern klar feststellbare Unterschiede findet, dann zeigt jede Erfahrung, daß man dafür auch eine messtechnische Ursache finden kann. Es ist völlig unbefriedigend, wenn man in einem Blindtest Unterschiede findet, aber dann keinerlei Anstrengungen unternommen werden, eine plausible Erklärung dafür zu finden. Die Erklärung könnte trivial sein, und einen Testfehler aufdecken.

Die Ergebnisse waren, angesichts der langen Umschaltpausen, offenbar relativ deutlich. Das bestärkt mich in der Überzeugung, daß der Unterschied messtechnisch schnell gefunden wäre, oder aber es gibt im Testdesign einen Fehler, der die Erkennung ermöglicht hat, obwohl kein Klangunterschied erkennbar war.

Vor diesem Hintergrund wirkt das ganze Brimborium ziemlich grotesk. Angeblich wurden die Geräte von einem Audiotechniker mehrere Stunden ausgiebig getestet, aber so wie es beschrieben ist, anscheinend nicht die Testanlage als ganzes vor dem Test überprüft. Ein ziemlich aussagefähiger Test wäre mit der entsprechenden Ausrüstung in wenigen Minuten erledigt gewesen, und hätte auch dokumentiert werden können. Stattdessen wird man mit nichtssagenden Details überschwemmt.

Im Ergebnis hat man also nun per Blindtest festgestellt, daß sich diese zwei Verstärker hörbar unterscheiden. Was hat man nun davon? Ohne zusätzliche Erkenntnisse nichts. Nur wenn sich gezeigt hätte, daß das weder auf Frequenzgangunterschiede, noch auf Klirrunterschiede zurückzuführen ist, und daß der Test keinen Fehler hat, wäre es interessant und könnte als Gegenargument gegen die "Objektivisten" ins Feld geführt werden. Man hat einen sinnlosen Blindtest durchgeführt, um zu zeigen daß Blindtests sinnlos sind. Und das mit maximal aufgeblähtem Brimborium, sowohl auf der Webseite als auch im Hifi-Forum.

Dazu gehört auch der Versuch, als Komparsen einige Skeptiker mit ins Boot zu holen, was zum Glück nicht gelang. Es hätte Janus ermöglicht, einen Test, den er um keinen Preis in einer sinnvollen Art und Weise durchzuführen bereit gewesen wäre, über die Skeptiker zu legitimieren, und diese gleichzeitig durch seine demonstrative Ignoranz zur Verzweiflung zu treiben. Immerhin brauchte es monatelange Diskussionen, in deren Verlauf Janus diverse Male Gelegenheit hatte, sich über sinnvolle Testmodalitäten zu informieren, was völlig an ihm vorbei ging.

Nun würde ich Janus darin zustimmen, daß für die meisten Anlagenbesitzer ein Blindtest tatsächlich keinen Sinn hat. Nur sind die Gründe dafür nicht die, die Janus anführt. Der Hauptgrund dürfte sein, daß - wenn er ehrlich mit sich wäre - der Anlagenbesitzer gar nicht daran interessiert ist, wie es um die Hörbarkeit von Klangunterschieden an seiner Anlage bestellt ist. Man will an die Unterschiede glauben, da könnte die Wahrheit nur stören. Auch für eine Kaufentscheidung ist ein Blindtest das falsche Mittel, denn am Schluß ist die Zufriedenheit mit seiner Anlage ja ein "ganzheitliches" Problem. Da hat vielleicht der Klang sogar den kleineren Einfluß. Man muß mit dem Gesamteindruck zufrieden sein, und das Prestige, die Optik und Haptik, usw. spielen da eine wichtige, wenn auch oft uneingestandene Rolle. Blindtests braucht man dann, wenn man eine klar umrissene Frage bzgl. der Hörbarkeit (und nur der Hörbarkeit) beantwortet haben will. Und er macht nur Sinn wenn man das Testergebnis auch ertragen kann.

Janus schreibt für diejenigen, die das nicht können, und deren emotionales Gleichgewicht es erfordert, daß sie dafür Ausreden geliefert bekommen, die ihnen plausibel vorkommen.

In "Warum so...?" findet man dafür Beispiele. Die Ablehnung von Umschaltgeräten ist z.B. ein audiophiler Klassiker. Würde man tatsächlich den Verdacht haben, die Umschalthardware hätte einen negativen Einfluß auf die Audiosignale, dann könnte man das (wenn man Messungen misstraut) auch selbst durch Blindtest überprüfen. Ich habe noch nie erlebt daß das ein Audiophiler versucht hätte. Es ist einfach zu nützlich, sich diese wohlfeile Ausrede zu bewahren.

Immerhin realisiert er, daß die Ausrede wohlfeil ist, und verwendet daher einigen Aufwand für die Begründung, die er um das Konzept der "Lästigkeit" strickt. Das Argument geht etwa so (für dijenigen, die sich den weitschweifigen Text sparen wollen): "Die in Frage stehenden Unterschiede erkennt man nicht durch Konzentration, sondern im Gegenteil durch Entspannung, und längeres Hören, wodurch sich die Geräte durch unterschiedliche empfundene Lästigkeit verraten. Hat man eine Umschalteinheit, wird man zum Umschalten verleitet und versäumt diesen sich erst allmählich einstellenden Eindruck."

Das ist auch wieder ein audiophiler Klassiker, der meist unter dem Begriff "Langzeittest" kursiert. Zwar gibt es so etwas wie empfundene Lästigkeit tatsächlich, wie wohl Viele bestätigen werden. Aber wer wer weiß schon genau woran es liegt? Wenn man das nirgendwo festmachen kann, dann könnte genausogut irgend etwas dafür verantwortlich sein, das mit dem Hören nichts zu tun hat. Vielleicht ist es sogar der Geruch der Anlage? Der "Nutzen" eines Langzeittests bestünde dann darin, daß man genug Zeit hat, sein irgendwie zustande gekommenes Bauchgefühl spürbar zu machen, und es an etwas festzumachen, von dem man sich einbilden kann man habe es gehört.

Das funktioniert umso besser, je mehr man auf unmittelbare Vergleiche verzichtet. Unmittelbares Umschalten würde diesen psychologischen Mechanismus in der Tat stören, denn man würde sich mehr auf das konzentrieren was man im Moment hört, insofern hat Janus recht. Gerade wenn man auf die direkte Vergleichbarkeit verzichten muß, gibt man der freien Assoziation und Intuition mehr Raum, und so verdichten sich Einbildungen und hörfremde Einstellungen zu etwas, was wie Gehörtes wirkt. Der Objektivist würde sagen: Der Langzeittest begünstigt die Einbildung.

Aber ein Langzeittest hat auch noch den "Vorteil" daß er schwieriger zu verblinden ist, bzw. in der verblindeten Version schwierig durchzuführen, denn es dauert entsprechend lang, auf ein ausreichendes Signifikanzniveau zu kommen. Entsprechend weniger wahrscheinlich wird es, daß ein seriöser Langzeitblindtest dieses Wunschdenken konterkariert.

Für eine Kaufentscheidung spielt natürlich eine empfundene Lästigkeit eine wichtige Rolle. Dabei ist es egal, woher sie rührt. Wenn ein Gerät falsch riecht, ist das genauso relevant wie wenn es falsch klingt. Das ist ein weiterer Grund warum Blindtests nicht das geeignete Mittel für Kaufentscheidungen sind. Es ist oftmals richtiger, seinem Bauchgefühl zu folgen, denn die Zufriedenheit kommt nicht von den klanglichen Qualitäten allein. John Atkinson, der Chefredakteur der amerikanischen Stereophile, ist zum Blindtestgegner geworden, weil er aufgrund eines Blindtests einen Verstärker gekauft hatte, mit dem er dann nicht zufrieden war. Es war ihm Anlaß für eine öffentliche Tirade gegen Blindtests, die noch heute oft in audiophilen Kreisen zitiert wird. Für ihn ist das ein Zeichen dafür, daß Blindtests die hörbaren Qualitäten eines Verstärkers nicht aufdecken können. Für mich ist es ein Zeichen, daß Atkinson sich nicht volle Rechenschaft gibt über seine Kaufgründe und die Ursachen seiner Vorlieben. Wäre er ehrlich zu sich selbst, und würde er sich eingestehen, daß seine Präferenz von allen seinen Sinnen abhängt, und nicht nur dem Ohr, dann könnte er akzeptieren, daß ein klanglich völlig untadeliger Verstärker trotzdem "lästig" werden kann, und er müßte nicht die Blindtests für etwas geißeln, was letztlich seiner eigenen falschen Erwartungshaltung geschuldet ist.

Der Fehler in der audiophilen Position liegt also in der künstlichen Identifikation der Unterschiede mit dem Hörsinn, wofür es oftmals keine belastbaren Indizien gibt. Janus macht das ziemlich gut, denn es fällt nicht auf, daß er implizit und wie selbstverständlich davon ausgeht, die in so einem "Langzeittest" gefundenen Lästigkeits-Unterschiede seien Klangunterschiede. Der Nachweis dafür fehlt. Dafür gibt's von ihm jede Menge Suggestivformulierungen.

Es wäre so einfach, wenn die Audiophilen zugeben könnten, daß sie nicht mit einem unbestechlichen Gehör ausgestattet sind, sondern daß ihr Eindruck und ihr Urteil subjektiv und von allen Sinnen und Einstellungen beeinflußt sind. Stattdessen wird ein Unterschied im Klang behauptet, der nicht nachvollziehbar ist. Das ist eine Einladung an alle Skeptiker, die Überprüfung dieser Behauptung per Blindtest einzufordern. Und das ist auch berechtigt, denn genau das kann ein Blindtest klären: Ob jemand einen behaupteten Klangunterschied auch tatsächlich hören kann. Mit dem Gehör allein. In so einem Fall sind so gut wie alle Einwände gegen Blindtests kalter Kaffee, denn der Betreffende sollte bereits wissen worin der Unterschied besteht, unter welchen Bedingungen er ihn hören kann, und wieviel Zeit man dafür braucht. Man kann ihn die Testbedingungen weitgehend selbst bestimmen lassen, und bloß für die Verblindung sorgen. Man kann ihn vorher nichtblind hören lassen, und ihm so erlauben, sich seiner Fähigkeit zu vergewissern. Kann er dasselbe dann verblindet auch noch, ist der Nachweis erbracht. Kann er es nicht, wird's wohl eingebildet sein. Was könnte einfacher sein als das?

Gerade vor diesem Hintergrund wird deutlich, wie konstruiert und bemüht die ganzen Ausreden sind, die man von den Audiophilen in diesem Zusammenhang immer wieder hört. Auch wenn sie so geschmeidig daher kommen wie bei Janus.

Und den Audiophilen gilt mein Tip: Ihr könnt Euch den ganzen Aufwand mit diesen Ausreden sparen. Ihr braucht Euch keine Verstärker zu kaufen, die Euch nicht gefallen. Gebt Euch und uns gegenüber zu, daß es nicht die hörbaren Unterschiede sein müssen, die dabei die wesentliche Rolle spielen. Dann braucht es auch keine Blindtests, um etwas nachzuweisen, was ihr falsch assoziiert, und was dann umständlich durch argumentative Tricks gerechtfertigt werden muß.

Update:

Janus525 beschäftigt sich auf seiner Webseite unter anderem auch mit diesem Blogartikel. Ich glaube nicht daß ich viel dazu zu schreiben brauche. Wem die Zeit nicht zu schade ist, kann sich das ja reinziehen. Mein persönlicher Favorit, bei dem ich spontan grinsen mußte, ist wohl folgendes Kleinod (hier ganz unten im Fazit):
Das ist ein geradezu archetypisches Beispiel für die Diskussionstricks, deren er sich regelmäßig und routinemäßig bedient. Hier wie er in eine scheinbare Zustimmung zu meiner Aussage das genaue Gegenteil hineinpräpariert. Sehr schön wie er das durch das Ändern nur weniger Worte hinkriegt. Man könnte fast einen Bildvergleich daraus machen: "Finden Sie die Unterschiede zwischen diesen beiden Bildern".

Sehr ironisch finde ich übrigens auch, wie er die angeblich nicht vorhandene Meinungsfreiheit im Hifi-Forum geißelt, aus dem er sich immerhin selbst abgemeldet hat und nicht rausgeschmissen wurde, und sich dann prompt in Charly's Open-End-Forum angemeldet hat, wo man mit der falschen Meinung nicht bloß umstandslos rausgeschmissen wird, sondern unter Umständen gleich auch noch alle eigenen Beiträge gelöscht bekommt, so daß es so aussieht als wäre man nie Teilnehmer gewesen, und es unmöglich für Dritte wird, nachzuvollziehen was sich da abgespielt hat. Aber genau das dürfte Janus525 gefallen, denn ebenso wie Charly geht es ihm schließlich um die Fassade, die auf diese Art sauber gehalten werden kann.

Die Realität ist doch immer wieder die beste Satire.

Freitag, 6. März 2015

Den Ohren trauen

Ich traue normalerweise meinen Ohren, aber ich würde niemandem trauen, der mir empfiehlt, ich solle nur meinen Ohren trauen.

"Den eigenen Ohren trauen", das ist quasi zum Schlachtruf der Audiophilen geworden. Wie oft haben wir das nicht schon lesen oder hören müssen, wenn wir mit Audiophilen debattieren! Der Audiophile, der wahre Musikliebhaber, traut selbstverständlich seinen Ohren, während der Techniker die Wahrheit auf dem Oszilloskopschirm sucht. Der Audiophile kann auch seinen Ohren trauen, denn er ist ja geübt und weiß aus Livekonzerten, wie sich die Musik anhören muß, während der Techniker sich an Zahlen und Diagrammen festhält, die die Musik und die Empfindung natürlich nicht repräsentieren können.

Schönes Märchen, leider gelogen.

Wie wenig ein Audiophiler seinen Ohren traut, das merkt man spätestens beim Thema Blindtest. Müßte jemand, der sich nur auf seine Ohren verläßt, nicht begeistert über eine Testmethode sein, die versucht, alle anderen Einflüsse auszuschließen, die mit den Ohren bzw. dem Gehör nichts zu tun haben? So etwas müßte für jemanden, der sich seines Gehörs sicher ist, doch geradezu ideal sein!

Das Gegenteil ist der Fall: Von audiophiler Seite werden Blindtests bekämpft als wären sie eine Erfindung des Teufels. Gehörfremde Einflüsse auszuschließen wird als unnatürlich empfunden, und man unterstellt negative Einflüsse auf das Hörvermögen.

Nun ist es sicherlich unnatürlich, wenn man den Einfluß anderer Sinnesreize ausschließt, weil der Mensch nun einmal im natürlichen Zustand mit allen verfügbaren Sinnesorganen zugleich kommuniziert. Aber das bedeutet, daß sich dieser Mensch eben nicht auf einen Sinn verläßt, sondern auf eine Kombination aller Sinne. Die menschliche Wahrnehmung ist sogar sehr geübt darin, die Sinne miteinander zu kombinieren, und Defizite bei einem Sinn mit Hilfe anderer Sinne auszugleichen. Das passiert ganz unwillkürlich und unbewußt. Logisch, daß man das Gefühl hat es fehle etwas, wenn man das durch eine bestimmte Versuchsgestaltung unterbindet.

Ein Beispiel dafür ist die Richtungswahrnehmung, die unter anderem auch davon profitiert, daß sich die Wahrnehmung ändert wenn sich die Kopfposition ändert. Den Kopf völlig ruhig und ortsfest zu halten wäre unnatürlich und unbequem. Man bewegt den Kopf eigentlich immer unwillkürlich, mindestens ein bißchen. Da sich das Schallfeld um einen herum nicht mitbewegt, ändert sich die Wahrnehmung, und das geht in die vom Gehirn verarbeitete Information mit ein. Das ist eigentlich eine Kombination des Gehörs mit der Motorik und dem Gleichgewichtsorgan. Hat man dagegen einen Kopfhörer auf, oder Ohrhörer drin, dann ist der Schall unabhängig von Kopfbewegungen, und die ganze Szene scheint sich mit dem Kopf zu drehen. Das ist einer der Gründe, warum das Hören mit Kopfhörer unnatürlich wirken kann. Um das zu kompensieren, hat man versucht, mit Head-Trackern die Kopfbewegung festzustellen, und das Schallfeld entsprechend zu modifizieren, was ein ganz ordentlicher Aufwand ist, und nicht unbedingt völlig überzeugende Ergebnisse liefert.

Mit anderen Worten, der Mensch traut nicht nur seinen eigenen Ohren, wenn es um die Richtungswahrnehmung geht. Da spielen noch ganz andere Faktoren hinein, und erst dadurch wird die menschliche Wahrnehmung so gut wie sie ist. Das obige Beispiel ist beileibe nicht das einzige. Wer glaubt, das sei alles eine Leistung des Gehörs, macht sich was vor. Das ist einer der grundlegenden Fehler der Audiophilen: Es werden Leistungen mit dem Gehör in Verbindung gebracht, die ihren Grund ganz woanders haben.

Im Blindtest versucht man ganz bewußt, diese anderen Einflüsse auszuschalten, um den Beitrag des Gehörs zu isolieren und eigenständig bewerten zu können. Es ist keine Frage, daß das sinnvoll, ja geradezu unverzichtbar, ist, wenn man sich für das Gehör selbst interessiert. Es ist gerade diese menschliche Eigenschaft, nach Möglichkeit alle Informationsquellen miteinander zu kombinieren, was man auch nicht bewußt unterlassen kann, die einem den Blindtest quasi aufzwingt. Anders könnte man keine zuverlässigen Aussagen über das Gehör als solches gewinnen, sondern höchstens über die Wahrnehmung im Ganzen, in der Kombination aller Sinne.

Genau das macht es aber unnatürlich, und selbstverständlich wird dadurch die Wahrnehmungsfähigkeit eingeschränkt. Die Wahrnehmungsfähigkeit wohlgemerkt, nicht die Hörfähigkeit. Das ist kein bedauerlicher Nachteil, sondern Sinn und Zweck des Blindtests. Wer dem Irrglauben anhängt, alles was er meint zu hören habe er tatsächlich nur durch sein Gehör aufgenommen, der wird sich wundern wieviel davon unter Blindtestbedingungen verschwindet. Das ist kein Problem, sondern eine Folge der Art und Weise wie menschliche Wahrnehmung funktioniert, und ein Indiz daß der Blindtest funktioniert, weil er gehörfremde Einflüsse einschränkt.

Wer also meint er könne seinen Ohren trauen, und das womöglich sogar als Mantra vor sich her trägt, und dabei zugleich Blindtests ablehnt, der müßte eigentlich bei nüchternem Nachdenken finden, daß das ein Widerspruch ist. So groß kann das Vertrauen ins eigene Gehör dann wohl kaum sein. Was in Wahrheit ein Fehler in der eigenen Vorstellung ist, wird auf den Blindtest projiziert, und als dessen Fehler gesehen.

Nun sind Blindtests sicher nicht perfekt, aber doch wesentlich besser als ihr Ruf in der audiophilen Szene. Wenn jemand behauptet, sie würden aus diesem oder jenem Grund nicht funktionieren, dann meint er meist, daß sie nicht das Ergebnis liefern, was er erwartet hätte. Wer dem oben erwähnten Irrglauben anhängt, der wird aber unrealistische Erwartungen haben. Das Problem liegt dann bei ihm und nicht beim Blindtest.

Die audiophile Haltung wird manchmal untermauert mit einem Argument aus der Evolution. Man behauptet, das Gehör des Menschen sei so gut und empfindlich geworden, weil das ein überlebenswichtiger Faktor war zu einer Zeit, als der Mensch noch in Gefahr stand, von wilden Tieren attackiert und womöglich gefressen zu werden. Dieses im Kern wohl richtige Argument kommt etwas krude daher und führt zu noch viel kruderen Schlussfolgerungen. Wenn es so eindimensional gewesen wäre wie es in der Argumentation oft erscheint, dann wäre kaum zu erklären, wieso im Tierreich gelegentlich wesentlich bessere Hörleistungen zu beobachten sind als beim Menschen. Der Mensch ist hier keineswegs die "Krone der Schöpfung"*. Es müssen also andere Faktoren eine bedeutende Rolle gespielt haben, die man nicht unter den Tisch fallen lassen kann.

Viel näher an der Wahrheit ist man wohl, wenn man sich klar macht daß nicht das Gehör im Speziellen, sondern der gesamte Wahrnehmungsapparat des Menschen im Ganzen, mit allen Sinnen und deren Verarbeitung im Gehirn, Gegenstand der evolutionsgetriebenen Optimierung war, oder noch eher der gesamte Mensch in der Kombination aller seiner Fähigkeiten. Wenn die Kombination aller Sinne, und eine überragende Verarbeitungsleistung, viel bessere lebensrettende Effekte hat als die Verbesserung eines einzelnen Sinns, dann wird klar daß eine Optimierung des Gehörs für sich gesehen vielleicht gar nicht so wichtig war. Falsch ist dann nicht das Argument per se, sondern seine Fokussierung auf das Gehör.

Ein weiterer, vielleicht noch offensichtlicherer Fehler bzw. Widerspruch zeigt sich beim Thema Streß, welches ja ebenfalls häufig im Zusammenhang mit Blindtests diskutiert wird. Man argumentiert auf audiophiler Seite gern, daß die unnatürliche Situation beim Blindtest Streß erzeuge, und daß sich dadurch die Hörfähigkeit vermindere. Abgesehen davon, daß das als Selbstverständlichkeit dargestellt wird, für das man es gar nicht für nötig hält, irgendwelche Nachweise zu erbringen, beißt sich das auch mit dem Argument aus der Evolution. Der Widerspruch scheint den Audiophilen gar nicht aufzufallen:

Wenn unsere Hörfähigkeiten darauf zurückgehen sollten, daß sie im Falle von Angriffen durch Raubtiere über Leben und Tod entscheiden können, dann müßten sie eigentlich unter Streß am allerbesten sein. Mehr Streß als akute Todesgefahr ist wohl kaum denkbar, und genau dann müßten eigentlich alle Sinne in Höchstform sein. Wer behauptet, es sei umgekehrt, und unter Streß höre man schlechter, der untergräbt damit gleichzeitig sein Argument aus der Evolution.

Nun sind audiophile Argumentationslinien nicht unbedingt charakterisiert durch innere Konsistenz und inhaltliche Belastbarkeit, besonders nicht in der Hitze des Gefechts, aber man sollte doch hoffen, daß ihnen solche Widersprüche und Ungereimtheiten in weniger konfrontativen Situationen dämmern. Bei etlichen von Ihnen scheint aber das Gegenteil zu passieren: Die Argumente werden immer kruder und unplausibler, mit denen die Fehler überkleistert werden sollen.

Statt zu realisieren, daß man seinen Ohren de facto selber nicht so uneingeschränkt vertraut, wie man vorgibt, und daraufhin seine Ansichten und Haltungen zu überdenken, erklärt man das Vertrauen in sein Gehör quasi zur Ehrenpflicht der audiophilen Zunft, und zum definitiven Charakteristikum für die Unterscheidung zwischen Musikliebhaber und seinem Gegenspieler, dem gefühlsarmen Techniker. Die Frage "Wem traust Du, Deinem Gehör oder Deinen Meßgeräten?", wird quasi zur Gretchenfrage des Hobbies HiFi erklärt, zur Wasserscheide zwischen Glauben und Unglauben.

Dabei ist das eine unsinnige Gegenüberstellung zweier künstlicher Positionen, die sich in Wahrheit gar nicht widersprechen. Ich traue natürlich beidem - bis zu einem gewissen Grad. Und ich gehe davon aus daß das Andere in der Praxis genauso halten, oftmals ohne darüber nachzudenken. Der entscheidende Punkt ist, ob man das, was einem die Sinne vermitteln, ob direkt oder durch unterstützende Instrumente, für plausibel hält. Paßt es zusammen oder sehe ich da Ungereimtheiten? Wenn alles zusammenpaßt, dann habe ich auch Vertrauen. Paßt es nicht, ist das ein Anlaß für Mißtrauen und Zweifel. Meist ergibt sich das ganz intuitiv, und wird auch nicht zwangsläufig bewußt, schon gar nicht sofort. Das kommt davon, daß die menschliche Wahrnehmung ein ständiger Mustererkennungsprozeß ist, bei dem die aktuelle Wahrnehmung mit gespeicherten Mustern verglichen wird. Interessant sind vor allem die Unterschiede, also ob etwas "normal" ist, also im Rahmen des Bekannten und Erwarteten, oder nicht.

Auch hier ist es also eher die gesamte Wahrnehmung, und das darauf basierende Urteil, dem man vertraut, und nicht ein Sinn in Isolation. Zudem ist es eine fundamentale Erfahrung, daß man seiner Wahrnehmung eben nicht immer vertrauen kann. Deswegen haben wir nicht bloß die Fähigkeit zur Wahrnehmung, sondern auch zum Nachdenken (was Zweifel und Lernen mit einschließt). Die besten und vertrauenswürdigsten Ergebnisse erzielt man, wenn man bestmöglichen Gebrauch von beiden Fähigkeiten macht.

Vor diesem Hintergrund erscheint der audiophile Schlachtruf "Vertraue Deinen Ohren!" wie eine Aufforderung, auf das Nachdenken zu verzichten. Und ich glaube wirklich daß das auch oft so gemeint ist. Die Audiophilen verzichten ja selber darauf, weil sie sonst realisieren müßten daß sie ihrem eigenen Anspruch auch nicht genügen, und sie wollen natürlich ebensowenig von anderer Seite darauf aufmerksam gemacht werden, folglich sollen auch die Anderen nicht nachdenken. Nur so bleibt der Irrtum (oder der Selbstbetrug) unbewußt, und der innere Frieden erhalten.

Wenn dann noch wirtschaftliche Interessen dazu kommen, dann sollte eigentlich die Aufforderung, seinen Ohren zu vertrauen, unmittelbarer Anlaß für das Gegenteil sein. Wer es für nötig findet, mir zu sagen wem oder was ich vertrauen soll, der hat meist einen Hintergedanken, und zwar einen nicht ganz uneigennützigen. Es kommt zwar auf der Oberfläche uneigennützig daher, weil ich ja meinen eigenen Ohren vertrauen soll, und nicht etwa ihm oder den seinen. Aber wenn dahinter steht daß ich auf das Nachdenken verzichten soll, dann wird das leicht zum trojanischen Pferd. Ich habe kein Interesse, darauf hereinzufallen.

Das wäre daher meine Antwort auf den audiophilen Schlachtruf: Schärfe Dein Urteilsvermögen, und dann traue Deinem Urteil. Dabei profitierst Du von allen Deinen Sinnen und Fähigkeiten, und nicht bloß von einem.

*) Die "Krone der Schöpfung", so weithin verwendet wie diese Formel sein mag, kräuselt mir die Nackenhaare. Nicht bloß weil es objektiv nicht stimmt, wie man an wesentlich mehr Einzelheiten sehen kann als bloß dem Gehör. Sie bringt so viele falsche Voraussetzungen zusammen wie es bei drei Worten nur geht. Weder haben wir es mit einer Schöpfung zu tun, also etwas das planmäßig und willentlich geschaffen wurde, noch geht es um eine Hierarchie von oben oder unten, besser oder schlechter, Herrscher oder Beherrschter, was durch die Krone symbolisiert würde. Zudem steckt da eine tiefe Egozentrik drin, die Einbildung man sei selbst im Zentrum, der Zweck und das Ziel. Wie viel Schaden wohl aus der Haltung entstanden sein mag, die diese drei Worte auf einen Punkt bringen? Wie überfällig es doch ist, sich davon zu lösen! Ich verwende diese Formulierung nicht zuletzt auch wegen des Schauderns, das sie bei mir auslöst, in der Hoffnung daß ein bißchen davon auch bei meinen Lesern ankommen möge.

Donnerstag, 8. Januar 2015

Der wörtliche und der ironische Verstand

Eigentlich will ich mich hier im Blog den Audiophilen und dem Hifi-Bereich widmen, aber manchmal bringen mich die Zeitläufte dazu, über diesen Tellerrand hinauszublicken, und mich mit anderen gesellschaftlichen Erscheinungen zu beschäftigen. Der Anschlag auf die Redaktion der französischen Satirezeitschrift Charlie Hebdo gestern mittag ist mal wieder so ein Fall.

Der vor wenigen Jahren verstorbene britisch/amerikanische Autor und Journalist Christopher Hitchens sprach wiederholt vom Gegensatz zwischen dem wörtlichen Verstand, und dem ironischen Verstand als dem Gegensatz, der letztlich dem religiösen Fundamentalismus zugrunde liege. "The literal mind does not understand the ironic mind, and sees it always as a source of danger." Bei diesem Hitchens-Zitat ging es um Salman Rushdie, und die vom islamischen geistlichen Oberhaupt und iranischen Revolutionsführer Ajatollah Khomeini 1989 ausgesprochenen Fatwa gegen Rushdie, die ihn dazu zwang, ein Jahrzehnt lang unter Polizeischutz im Untergrund zu leben. Wie wahrscheinlich jeder weiß ist diese Fatwa ein Mordbefehl an alle islamischen Gläubigen, und wie vielleicht nicht jeder weiß ist sie bis heute nicht zurückgenommen worden. Auf den Kopf von Rushdie sind nach wie vor mehrere Millionen Dollar Kopfgeld ausgesetzt. Was das für das Leben nicht nur der betroffenen Person selbst, sondern auch seiner Familie und näheren Umgebung bedeutet, kann man in seinem biographischen Roman "Joseph Anton" nachlesen.

Nun mag man darüber streiten, ob und inwieweit so eine Fatwa für islamische Gläubige verbindlich ist oder nicht. Es dürfte niemanden überraschen, daß sich schon einmal Schiiten und Sunniten darüber uneins sind. Das spielt aber wenig Rolle, denn es reicht schon wenn sich ein kleiner Prozentsatz an Hardlinern daran hält. Man sollte erwarten, daß normal denkende Menschen so etwas kategorisch ablehnen - hier soll jemand ermordet werden, weil er einen Roman geschrieben hat. Aber wenn die Religion im Spiel ist, dann gibt es erfahrungsgemäß genügend Anhänger, deren mitmenschliche Empatie durch so eine Aufforderung komplett neutralisiert wird. Genug Leute jedenfalls, um jemanden in den Untergrund zu zwingen. Und in diesem Fall noch mehr: Rushdie's japanischer Übersetzer wurde ermordet. Sein norwegischer Übersetzer hat einen Anschlag schwer verletzt überlebt. Unruhen in mehreren Ländern der islamischen Welt forderten ingesamt um die 150 Tote. Auf diverse Buchläden wurden Anschläge verübt.

Bei den Satanischen Versen, wie auch jetzt bei Charlie Hebdo, und schon beim "Karikaturenstreit" um das dänische Blatt "Jyllands-Posten", geht es um Satire, im Falle von Rushdie sogar um eine recht milde Form davon, wie jeder bestätigen wird, der das Buch schon gelesen hat. Karikaturen wie Bücher sind geschrieben und gemeint für den ironischen Verstand. Nur wer Ironie versteht, und zu schätzen weiß, wird mit ihnen etwas anfangen können. Der "wörtliche Verstand" fühlt sich davon bedroht.

Diese grundsätzliche Antagonie findet man auch im Kleinen. Wer sich schon in kontroverse Debatten in Internetforen gestürzt hat, dem wird nicht verborgen geblieben sein, daß man mit Ironie-Smilies geradezu um sich werfen kann, und es gibt trotzdem Leser, denen die ironische Seite eines Beitrags völlig unzugänglich bleibt. Deren Antwort darauf legt bloß, daß sie alles wörtlich genommen haben. Und sie haben es nicht nur wörtlich genommen, sie haben es oft auch übel genommen und inszenieren eine Beleidigungsnummer.

Was diese Leute nicht verstehen, und wovor sie sich sogar fürchten, das werden sie sicher nicht wertschätzen. Würde man diesen Leuten nachgeben, man könnte fürderhin alles Ironische, jede Stichelei, jede Sottise, jeden Witz und jede Entlarvung vergessen. Mit anderen Worten: Jede geistige Unabhängigkeit und Freiheit. Wer nur noch Gedanken äußern darf, die niemanden aufregen, der darf nicht mehr frei denken. Die kulturelle Ödnis, die daraus erwachsen würde, möchte ich mir gar nicht vorstellen.

Wer schon in totalitären Zuständen gelebt hat, der wird bestätigen können daß dort die Bedeutung von Ironie noch wächst. Ironie ist Subversion. Sie ist dort, wo der wörtliche Verstand herrscht, die einzige Möglichkeit, eine Idee in der zweiten Bedeutungsebene zu verstecken, in der Hoffnung daß sie von den Trägern der Macht und des wörtlichen Verstandes nicht dechiffriert wird, aber von den Adressaten, die mit ironischem Verstand begabt sind, sehr wohl verstanden wird. Ironie wird in totalitären Umständen zur Überlebensstrategie für Leute mit einem aktiven Verstand. Hitchens selbst illustriert das mit einer Anekdote aus den Zeiten des zweiten Weltkriegs, die ich hier frei nacherzähle:

Der britische Schriftsteller P. G. Wodehouse wurde bei der deutschen Invasion Frankreichs 1940 interniert, und er bekam schließlich den Auftrag, beim deutschen Rundfunk in Berlin englischsprachige Propagandasendungen für die USA zu machen, die damals noch nicht in den Krieg eingetreten waren. Goebbels' Propagandaministerium erhoffte sich offenbar einen Einfluß auf die öffentliche Meinung in den USA, die sie vom Kriegseintritt abhalten helfen könnte. Die erste Sendung begann Wodehouse mit den (von mir übersetzten) Worten:
"Junge Menschen am Beginn ihres Lebens fragen mich oft: 'Wie wird man ein Internierter?' Nun, da gibt es diverse Möglichkeiten. Meine eigene Methode war, eine Villa in Nordfrankreich zu erwerben, und darauf zu warten daß die deutsche Armee vorbei kam. Das ist wahrscheinlich der einfachste Plan. Du kaufst die Villa, und die deutsche Armee erledigt den Rest."
Hitchens fährt fort: Jemand - hoffentlich Goebbels selbst - müsse das wohl abgenickt haben, als eine Art Werbung für deutsche Aufgeschlossenheit. Das "Lustige" daran sei, daß Wodehouse nach seiner Rückkehr nach Großbritannien dafür Ärger ohne Ende wegen angeblicher Kollaboration mit den Deutschen gekriegt hat. Und das von einer Nation die auf ihren Humor stolz ist.

Man sieht, daß diese Auseinandersetzung zwischen dem wörtlichen und dem ironischen Verstand überall stattfindet. Es ist keine Auseinandersetzung zwischen dem Islam und dem Abendland, oder zwischen den Religionen. Der wörtliche Verstand ist in letzter Konsequenz totalitär, der ironische freiheitlich. Das ist die eigentliche Frontlinie in dieser Auseinandersetzung. Sie geht durch alle Gesellschaften, ob sie nun säkular oder religiös geprägt sind, und geht letztlich darum wie wir leben wollen. Die Frage ob Gott nun dreifaltig oder einfaltig oder einfältig ist, ob der Lieblingsprophet nun der letzte war oder der vorletzte oder ein falscher, ist demgegenüber ungefähr so wichtig wie die Frage, wieviele Engel auf eine Nadelspitze passen.

Das heißt daß die Satire, die Ironie, die Karikatur im Zentrum dieser Auseinandersetzung stehen. Direkt an der Frontlinie. Es handelt sich nicht um gelegentlich amüsante, gelegentlich ärgerliche Überflüssigkeiten, auf die man mit einem Achselzucken verzichten könnte ("na gut, wenn's zu viele Leute aufregt, dann lassen wir's eben, vielleicht haben sie ja Recht"). Wer sich den Spott abmontieren läßt, gibt Elemente der freiheitlichen Substanz auf, die für unser Leben zentral sind. Diesen Spott haben die Betonköpfe, Dummschwätzer, Humorlosen und Feiglinge in unseren eigenen Reihen ebenso nötig wie irgendwelche religiösen Wirrköpfe, denn wenn wir denen das Feld überlassen würden, dann käme ungefähr die gleiche geistige Wüste heraus. Ein gedeihliches Zusammenleben in pluralistischen Gesellschaften gelingt nicht dann, wenn man auf die spezifischen Empfindlichkeiten von allen Rücksicht nimmt, und sich innerlich selbst zensiert, sondern wenn man von niemandem die Empfindlichkeiten als sakrosankt akzeptiert.

Dazu wäre es äußerst hilfreich, wenn wir endlich Schluß machen würden mit der Idee, die religiösen Gefühle der Menschen verdienten besonderen Schutz. Ich wüßte wirklich nicht mit welchem Grund man da die religiösen Gefühle über irgendwelche anderen Gefühle stellt. Sollte dann nicht auch das Gerechtigkeitsgefühl besonders geschützt werden? Oder das Sicherheitsgefühl? Ich als Atheist habe zwar keine religiösen Gefühle, aber jede Menge anderer Gefühle, die aus meinem Empfinden genauso schützenswert wären, schon allein deswegen weil sie mindestens genauso "edel" sind. Wer von den Leuten, die sich so über angebliche Blasphemie aufregen, hat denn Hemmungen, wenn es darum geht auf den Gefühlen von Atheisten herumzutrampeln? Warum sagen wir es also nicht gerade heraus: Gefühle genießen in einer freiheitlichen, pluralistischen Gesellschaft keinen Schutz, auch religiöse nicht. Das gehört so, weil es der unvermeidliche Nebeneffekt einer viel wichtigeren Sache ist: Die Freiheit der Meinungsäußerung.

Wenn wir religiöse Gefühle als schützenswert akzeptieren, dann werden, wie man in Anfängen schon jetzt sehen kann, alle möglichen Dinge, die uns völlig harmlos vorkommen, plötzlich als blasphemisch gebrandmarkt werden. Die religiösen Eiferer sind sehr schnell dabei, diesen Schutz, den sie einem Anderen nie zugestehen würden, für sich zu nutzen. Irgendwann wird die bloße Existenz von "Ungläubigen" schon als Provokation empfunden werden, vor der man sich schützen muß. Wir können nur verlieren, wenn wir dem nachgeben, denn es wird da keine Grenze geben.

Besonders ärgert mich dabei das Argument, die Karikaturisten, oder wer auch immer gerade Opfer dieser Eiferer wurde, seien für Ihr Schicksal selber verantwortlich, denn sie hätten ja gewußt mit wem oder was sie es zu tun haben, und demzufolge selbst heraufbeschworen, was ihnen nun widerfahren ist. Ein widerwärtiges Argument. Ja, die Leute wußten womit sie es zu tun haben. Gerade deswegen haben sie ihre satirische Feder gespitzt! Weil es nötig ist und in unser aller Interesse. Fast aller. Dieses "Selber Schuld" Argument ist nicht nur feige, sondern auch ignorant. Da werden die Träger des wörtlichen Verstandes über alle "Kulturgrenzen" hinweg zu Komplizen bei der Abschaffung der Ironie, und mit ihr des freien Geistes.

Ich kann dieses Thema nicht abschließen ohne auf diverse weitere Abstrusitäten und Verrenkungen hinzuweisen. Beispiel Innenminister de Maizière, der der SZ ein Interview gegeben hat, in dem er folgenden Satz gesprochen haben soll: "Terroristische Anschläge haben nichts mit dem Islam zu tun." Ein Anschlag, der von den Tätern selbst mit der Verteidigung der Ehre des Islam und seines Propheten gerechtfertigt wurde, soll also mit dem Islam nichts zu tun haben. Das ehrenwerte Motiv dahinter ist natürlich, den Unterschied aufzuzeigen zwischen dem "normalen Islam" und seinen vielen friedlichen Anhängern auf der einen Seite, und den relativ wenigen islamistisch motivierten Dschihadisten auf der anderen Seite. So berechtigt das ist, so untauglich und dumm ist es, jeden Zusammenhang pauschal abzustreiten. Natürlich gibt es einen Zusammenhang, das ist offenkundig! Genauso gut könnte man abstreiten, daß es einen Zusammenhang zwischen der Hexenverbrennung und dem Christentum gegeben habe.

Was de Maizière da "terroristisch" nennt (in diesem Zusammenhang ausnahmsweise sogar mal zurecht), geht ganz offen zurück auf eine wörtliche Auslegung des Koran, der heiligen Schrift des Islam. Die Verlautbarungen der Täter hier wie in etlichen anderen solchen Fällen lassen da gar keine Zweifel zu. Das ist noch nicht einmal ein spezifisches Problem des Koran, denn die Bibel enthält ebenfalls diverse Stellen, mit denen sich solche Aktionen rechtfertigen lassen, wenn man sie wörtlich auslegt. Das ist auch keineswegs theoretisch, denn es gibt sehr viele geschichtliche Beispiele dafür, und es gibt auch in der Gegenwart durchaus größere Gruppen von Leuten, die dieses wörtliche Verständnis vertreten und durchzusetzen versuchen. Manche christliche Gruppierungen versuchen aktiv, die Zustände der Apokalypse herbeizuführen, um die Voraussetzungen für den "jüngsten Tag" zu schaffen. Und ähnlich gesinnte fundamentalistische Juden in Israel glauben, daß der Messias kommen würde, wenn sie nur endlich das gesamte heilige Land unter ihre Kontrolle gebracht und die Ungläubigen daraus vertrieben haben. Diese Leute sehnen den Weltuntergang herbei und wollen ihn auslösen helfen. Es gibt keinen Grund zu hoffen, sie meinten es nicht ernst.

Alle diese Wahnvorstellungen speisen sich aus dem, was ein wörtlicher Verstand aus dem Steinbruch der Motive aus den religiösen Büchern herausliest. Ein Verstand, der zur Ironie, zur Metapher, zur Kritik unfähig ist, und sie als Bedrohung empfindet. Die religiösen Schriften und Mythen liefern die Zutaten, aus denen die Fundamentalisten ihr giftiges Gebräu zubereiten. Da kann man nicht behaupten, das eine hätte nichts mit dem anderen zu tun.

Andere kochen aus der Not ihr eigenes Süppchen: Marine le Pen fordert nun ein Referendum über die Todesstrafe in Frankreich. Was für eine ekelerregende Verhöhnung der Opfer beim Charlie Hebdo das doch ist! Ich bin mir sicher daß gerade auch unter den Mitarbeitern dort und dem sozialen Umfeld niemand zu finden ist, der das befürworten würde, selbst im Angesicht des Verlustes. Die völlige Gewissenlosigkeit der Frau le Pen wird noch dadurch bekräftigt, daß die Todesstrafe gegen fundamentalistische Attentäter völlig wirkungslos wäre, weil die üblicherweise sowieso mit dem Leben abgeschlossen haben, und ihren Tod als Märtyrer sogar sehenden Auges herbeiführen! So blöd kann auch eine Frau le Pen nicht sein um das zu übersehen. Für einen Möchtegern-Märtyrer ist die Aussicht auf eine langjährige Haftstrafe sicher weitaus weniger attraktiv als ein schneller Tod. Dieser Appell an die niederen Instinkte des eigenen Wählervolks kann allenfalls die eigenen Wahlchancen zum Ziel haben, aber sicher nicht den Schutz der Bevölkerung vor Gewalttaten.

Wie man sieht ist die Satire dringender nötig denn je. Gegen alle Träger eines wörtlichen Verstandes und ihre Wasserträger, bei uns wie anderswo. Gegen de Maizière ebenso wie gegen le Pen, gegen islamistische Fundamentalisten genauso wie gegen jüdische oder christliche. Besonders gegen die religiös motivierten Fundamentalisten, denn die bringen im Moment die größten Probleme. Was sage ich: im Moment? Vermutlich die meiste Zeit der letzten paar tausend Jahre! Wir sollten bei all dem nicht vergessen: Wir leben immer noch in ausgesprochen guten Zeiten! Wir leben im Durchschnitt über 70 Jahre, wann hat es das je gegeben? Wir sollten das verteidigen so lange es geht, den freien Geist verteidigen, der das alles ermöglicht.

Hitchens sagt es am besten, zu dieser Zeit schon im Angesicht des eigenen Todes:
"Unsere Waffen sind der ironische Verstand gegen den wörtlichen: Der aufgeschlossene gegen den leichtgläubigen; das mutige Streben nach Wahrheit gegen die ängstlichen und unterwürfigen Kräfte, die unseren Nachforschungen Grenzen setzen wollen (und die sich nicht entblöden, zu behaupten wir hätten schon alle Wahrheit, die wir brauchen). Vielleicht vor allem anderen bejahen wir das Leben gegenüber den Todeskulten und dem Menschenopfer, und fürchten uns nicht vor dem unvermeidlichen Tod, sondern viel mehr vor einem menschlichen Leben, das eingeengt und verdreht ist durch das erbärmliche Bedürfnis nach stumpfsinnigen Lobgesängen, oder dem trostlosen Glauben daß die Naturgesetze unser Gejammer und unsere Beschwörungen erhören."