Montag, 20. Juli 2009

Nötig vs. Möglich

Mit schöner Regelmäßigkeit bricht die Audioindustrie eine neue Formatdiskussion vom Zaun. Das ist seit Jahrzehnten der Brauch. Es scheint dabei nicht so als würde man in irgend einer Form dazulernen.

Es gibt nur wenige Fälle die man hier uneingeschränkt als Erfolgsstory anführen kann. So wie ich das sehe kommen für den Titel eigentlich nur 4 Formate in den letzten 60 Jahren in Frage: Die Single (45 U/min), die LP, die Compact-Cassette und die CD. Die Liste der mehr oder weniger gescheiterten Formate ist um ein Vielfaches länger und ich versuche gar nicht erst sie aufzuschreiben. Mit der Blu-Ray Audio Disc ist man gerade dabei die Liste um einen weiteren Eintrag zu erweitern.

Das Problem ist daß man mit der Blu-Ray-Technologie einen Datenträger zur Verfügung hat, den man in möglicht viele Märkte drücken will, damit sich mit der Verbreitung auch die Stückzahlen steigern. Investitionen in Fertigungsanlagen und Entwicklungskosten wollen sich rentieren, aber da kann dann schon mal die Sicht des Konsumenten aus dem Blickfeld geraten der sich fragt was er von all dem hat. Und bei Licht betrachtet hat er davon bestürzend wenig.

Der Konsument will, platt ausgedrückt, seine Mucke abspielen können, und zwar mit möglichst wenig Komplikationen. Seit der Compact-Cassette ist er es auch gewohnt, Musik zu überspielen, und das wird man ihm kaum so einfach abgewöhnen können, aller Drohkulisse und technischen Trickserei zum Trotz. Nicht umsonst sind alle Versuche der Industrie, das zu verhindern - und es gibt nicht wenige davon - übel nach hinten losgegangen. Der Blu-Ray-Versuch ist nur der nächste in der Reihe, mit dem mal wieder ein Kopierschutzsystem etabliert werden soll, und der Konsument wittert ohnehin mittlerweile in jeder derartigen Neuerung einen Kopierschutz-Trick. Ich meine zurecht.

Um dem Konsumenten-Fisch das Zubeißen zu erleichtern muß man natürlich einen Wurm an den Haken hängen. Das war schon bei der SACD und der DVD-A so. In beiden Fällen bestand der in der möglich höheren Audioqualität und der Möglichkeit von Surround-Audio. Bei der Blu-Ray-Disc ist das im Grunde immer noch das Gleiche. Aber die Frage ist was das bringt.

Zu Surround:

Die Verfügbarkeit von Surround-fähigen Anlagen hat zwar im Zusammenhang mit Heimkino stark zugenommen, aber die adäquate Wiedergabe einer Film-Geräuschkulisse ist wohl doch nicht das Gleiche wie gescheite Musik-Wiedergabe, selbst wenn die so produziert sein sollte daß sie vom Surround-System profitiert, was gar nicht so häufig der Fall ist. Blöderweise muß der Konsument nämlich hier seine verfügbare Kohle auf 5 oder 6 oder gar mehr Lautsprecher aufteilen statt auf zwei, und angesichts der Tatsache daß guter Klang hauptsächlich an den Lautsprechern hängt bedeutet das nicht selten daß die dann gekauften Lautsprecher eben die schlechtern sind, und der resultierende Klang summa summarum ebenfalls schlechter. Dazu kommt noch daß bei Surround die besten Hörpositionen im Raum noch weiter eingeschränkt sind als bei Stereo, und daß man beim Aufstellen und Einmessen noch mehr falsch machen kann. Und das wo 80% oder mehr der Mucke immer noch in Stereo daher kommt. Für viele stellt daher der Schritt zu Surround eher einen klanglichen Rückschritt dar, und es gibt etliche Leute die ihre Heimkino-Anlage strikt getrennt von der Stereo-Anlage halten. Das sollte die Industrie eigentlich alarmieren, denn das heißt daß in den Augen der Konsumenten mit Surround etwas grundsätzlich faul ist.

Zudem, wenn man Surround flächendeckend in den Markt drücken will, dann muß man dafür sorgen daß auch die Radios damit arbeiten. Sonst muß man de facto erst wieder zwei Varianten produzieren, und man kann dem Kunden mit der Surround-Version den Mund nicht wäßrig machen bevor er das Produkt kauft. Gerade das Auto als ein Ort wo viel Radio gehört wird (und auch zukünftig werden wird) wäre dafür der ideale Ort, und da ist der Kopf des Hörers noch dazu in einer sehr vorhersehbaren Position. Aber wir wissen alle daß das nicht passiert ist. Und gerade wo DAB endlich in der Hinsicht erweitert wurde daß auch Surround möglich wird (wieder so ein Format-Desaster) muß man in Deutschland und vielen anderen Ländern sein Scheitern eingestehen. Ein Armuts-Zeugnis ersten Ranges.

Zur Audioqualität:

Die wird bei den Digitalmedien schon seit Jahr und Tag in Bits und Kilohertz gemessen, und man tut so als sei mehr auch automatisch besser. Bloß, wer mag das inzwischen noch glauben? Die Masche ist dermaßen abgegriffen daß das keinen mehr hinter dem Ofen hervorlockt. Und unabhängig davon was die Audiophilen alles hören gibt's bei Beidem einen Punkt an dem einfach genug ist. Mehr bringt keinen merkbaren Mehrwert. Das was hier nötig ist wurde mit der CD vor über 25 Jahren erreicht. Seither ist zwar viel mehr möglich geworden, die Fälle in denen es auch einen Unterschied macht sind aber so dünn gesät daß man getrost darauf pfeifen kann.

Es klingt provokativ, aber ja ich behaupte hier daß 44,1 kHz Abtastrate bei 16 bit genug ist. Genug für ein Distributionsmedium wie der CD oder auch der Verteilung über Internet. Ketzerei? Vorgestrigkeit? Ich behaupte nein, und hier kommt meine Begründung:

Wieviele Audioproduktionen kennt Ihr die von mehr Wortlänge als 16 bit oder von einer höheren Abtastrate als 44,1kHz tatsächlich profitieren würden? Welche Produktionen z.B. arbeiten wirklich mit Frequenzen jenseits von 16-20 kHz, die sowieso nur ein Teil der Kunden überhaupt wahrnimmt, und die in irgend einer Form relevant für das Hörerlebnis sind? Meine Schätzung ist Null. Wie viele Produktionen gibt es bei denen ein Rauschteppich bei -95 dBFS tatsächlich stört? Ich würde sagen ebenfalls Null.

Bei der Abtastrate kann ohnehin nur jemand anderer Meinung sein der glaubt daß man irgendwie auch Frequenzen hören kann die nach konventioneller Weisheit im Ultraschall-Bereich liegen. Solche Meinungen gibt's, aber der überzeugende Nachweis dafür fehlt bisher. Und selbst dann würde das noch nicht bedeuten daß es auch relevant für den Musikgenuß ist. Bei der LP ist es das schließlich auch nicht.

Und bei der Wortlänge muß man sich klar machen daß selbst wenn die Anlage so eingestellt ist daß der Rauschteppich an der menschlichen Hörschwelle liegt, das heißt gerade nicht mehr heraushörbar ist wenn es absolut kein Hintergrundgeräusch gibt, daß dann die meisten Scheiben immer noch lauter spielen als man es normalerweise im Wohnzimmer einstellen würde. Und Hintergrundgeräusch gibt's in der Praxis immer, und zwar mehr als man meist meint.

Eine typische "vernünftige" Abhörlautstärke beträgt vielleicht 83 dB-SPL, und das bedeutet daß man noch 12 dB Headroom für Pegelspitzen hätte. So ungefähr war die CD ursprünglich mal eingepegelt, bevor der Lautheitswahn zugeschlagen hat. Das heißt schon damals, ohne die heutige "harte" und superkomprimierte Aussteuerung hatte das Medium CD einen Rauschabstand, der besser als jede praktische Abhörsituation ist. Der Lautheitswahn hat uns Scheiben beschert, die weniger Headroom und damit mehr Rauschabstand haben, und da man kaum noch Dynamik hat kriegt man zudem vom Rauschabstand gar nichts mit, außer theoretisch in den Pausen zwischen zwei Titeln. Man hat also dazugewonnen wo man eh schon mehr als genug hatte, und weggeschmissen wovon die Musik lebt.

Mehr als 16 bit würde nur völlig überflüssigerweise noch mehr Rauschabstand bringen, aber am Dynamikproblem nicht die Bohne ändern. Die Produktionen würden genauso an die Wand gefahren wie heute, denn das Problem ist nicht das Format. Käme es nur auf den besten Klang an, dann könnte man CDs herstellen die nicht merklich anders oder gar schlechter klingen als eine SACD oder DVD-A oder meinetwegen Blu-Ray-Audio-Disc. Weil eben die CD reicht. Aber auf den besten Klang kommt es offensichtlich gar nicht an, wie man sieht.

Jetzt könnte man sagen, ok die CD ist für die Massen, während die SACD (oder DVD...) für die Audiophilen ist. Auch wenn es technisch nicht nötig wäre schafft man so die Zielgruppen-Unterscheidung über eine unterschiedliche Mastering-Philosophie für die verschiedenen Medien. Bei der CD die totkomprimierte Thrash-Produktion, die einen aus dem Lautsprecher anspringt, aber spätestens beim dritten Mal nervt, und bei der SACD die gemäßigte Version für das kritische Publikum. Partiell wurde das bei der SACD auch probiert, aber nicht konsequent durchgezogen, und es wäre auch dann noch zweifelhaft gewesen ob es funktioniert hätte. Der Wurm ist einfach zu verschrumpelt als daß er den Haken "Kopierschutz" hätte verstecken können. Der blöde Konsument hat sich als nicht blöd genug erwiesen. Und in einer halsabschneiderischen Branche kann man nicht wirklich den Produktions-Mehraufwand für eine zweischichtige SACD durchsetzen und durchhalten wenn der Aufwand eigentlich gar nicht nötig wäre. Zudem war man natürlich auch nicht bereit dem Kunden reinen Wein einzuschenken. Das Dilemma ist ja das man mit der Existenz einer SACD implizit zugibt daß die entsprechende CD dann die Schrottproduktion ist. Stattdessen log man was zusammen daß die CD eben nicht mehr Klang hergibt und es die SACD (wegen mehr Bit und mehr Frequenz) brauche um guten Klang zu ermöglichen. Bullshit.

Und kaum ist man mit dem Wundenlecken von letzten Desaster fertig bereitet man das nächste vor. Auf eine Blu-Ray-Scheibe passt mehr Audio als die allermeisten Bands in ihrer ganzen Existenz an Stücken zusammen bekommen. In absolut einwandfreier Qualität, die auch durch Datenverschwendung nicht merklich besser wird. Womit füllt man also den Platz? Mit Müll?

Und wie überzeugt man den Konsumenten das er einen Blu-Ray-Player zum Musikhören anschaffen soll, der zum Einlesen der Scheibe so lange braucht daß ein CD-Spieler schon das erste Lied abgespielt hätte?

Samstag, 11. Juli 2009

Audiophile Meme

Seit Richard Dawkins im Ruhestand ist kann er sich voll und ganz seinem Hobby widmen, nämlich den bornierten Religiösen gehörig auf die Nerven zu gehen. Nicht daß er damit bis zum Ruhestand gewartet hätte, sein Ruhm hat ihm auch schon davor recht große Freiheiten beschert, aber jetzt sind die Verpflichtungen ganz entfallen. Der Ruhm ist nicht unverdient, hat aber mit Religion nur indirekt etwas zu tun. Der Mann war eigentlich mal Biologe, genauer gesagt Zoologe, und sein Ruhm geht zu einem bedeutenden Teil auf ein Buch zurück das er schon vor über 30 Jahren veröffentlicht hat: "The selfish gene", auf Deutsch: "Das egoistische Gen". Eine durchaus bahnbrechende Arbeit, die bis heute lesenswert ist und nicht umsonst zu einem Bestseller wurde.

Sie wurde auch prompt mißverstanden, schon der Buchtitel wurde z.B. mißverstanden im Sinne von: "Das Gen, das egoistisch macht". Daß er genau das nicht meint hat er schon im Buch selber mehr als klar gemacht, aber seine Kritiker hindert das schon seit 30 Jahren nicht, Kritikpunkte vorzubringen die man sogar durch oberflächliches Lesen seiner Texte schon als unberechtigt erkennen könnte. In den meisten Fällen kommt solche Kritik aus der religiösen Ecke, und von daher wird verständlich warum der Mann unweigerlich zum zubeißenden Atheisten werden mußte. Wer 30 Jahre lang ständig Angriffen von Leuten ausgesetzt ist, die offenkundig noch nicht einmal die einfachsten seiner Argumentationspunkte verstanden haben, und ganz offensichtlich auch gar nicht verstehen wollen, der kann - je nachdem welches Temperament er hat - nur entweder in die Resignation abtauchen, oder das Feuer erwidern. Dawkins gehört nicht zu den Leuten die man einfach so beiseite pinkeln kann, demnach mußte er zu einem Vertreter der zweiten Kategorie werden.

Das soll aber nicht mein Thema hier sein. Mir geht's um den Inhalt seines erwähnten Buches. Der springende Punkt darin ist, daß die Gene die zentralen Figuren bei der Evolution sind, und nicht die Lebewesen. Vorher war die Vorstellung sehr verbreitet, durchaus auch in der Tradition Darwins, daß der evolutionäre Kampf um's Dasein, und damit das Überleben der Besten, sich auf die Lebewesen bezieht. Dawkins stellte das auf den Kopf und vertrat die Ansicht, daß die Lebewesen nur Mittel zum Zweck sind, und die eigentliche Konkurrenz zwischen den Genen stattfindet. Die Lebewesen konkurrieren nicht darum, ihre Gene weiterzugeben, sondern die Gene bilden Lebewesen als Vehikel zu ihrer Verbreitung. Wir alle sind bloß Mittel zu diesem Zweck.

Jetzt sind Gene nur tote Speicher von Information. Eiweißmoleküle ohne eigene Lebensfähigkeit, und damit auch ohne Willen, und ohne Fähigkeit zu handeln. Im Grunde können sie damit nicht wirklich "egoistisch" sein. Der Buchtitel ist damit zugegebenermaßen nicht nur irreführend sondern auch provokant. Aber er verkauft das Buch ganz gut, und die Erklärung bleibt Dawkins ja auch nicht schuldig. Der Egoismus der Gene ergibt sich letztlich daraus daß nur diejenigen Gene erfolgreich sind und sich verbreiten, die es schaffen möglichst effektive "Kopiermaschinen" zu bauen, also Lebewesen die für die Verbreitung der Gene sorgen. Die Sprache deutet hier geplantes und willentliches Vorgehen an, aber in Wirklichkeit basiert alles auf einem willenlosen Prozeß der Mutation und Selektion. Willenlos heißt nicht zufällig. Bei der Mutation wirkt zwar der Zufall mit, aber die Selektion gibt dem Ganzen eine Richtung.

Am ehesten versteht man das vielleicht wenn man sich Viren anschaut. Viren sind keine Lebewesen. Sie sind ein bißchen Erbgut, mit einer Verpackung die den Inhalt vor allzu leichter Zerstörung schützt. Eingewickelte Gene. Wie ein Buch mit einem schützenden Einband. Information, die darauf wartet, gelesen zu werden. Und nicht nur gelesen, nein, vor allem auch kopiert zu werden. Ein Buch das auf eine geeignete Kopiermaschine wartet. Eine geeignete Kopiermaschine, das ist ein Lebewesen das das Buch liest und dann quasi begeistert anfängt, Kopien in die Welt zu verteilen.

Wenn diese Kopierbegeisterung so heftig ist daß die sonstigen Lebensfunktionen ernsthaft in Mitleidenschaft gezogen werden, dann spricht man davon daß das Lebewesen krank ist. Eine Virusinfektion. Die harmloseren Varianten führen bloß dazu daß das Lebewesen sich eine Zeitlang mit dem Kopieren beschäftigt und so lange seine sonstigen Funktionen vernachlässigt, aber nach einer Weile wieder zum Normalzustand zurückkehrt. So wie bei einer Erkältung. Die gefährlicheren Varianten führen dazu daß sich das Lebewesen beim Kopieren so verausgabt das es dabei kaputt geht. Wenn das zu schnell geht ist das auch für das Virus nicht gut, denn dadurch wird die Kopierleistung verringert.

Mutationen verändern die Information im Virus bzw. in seinen Genen gelegentlich, und wenn das auch meistens eher schlecht für das Virus ist, so kommt es doch auch manchmal vor daß dadurch das Virus sich leichter bzw. erfolgreicher kopiert. Daß das befallene Lebewesen umso begeisterter Kopien anfertigt, oder daß andere Lebewesen für diesen Zweck eingespannt werden bei denen man vorher keinen Erfolg hatte. Die Schweinegrippe fällt mir da ein.

(Mir ist übrigens durch den Kopf gegangen ob diese Form der Grippe wohl deswegen auf den Menschen übergesprungen ist weil der schweineähnlicher geworden ist. Ich habe das aber wieder verworfen weil es dann wahrscheinlich nicht in Mexico passiert wäre.)

Wenn man wie ich von Genen als Informationsträger spricht dann liegt der Gedanke nicht fern daß sich auch andere Informationsträger so verhalten könnten. In der Richtung hat auch Dawkins gedacht, und im gleichen Buch auch den Begriff des Mems eingeführt. Ähnlich wie Gene sind Meme Informations-Schnipsel, die Lebewesen dazu bringen diese Information zu vervielfältigen und zu verbreiten.

Ein guter Witz könnte dafür als Beispiel dienen. Er bringt die Leute dazu ihn weiter zu erzählen und für seine Verbreitung zu sorgen. Schlechte Witze kommen nicht weit, während gute Witze womöglich über Jahrzehnte kursieren. Schlecht und gut sind hier übrigens nicht im Sinne von "Niveau" oder "Geschmack" gemeint. Ein (im geschmacklichen Sinne) schlechter Witz kann sich durchaus sehr erfolgreich verbreiten, und im memetischen Sinn ist er damit ein guter Witz.

Der lustigste Witz der Welt von Monty Python ist in diesem Sinn kein so guter Witz, denn er bringt jeden um der ihn liest, bevor er eine Chance hat ihn weiter zu erzählen, aber er ist auch kein ganz schlechter Witz, denn er bringt immerhin das Militär dazu, ihn zu kopieren und zu verbreiten. Ein Mem kann demnach auch von "unkonventionellen" Verbreitungsmethoden profitieren. Seine Verbreitung wurde in diesem Fall nur dadurch gestoppt, daß plötzlich der Frieden ausbrach.

Man erkennt, daß ein Mem keinen besonderen Sinn zu haben braucht oder gar wahr sein muß. Es muß bloß genügend vielen Leuten als verbreitenswerte Information erscheinen, und es muß sich ohne zu große Verfälschung kopieren lassen. Das bringt uns nach dieser langen Einleitung endlich zu den Audiophilen. (Ihr habt schon drauf gewartet, nicht wahr?)

Viel von dem was Audiophile so als ihre "Erfahrungsberichte" verbreiten hat weder einen Sinn noch ist es wahr, aber es ist ein Mem, das offenbar gern verbreitet wird. Nach Jahrzehnten von Mutationen und Variationen haben sich inzwischen auch diejenigen Ausprägungen des Mems herauskristallisiert, die sich am erfolgreichsten verbreiten. Es dürfte nicht ganz zufällig sein daß es die Varianten sind die wegen ihrer Unsinnigkeit den größten Wiedererkennungswert haben (was der Verfälschung beim Kopieren entgegen wirkt, und gleichzeitig eine Gruppenidentität schaffen hilft), und die dem Ego der befallenen Personen schmeichelt (was sich günstig auf deren Bereitschaft zur Weiterverbreitung auswirkt).

Da die Krankheit in den allermeisten Fällen harmlos verläuft wird auch kaum einmal die Fähigkeit der Betroffenen zur Weiterverbreitung ernsthaft beeinträchtigt. Es kommt allerdings immer wieder vor daß aufgrund starker Verblendung deren Überzeugungskraft für noch nicht Befallene deutlich abnimmt. Das Phänomen wird daher weithin nicht als Krankheit aufgrund von Membefall wahrgenommen, schon gar nicht von den Betroffenen.

Hier schließt sich übrigens der Kreis auch zu der Religion, von der ich eingangs schrieb. In der uns allen bekannten christlichen Religion z.B. sind die gleichen Mechanismen am Werk. Auch hier haben sich die unsinnigeren Varianten wegen des größeren Wiedererkennungswertes, und wegen des Egos durchgesetzt. Eine sehr populäre Variante dieses Mems beinhaltet z.B. die Ansicht daß ein Gott sich in einer zweiten Erscheinungsform foltern und umbringen ließ um dadurch die Erlösung von Menschen zu bewirken die ohne diesen Gott diese Erlösung gar nicht nötig hätten, was aber nur funktioniert wenn diese Menschen daran und an die Jungfrauengeburt und an die Auferstehung und an die Verwandlung einer Oblate in einen Gott und an die Unfehlbarkeit des Papstes glauben. Und daß die Welt mitsamt dem ganzen Universum um des Menschen Willen von eben diesem Gott geschaffen wurde. Man erkennt die typischen Elemente der Unsinnigkeit und des Ego-Schmeichelns hier mühelos. Kein Wunder daß die Befallenen die Verbreitung ihres Mems auch für unbedingt geboten halten.

Ich weiß nicht ob die Audiophilen als Studienobjekt von den Memetikern schon entdeckt worden sind, aber ich bin überzeugt daß sie in mancherlei Hinsicht gute Beispiele dafür abgeben würden. Gegenüber größeren Gruppen wie den Religionen würden sie den Vorteil einer größeren Übersichtlichkeit bieten, und mir scheint deswegen daß dieses Feld daher auch leichter zu überblicken und zu studieren wäre.

Sonntag, 5. Juli 2009

Mysterium CD

Wie alt warst Du als die CD auf den Markt kam? Das war 1982, ich hatte gerade mein Abitur. Etwa genauso alt ist der IBM-PC, von dem die heutigen PCs abstammen. Wenn man sich vor Augen führt welche Fortschritte gerade die Digitaltechnik seither gemacht hat, dann bekommt man ein Gefühl dafür welche Steinzeittechnik die CD aus der heutigen Sicht darstellt. Die Daten auf einer CD passen auf den Bruchteil eines Chips wie er in USB-Sticks oder SD-Kärtchen verbaut ist. Sie sind in wenigen Sekunden über ein Computernetzwerk übertragen. Ein CD-ROM-Laufwerk hat sie in ein paar Minuten ausgelesen, und das Hindernis für noch schnelleres Auslesen ist, daß man die Scheibe nicht noch schneller drehen lassen kann, weil man Unwucht und Zentrifugalkraft sonst nicht mehr beherrscht. Die Technologie ist in jeder Hinsicht überholt.

Genau genommen ist es eine enorme Leistung daß diese Technik so lange durchgehalten hat, und ihr Ende ist noch immer nicht abzusehen. Das ist die absolute Ausnahme, und nicht die Regel. Viele andere Technologien sind in der gleichen Zeit gekommen und wieder verschwunden. Irgend etwas hat man bei der CD richtig gemacht, auch wenn es allmählich so aussieht als würde das Internet ihren Tod einläuten.

Auf den ersten Blick erstaunlich ist es daher, daß es auch noch heute völlig unsinnige Vorstellungen darüber gibt wie die CD und der Abspielvorgang funktioniert. Erstaunlich für diejenigen, die die verqueren Gedankengänge eines High-Enders nicht nachvollziehen können. In Wirklichkeit ist es ganz normal daß ausgerechnet High-Ender mit dem Verständnis hier Probleme haben. Etwas so Erfolgreiches muß Probleme haben, das ist einem High-Ender instinktiv völlig klar. Entsprechend willkommen sind pseudorationale Erklärungen, die solche Bedenken untermauern.

Es ist folglich auch völlig aussichtslos, solche Bedenken mit technischen Erklärungen ausräumen zu wollen. Der High-Ender will die Bedenken nicht ausgeräumt haben, und er legt auch gar keinen Wert auf technisches Verständnis. In seinen Zweifeln schwelgen kann nur derjenige, der von keinerlei technischem Verständnis angekränkelt ist.

Bei der CD ranken sich die audiophilen Bedenken in erster Linie um zwei Themengebiete, und das seit Jahren ohne den geringsten Hauch eines Fortschritts:

Das erste Gebiet ist die Fehlerkorrektur. Dabei geht es um ein digitales Verfahren auf mathematischer Basis, ein Umstand der es dem High-Ender sehr leicht macht mit allen möglichen Vorurteilen daher zu kommen da er davon nichts versteht. Die verbreitete Vorstellung davon ist, daß diese Fehlerkorrektur richtig Arbeit ist, daß also der arme CD-Spieler umso mehr schuften muß je mehr Fehler zu korrigieren sind. Und wie das so ist bei überarbeiteten Leuten, je mehr Streß desto schlechter das Ergebnis. In den Augen des High-Enders sieht es also so aus als müsse man bei der Konstruktion des CD-Spielers bestrebt sein, dem armen Schwein die Arbeit so leicht wie möglich zu machen, indem man die Bits von der Scheibe quasi in Schönschrift ausliest, und so den gestreßten Fehlerkorrektor bei Laune hält.

Eine weitere Erleichterung für audiophile Hirngespinste ist es, daß es neben der Fehlerkorrektur noch ein weiteres nachgelagertes Verfahren gibt, die Interpolation bzw. Fehlerverschleierung, die der High-Ender mit der Fehlerkorrektur zu verwechseln pflegt. Das Geniale an der Interpolation ist, daß sie eigentlich gar nicht nötig wäre, weil sie sowieso nur selten in Aktion tritt und dann auch nur mit bescheidenem Nutzen, daß ihre bloße Existenz aber für das audiophile Gehirn wie ein Eingeständnis der Unvollkommenheit wirkt. In der audiophilen Vorstellung nimmt so nolens volens etwas, das nur als billiger Notnagel für absolute Ausnahmefälle gedacht war, eine zentrale Stellung ein, und man tut so als ginge es dabei um eine ständige Klangbedrohung.

Es wirkt sich hier zusätzlich verstärkend aus, daß man wohlweislich bei der Konstruktion eines CD-Spielers darauf verzichtet, dem Benutzer irgendwelche Möglichkeiten an die Hand zu geben, zu kontrollieren ob die Fehlerkorrektur nun ausgereicht hat oder ob die Interpolation bemüht werden mußte. Das eröffnet das gesamte Spielfeld für die Spekulation, und man kann sich wie immer darauf verlassen, daß der Audiophile keinerlei Anstalten machen würde, den Fakten auf den Grund zu gehen.

Dabei ist das Ganze im Grunde sehr einfach. So lange die Fehlerkorrektur nicht kapituliert, ist das Ergebnis eine 100%ig genaue Kopie des original aufgezeichneten Datenstroms auf der CD. Bit für Bit. Das ist der entscheidende Unterschied der Digitaltechnik zur Analogtechnik. Digitaltechnik erlaubt Fehlerkorrektur, und so lange sie funktioniert funktioniert sie ohne jeden Fehler. So wie 2 + 2 jedesmal 4 ergibt, außer man kann das Gekritzel nicht mehr lesen. Nur wenn die CD in einem zu miesen Zustand ist kommt es so weit daß die Fehlerkorrektur überfordert ist, und nur dann kommt die Interpolation als Notnagel ins Spiel. Es wäre auch nicht viel schlimmer wenn es keine Interpolation gäbe, denn viel ist damit nicht zu gewinnen. Es wurde nur implementiert weil es so gut wie nichts kostet.

Es ist auch nicht so daß das Fehler korrigieren anstrengend wäre für die Elektronik. Der Unterschied fällt gar nicht ins Gewicht, denn die Hauptarbeit ist das Erkennen von Fehlern, und nicht das Korrigieren. Wenn Fehler einmal erkannt sind ist es ein trivialer Schritt, sie zu korrigieren, so wie das Verfahren bei der CD ist. Und die Fehlererkennung muß ohnehin dauernd mitlaufen.

Diese Art der Fehlerkorrektur hat eine enorme wirtschaftliche Bedeutung, und die mathematische Theorie dahinter gehört zu den Teilen der Mathematik die von enormer praktischer Relevanz sind. Die CD ist da noch der kleinere Teil, viel bedeutender sind die Anwendungen bei Computer-Speichern, wo ein einziger Bitfehler wesentlich üblere Konsequenzen haben kann als bei der CD. Oder beim Datenfunk, einschließlich dem ins Weltall. Auch wenn man nichts davon versteht sollte man vielleicht anerkennen daß ein ganzer Haufen sehr intelligenter Leute ihre Zeit dafür investiert haben und es vielleicht etwas vermessen wäre ihre Ergebnisse summarisch in Zweifel zu ziehen.

Es ist übrigens gar nicht so schwierig zu kontrollieren ob ein CD-Spieler sich gezwungen sah die Interpolation zu bemühen, oder ob die Fehlerkorrektur ausgereicht hat. Zum Einen gibt es bei vielen CD-Spieler-Chips einen entsprechenden Anschluß, auf den man nach dem Entfernen des Gerätedeckels Zugang hat. Zum Anderen kommt diese Information in den allermeisten Fällen als sogenanntes V-Bit am SPDIF-Anschluß raus. Man braucht dafür nur einen passenden Decoder. Für den Laien und den High-Ender ein unüberwindliches Problem, aber für den talentierten Bastler oder den Profi kein ernsthaftes Hindernis. Im Ergebnis kann man sich vergewissern daß die Interpolation ein kraß überschätztes Problem ist.

Das zweite Gebiet der audiophilen Problemspekulation ist der Jitter. Auch hier ist es von großem Vorteil für die High-Ender wenn man keine Sachkenntnis hat. Wiederum ist es hier nämlich leicht, zwei völlig unterschiedliche Probleme miteinander zu verwechseln.

Jitter kann ich hier nicht halbwegs erschöpfend erklären, aber es möge genügen hier zu sagen daß es ein Problem sein kann bei der Wandlung der CD-Daten ins Analoge. Es ist daher wichtig den eigentlichen D/A-Wandler-Chip im CD-Spieler mit einem jitterarmen Takt zu versorgen. Eine audiophile Lieblingsvorstellung ist es dabei, daß das eine sehr schwierige Aufgabe sei, bei der so gut wie Alles im CD-Spieler im Weg ist und eine Rolle spielt, so daß man schon ein Nobelpreisträger sein muß um das gut hinzukriegen.

Mit der Realität hat das allerdings wenig zu tun. Im CD-Spieler ist das sogar recht einfach, denn man kann den Wandlertakt als Taktquelle für das restliche System einsetzen, braucht bloß eine einzige Taktfrequenz zu berücksichtigen, und kann den Taktgenerator in unmittelbarer Nähe des Wandlers unterbringen. Besser kann man's kaum haben. Wer unter diesen Umständen einen schlechten Taktgenerator zustande bringt kann unfähig genannt werden.

Daß man schon mal Probleme mit dem Netzteil kriegen kann, oder mit irgendwelchen Einflüssen aus anderen Schaltungsteilen, ist nicht ausgeschlossen, aber das ist das Brot des Schaltungsentwicklers. Wer darum ein zu großes Brimborium macht erregt nur den Verdacht daß für ihn Alles ein Problem wäre, auch das Triviale.

Ein zweites Feld für Jitter ist das Auslesen der Scheibe selbst. Hier verhindert zu viel Jitter daß man die Bits korrekt voneinander unterscheiden kann. Das spielt sich aber vor der Fehlerkorrektur ab, und das ist von entscheidender Bedeutung. So lange die Fehlerkorrektur damit fertig wird ist der Einfluß von Jitter bei der optischen Abtastung bedeutungslos. Es gibt keinen direkten Zusammenhang zwischen dem Jitter bei der optischen Abtastung und dem Jitter am D/A-Wandler. Das sind zwei völlig verschiedene Baustellen.

Unter Audiophilen schließt man dagegen gern aus der Tatsache daß der gleiche Begriff "Jitter" benutzt wird darauf, daß es um das Gleiche ginge. So ist es aber nicht. Ein FIFO-Zwischenspeicher und eine am Füllstand orientierte Regelschleife sorgt für eine weitgehende Entkopplung zwischen diesen zwei Orten, an denen Jitter auftritt. Bei jedem CD-Spieler ist es so, denn das gehört zum Funktionsprinzip.

Genau genommen gibt es daher nur einen Anlaß, sich über den Jitter bei der optischen Abtastung Gedanken zu machen, wenn es Anzeichen dafür gibt daß die Fehlerkorrektur nicht mehr ausreicht. So lange sie ausreicht kann es um die Abtastung nicht zu schlecht bestellt sein, und eventuelle kleinere Unterschiede können sich nicht wirklich auf das Ergebnis der D/A-Wandlung auswirken. Insofern ist die Fehlerkorrektur eine Art Wasserscheide. Nur wenn sie versagt lohnen sich weitere Nachforschungen auf der Abtastseite.

Aber das ist zu einfach für Audiophile. Zu wenig Mysterium. Zu wenig Raum für geheimnisvolle klangschädliche Effekte. Besser ist es daher man weigert sich auch Jahrzehnte nach der Entwicklung der CD noch, ihr Funktionsprinzip zu verstehen.