Sonntag, 5. Juni 2011

FAQ Digitaltechnik

Vor einem Jahr gab's von mir schon mal einen FAQ-Artikel, und ich habe das Gefühl es wird Zeit für den zweiten. Die Digitaltechnik ist im Hifi-Sektor mit der Entwicklung der CD vor 30 Jahren endgültig angekommen gewesen, obwohl sie schon ein paar Jahre zuvor im professionellen Bereich angefangen hatte Fuß zu fassen. Man sollte sich immer wieder vor Augen halten wie lange das schon her ist, dann bekommt man ein Gefühl dafür wie blödsinnig die Vorstellungen mancher Audiophiler sind, die alle möglichen Rätsel und unverstandenen Probleme darin entdecken. Die meisten dieser Rätsel wären keine wenn man nur mal verstehen würde was man auch vor 30 Jahren schon über die Digitaltechnik wußte.

Ich mache mir zwar keine Illusionen daß mein Fix Abgehandelter Quatsch (=FAQ) hier an den Vorstellungen dieser Leute etwas ändern wird, denn die sind für ihre Lernresistenz bekannt. Vielleicht hilft's aber Anderen, die das Denken noch nicht verlernt haben.

1. Analog wird immer besser sein als digital. Bei Digitaltechnik ist die Bitanzahl beschränkt, weshalb man beim Wandeln immer (Rundungs-)Fehler bekommt, dagegen ist das Signal bei Analogtechnik kontinuierlich und unendlich fein aufgelöst.

Hier wird eine theoretische Analogtechnik, wie sie in der Praxis gar nicht möglich ist, mit der praktischen Digitaltechnik verglichen. Es fällt aus dem Text nicht unbedingt auf, es ist aber ein schiefer Vergleich.

Analogtechnik hat es in der realen Welt immer mit Rauschen zu tun. Rauschen ist eine physikalische Realität, um die man nicht herum kommt. Dieses Rauschen begrenzt die Auflösung des analogen Signals genauso wie durch die begrenzte Bitanzahl die Auflösung des digitalen Signals begrenzt wird.

Es ist sogar so daß bei einem korrekt arbeitenden Digitalsystem die Fehler, die durch das Runden beim Wandeln entstehen, dem analogen Rauschen genau entsprechen. Die Auswirkungen auf das Nutzsignal sind genau die gleichen, egal ob wir im digitalen oder analogen Bereich sind. Analog ist daher nicht besser als digital, das Argument ist falsch.

2. Moment mal, hat man uns nicht immer versucht weiszumachen, Digitaltechnik sei rauschfrei und "perfekt"?

Wer das so pauschal behauptet hat, hat die Sache vielleicht selbst nicht ganz verstanden gehabt. Es gibt durchaus etwas bei der Digitaltechnik, was man mit einigem Recht als "perfekt" bezeichnen kann, und das ist das Übertragen, Speichern und Kopieren des Signals. Bei der Digitaltechnik geht das ohne jeden Verlust, bei der Analogtechnik ist dagegen immer ein gewisser Qualitätsverlust damit verbunden.

Das soll aber nicht heißen daß an der Digitaltechnik alles "perfekt" wäre. Schon einfache Signalbearbeitung läuft auf Rechenschritte hinaus, die Rundungsfehler hervorrufen. Das kann man nicht mehr wirklich perfekt nennen. Man kann sich der Perfektion allerdings annähern, und dazu hat man bei der Digitaltechnik weitaus bessere Voraussetzungen als bei der Analogtechnik, denn man kann auf einfache Weise durch Vergrößerung der Rechengenauigkeit, also durch Rechnen mit mehr Bits, den Fehler beliebig klein machen. Man ist da keinen physikalischen Grenzen unterworfen wie bei der Analogtechnik.

Das heißt aber auch: Der Entwicklungsingenieur, der ein Audiogerät baut oder eine Audio-Software schreibt, muß sich überlegen welche Rechengenauigkeit oder welche Bitanzahl er braucht um den Fehler in seinem System in allen realistischen Situationen klein genug zu halten. Es gilt eine Entscheidung zu treffen. Der daraus resultierende Kompromiß braucht nicht unbedingt Jedem zu gefallen. In der Anfangszeit der Digitaltechnik war das ein weitaus schwierigeres Problem als heute, denn damals waren solche Entscheidungen potenziell teuer, heute dagegen ist Rechenleistung und Digitalhardware so billig geworden, daß man bequem überdimensionieren kann ohne daß die Kosten davon merklich betroffen wären.

Die Entscheidung für 16 Bit bei der CD war zur damaligen Zeit von vielen Leuten auch schon als Überdimensionierung gesehen worden. Aus der Sicht vieler Leute hätten für ein Distributionsmedium für den Massenmarkt auch 13 bis 14 Bits gereicht, und wenn man sich aus heutiger Sicht ansieht was für ein totkomprimierter Schrott auf CD gepreßt wird, dann bekommt man das Gefühl daß sogar das noch überdimensioniert gewesen wäre. Beim DAT-Recorder wurde, manch einer wird das vielleicht noch wissen, damals auch ein Long-Play-Modus eingeführt, der mit einer nichtlinearen 12-bit-Kodierung arbeitete (und mit 32 kHz Abtastung), und wer so etwas ausprobiert hat wird sagen können daß der Unterschied oftmals nicht zu merken ist. Die Einsparung von ein paar Bits wurde bei der CD aber wohl als nicht hinreichend lohnend angesehen, so daß es schließlich 16 bit wurden.

3. Aber 16 bit sind doch nicht genug um der Analogtechnik Paroli zu bieten!

Kommt darauf an. Bei der Speicherung von Audiosignalen ist es bereits mehr als genug um der Analogtechnik Paroli zu bieten. Kein analoges Speichermedium, egal ob Schallplatte oder Band, kann diesbezüglich mit der Digitaltechnik mithalten. Bei den Bandmaschinen im professionellen Bereich kam man unter erheblichem Aufwand (Dolby-Rauschreduktionsverfahren) noch am nächsten, aber letztlich war schon sehr früh klar daß die analoge Speichertechnik keine Chance gegen die Digitaltechnik haben würde. Die Speicherung war der eigentliche Motor, der die Digitaltechnik in der Anfangszeit befördert hat, weil gerade da die Analogtechnik ihre größten Probleme hat.

Bei der Übertragung und Bearbeitung der Signale ist die Analogtechnik weitaus besser als bei der Speicherung, und wenn man damit auf der Digitalseite gleich ziehen will, dann braucht man mehr Bits als 16. Das ist der Grund warum man z.B. bei der AES/EBU-Schnittstelle (und der damit verwandten S/P-DIF-Schnittstelle) von Anfang an Platz für 24 Bit vorgesehen hatte. Das ist also keineswegs ein Problem das man erst im Nachhinein gefunden hätte. Es war den Verantwortlichen von Beginn an klar daß für ein Digitalsignal, das von der Qualität her den analogen Möglichkeiten ebenbürtig sein sollte, 16 bit nicht reichen würden.

Die 16 bit der CD sind eine (auch heute noch) richtige Wahl für ein Distributionsformat gewesen, also ein Format das nach aller Signalbearbeitung kommt, und bloß noch wiedergegeben wird. Für ein Format im Studio, während der Signalbearbeitung, war das zu wenig, und deswegen gab es auch schon frühzeitig größere Genauigkeit in Mischpulten, bei Mehrspurrecordern und in Effektgeräten.

4. Woher soll ich wissen ob 24 bit genug sind? Du behauptest ja sogar daß 16 bit genug sind für so etwas wie die CD. Heißt das Du hältst die DVD oder die BR-Scheiben mit ihren hochauflösenden Formaten für überflüssig?

Als Distributionsformat halte ich 24 bit in der Tat für überflüssig. Im Studio sind 24 bit dagegen sehr wohl angebracht. Letztlich ist es einfach eine Frage des Dynamikumfangs des Formates, und was man damit praktisch anfangen kann.

16 bit bieten genug Dynamikumfang für die Wiedergabe, einfach weil der Maßstab dort die Fähigkeiten des menschlichen Gehörs sind, und die akustische Situation beim Hören. Gemessen an diesem Maßstab sind die Möglichkeiten, die sich aus 16 Bit bieten, mehr als ausreichend.

24 bit bieten genug Dynamikumfang für die Signalbearbeitung, weil dort der Maßstab durch die in der Analogtechnik erreichbare Signalqualität gegeben ist. Das hat nichts mit den menschlichen Hörfähigkeiten zu tun, oder mit der Situation im Wohnzimmer. Man will ganz einfach mindestens so gut sein wie die analoge Elektronik, und das ist bei 24 bit weitgehend der Fall.

Das Ganze läuft letztlich bloß auf eine Betrachtung der Rauschwerte im System hinaus. Mehr ist da nicht.

5. Dann glaubst Du wohl auch daß höhere Abtastfrequenzen nichts bringen, stimmt's?

Ja, da sieht's ganz ähnlich aus. Die Abtastrate bei der CD ist zwar mit ihren 44100 Hz ein wenig krumm geworden, aber das hat damit zu tun daß man in der Anfangszeit der CD für die Produktion auch ein Aufnahmemedium gebraucht hat, das man als "Masterband" bei der CD-Fabrik abgeben konnte, so daß die daraus die CD fabrizieren konnten. Statt ein völlig neues Magnetbandsystem aus dem Boden zu stampfen hat man sich dafür entschieden, ein Bandaufzeichnungssystem für Video zu zweckentfremden. Man hat einen sog. PCM-Adapter gebaut, mit dem man das Audiosignal digitalisieren und in ein Signal umformen konnte, das für den Videorecorder so aussah als wäre es ein Videosignal. Für relativ kurze Zeit konnte man sich das sogar als ambitionierter Hifi-Kunde anschaffen wenn man wollte.

Das ist heute alles Schnee von vorgestern, aber die Abtastfrequenz der CD ist als Relikt davon noch übrig geblieben, denn diese Signalumformung hat es damals erfordert daß die Zeilenfrequenz des Videosignals und die Abtastfrequenz in einem bestimmten festen Verhältnis zueinander standen. Der Rest der Digital-Audio-Welt hätte lieber eine weniger krumme Frequenz genommen, wie z.B. 48000 Hz oder 50000 Hz, aber es herrschte Einigkeit daß die Frequenz in diesem Bereich liegen muß um die Hörfähigkeiten des Menschen abzudecken.

Da sich die Hörfähigkeiten seither nicht geändert haben, ist die Entscheidung heute so richtig wie damals. Seit den Untersuchungen von Nyquist ist ja klar gewesen daß man die Abtastfrequenz wenigstens doppelt so hoch wählen muß als die höchste interessierende Signalfrequenz. Und es war ebenfalls klar daß man in der Praxis kein beliebig steiles Filter bauen kann welches die uninteressanten, aber störenden Frequenzen abschneidet, folglich brauchte man einen Übergangsbereich in dem so ein Filter vom Durchlaßbereich in den Sperrbereich übergeht. Je nachdem wieviel Platz im Frequenzspektrum man diesem Filter zugestehen will, ergibt sich eine Wunsch-Abtastfrequenz.

6. Du hältst es also für ausgemacht daß der menschliche Hörbereich bei 20 kHz endet.

Wo er genau endet ist eine etwas akademische Frage. Die Menschen unterscheiden sich in dieser Hinsicht voneinander, und es ändert sich ja bekanntlich auch mit dem Lebensalter. Es kann schon sein daß manche, vor allem junge, Leute über 20 kHz hinaus kommen. Es sind aber nur sehr wenige, und ich bin überzeugt davon daß es eine Menge Leute gibt die zwar glauben sie hörten solche hohen Frequenzen, die das aber nie ordentlich nachgeprüft haben. Es ist ein Unterschied ob man die hohen Frequenzen direkt hört, oder ob man Mischprodukte hört, die aufgrund von Nichtlinearitäten aus den höheren Frequenzen entstehen.

Aber egal wie nun die Hörfähigkeiten im Einzelnen aussehen mögen halte ich diese hohen Frequenzen auch für musikalisch und klanglich irrelevant. In diesen Frequenzen ist nichts enthalten was eine musikalische Darbietung besser, authentischer oder "livehaftiger" machen würde. Es sind höchstens Nebeneffekte die zur Musik nichts beitragen, sonst wären ja die Mehrzahl der Leute, die vielleicht bloß noch bis 16 kHz hören, schon außen vor.

Ich würde also durchaus sagen daß 20 Hz bis 20 kHz ein bereits großzügig bemessener Frequenzbereich ist, innerhalb dessen sich alles abspielt was für die Musikdarbietung relevant ist. Es gibt keinen vernünftigen Grund warum man für ein Distributionsformat mehr brauchen würde.

7. Da ist es wieder: "Distributionsformat". Im Studio hältst Du also höhere Frequenzen für sinnvoll?

Jein. Es gibt Fälle in denen es sinnvoll sein kann. Das hat etwas mit Spiegelfrequenzen zu tun, die dann entstehen wenn man ein Signal nicht ordentlich bandbegrenzt. Manche Leute glauben, daß das bloß ein Problem bei der Wandlung zwischen analog und digital ist ("Aliasing"). Es kann aber auch im digitalen Bereich selbst ein Problem sein, nämlich immer dann wenn das Signal nichtlinear verarbeitet wird.

Nichtlineare Bearbeitung ist hier im mathematischen Sinne zu verstehen; nichtlineare Bearbeitungen erzeugen neue Frequenzen, während lineare Bearbeitung nur die relative Stärke schon vorhandener Frequenzen ändert. Ein einfaches Beispiel für nichtlineare Bearbeitung ist das Clipping, bei dem Signalspitzen abgeschnitten werden, z.B. als Folge einer Übersteuerung. Das Resultat sind harmonische Verzerrungen, und die gehen mit der Erzeugung von Frequenzen einher die Vielfache der Signalfrequenzen sind, zudem können Mischprodukte entstehen. Diese entstehenden Frequenzen machen im Digitalsystem nicht an der halben Abtastfrequenz halt, die höheren Anteile werden einfach nach unten gespiegelt und tauchen als Spiegelfrequenzen im "Basisband" wieder auf. Das hat dann mit "harmonisch" nichts mehr zu tun.

Das bedeutet, daß nichtlineare Bearbeitungsfunktionen im Digitalbereich mit besonderer Sorgfalt zu implementieren sind, damit keine Frequenzprodukte daraus über eine Spiegelung im hörbaren Bereich auftauchen. Das gilt egal ob die nichtlineare Funktion nun absichtlich und bewußt, oder unabsichtlich erfolgt. Neben dem Clipping betrifft das vorwiegend die Dynamikbearbeitung, also Kompressoren, Limiter, usw.

Wenn man dafür sorgen würde daß alle diese Bearbeitungen ordentlich und ohne Spiegelfrequenzen ablaufen, dann bräuchte man auch keine höheren Abtastfrequenzen. Wenn man das aber nicht sicherstellt, dann tut man besser daran eine höhere Abtastrate zu benutzen, denn dann wird ein guter Teil der gespiegelten Frequenzen im unhörbaren Bereich landen, und der Fehler umso weniger auffallen. Hat man nur die unbedingt nötige Abtastfrequenz gewählt, dann landet fast aller gespiegelte Müll im hörbaren Bereich, und verfärbt im Extremfall den Klang merklich. Das ist z.B. einer der Gründe warum sich digitale Übersteuerung schlechter anhört als analoge Übersteuerung.

Kurz gesagt hilft die höhere Abtastfrequenz im Studio dabei, die negativen Auswirkungen unsauberer Bearbeitungen besser zu kaschieren. Besser wäre es zwar, die Unsauberkeiten gleich von vorn herein zu vermeiden, aber es ist das Endergebnis was zählt, und wenn dazu eine höhere Abtastfrequenz hilft soll's mir recht sein. Bei der Übertragung auf das Distributionsmedium ganz am Schluß der Verarbeitungskette kann man ja auf die niedrigere Abtastfrequenz konvertieren, und wird dabei den Müll los der sich eventuell im Ultraschallbereich angesammelt hat.

8. Das hört sich gerade so an als bräuchten vor allem die schlechten Toningenieure die höheren Frequenzen.

Da ist was dran. Im Radio und Fernsehen, wenigstens dem qualitätsbewußteren Teil davon, versucht man ja nach Möglichkeit, bei der Bearbeitung den nötigen Headroom einzuhalten, und Schweinereien zu vermeiden. Bei Filmvertonung ebenso. Dort reicht überall 48 kHz als Abtastfrequenz, über höhere Frequenzen denkt da kaum einer ernsthaft nach. Bloß in der Musikproduktion wird alles gedreht was man drehen kann, und seit man alles auf dem PC bearbeiten kann ist eine Schwemme von Leuten in der Musikproduktion zu Gange die im Grunde keine Ahnung haben was sie da tun.

Da reicht als Argument oft schon daß 96 eben höher ist als 44,1 und es deswegen halt auch besser sein muß. Ungefähr so wie ein 200 Watt Verstärker ja auch besser als ein 100 Watt Verstärker ist.

9. Was ist dann von den Leuten zu halten die von Unterschieden berichten zwischen CD und DVD, zwischen 44,1 kHz und 96 kHz?

Da ist erst einmal die Frage was die da überhaupt vergleichen. Woher wollen sie wissen ob auf beiden Medien das Gleiche drauf war, abgesehen von Abtastfrequenz und Bitrate? Oftmals ist das Material für die beiden Medien separat gemastert worden, und der Unterschied hat nichts mit dem Medium zu tun, sondern mit dem unterschiedlichen Mastering.

Angesichts der Schwemme an übersteuerten CDs ("Loudness War") kommt noch dazu, daß die Auswirkungen der Übersteuerung anders ausfallen können je nachdem mit welcher Abtastfrequenz man arbeitet. Das hat wieder mit den Spiegelfrequenzen zu tun. Die beiden unterschiedlichen Formate mögen daher auf unterschiedliche Art falsch klingen. Das ist nicht unbedingt ein Vorteil für irgendeine Seite.

Für einen fairen Vergleich müßte man das hochauflösende Format (also z.B. 24/96) als Ausgangspunkt nehmen, und es z.B. mit einem guten Abtastratenwandler auf das andere Format konvertieren (z.B. 16/44,1), wobei man darauf achten muß, Übersteuerungen zu vermeiden. Es wird also u.U. nötig sein, die Pegel auf beiden Seiten zu reduzieren. Wenn mal einer auf diese Weise sorgfältig gearbeitet hat, und dann immer noch Unterschiede nachweislich hört, dann erst wird's interessant.

Bloß wird's die Luft da auch sehr dünn, und ich warte noch auf eine Untersuchung die diesen Fall wirklich überzeugend klären würde. Bis dahin gehe ich davon aus daß die "traditionellen" Ansichten zum nötigen Frequenzbereich gelten.

10. Und die Leute, die mit der zeitlichen Auflösung argumentieren, sind das Spinner? Die Abtastwerte liegen ja mehr als 20 µs auseinander, das reicht doch nicht für das Gehör!

Diese Leute haben nicht verstanden daß der zeitliche Abstand der Abtastwerte keine Grenze darstellt für den zeitlichen Abstand zweier Signale in verschiedenen Kanälen. Es ist kein Problem, auf der CD ein Signal aufzuzeichnen, das zwischen dem linken und dem rechten Kanal z.B. einen Zeitunterschied von 5 µs hat. Das mag manchen überraschen, läßt sich aber relativ leicht demonstrieren.

Klar geht das nicht indem man einfach das Signal vom einen Kanal um einen Schritt verzögert. Man muß schon ein bißchen mehr Aufwand treiben. Beispielsweise könnte man das so lösen daß man das Signal in eine höhere Abtastrate wandelt, in der die gewünschte Verzögerung in ganzen Schritten darstellbar ist, also im Falle von 5 µs z.B. 200 kHz. Dann verzögert man auf einfache Weise in ganzen Schritten, und wandelt das Ergebnis zurück in die ursprüngliche Abtastfrequenz.

Man kann den Erfolg überprüfen indem man das Resultat ins Analoge wandelt und z.B. auf dem Oszilloskop betrachtet. Linker und rechter Kanal sind dann um z.B. unsere 5 µs gegeneinander verschoben, obwohl die zeitlichen Abstände der Abtastwerte viel größer sind. Die ganze Argumentation mit der zeitlichen Auflösung beruht also auf einem Denkfehler, den man durch relativ einfache Experimente als solchen entlarven kann.

Es gibt immer wieder Versuche, die Grundlagen der Digitaltechnik in Zweifel zu ziehen und zu suggerieren daß damit etwas nicht stimmt. In Wirklichkeit stimmt in solchen Fällen sehr wahrscheinlich etwas mit der Argumentation nicht. Diese Grundlagen sind schon seit ziemlich langer Zeit bekannt und theoretisch ziemlich gut durchdrungen. Nyquist gilt, wer glaubt das in Zweifel ziehen zu können muß schon ausgesprochen sattelfest sein. So einer muß mir erst noch begegnen. Stattdessen begegne ich immer wieder Leuten, die offensichtlich nicht verstanden haben was Bandbegrenzung bedeutet, also die eine Grundvoraussetzung nicht verstehen auf der die Funktion der Digitaltechnik in der Signalverarbeitung beruht.

11. Was ist denn so schwierig daran?

Gute Frage. Die Nyquist-Regel ist einfach und eindeutig, aber sie sagt etwas im Frequenzbereich aus. Das gedanklich in den Zeitbereich zu übertragen fällt vielen schwer. Daher kommen vermutlich die ganzen Verständnisprobleme. Besonders auffällig ist das wenn mit Impulsen oder Rechtecksignalen hantiert wird. Da ist eigentlich grundsätzlich erhöhte Wachsamkeit angeraten, weil einem damit unterschwellig oftmals eine Verletzung des Bandbreitenkriteriums von Nyquist untergejubelt werden soll. Aus falschen Voraussetzungen folgen aber nicht immer richtige Schlüsse.

Wer zum Beispiel die zeitliche Auflösung in Zweifel ziehen will hat mit dem Rechteck ein anschauliches Mittel dazu, denn man kann ein "digitales Rechteck" nicht um eine halbe Abtastperiode verschieben. Das Auflösungsvermögen für digitale Rechtecke ist tatsächlich durch die Abtastfrequenz beschränkt.

Das hat aber nichts zu sagen, denn das Rechteck ist selbst schon eine Verletzung des Nyquist-Kriteriums. Korrekt bandbegrenzte Signale hingegen haben dieses Problem nicht. Sie haben keine abrupten Sprünge wie ein Rechteck, und sie lassen sich um Bruchteile einer Abtastperiode verschieben ohne daß sich dazu die rekonstruierte Signalform ändern würde. In dem Moment in dem man die Regeln einhält ist das Problem verschwunden.

12. Bedeutet das, daß die Digitaltechnik prinzipielle Probleme mit Impulsen hat?

Kommt darauf an was Du damit meinst. Ein idealer Impuls hat eine unendlich steile Flanke, und so etwas gibt's schon analog nicht. Wenn Du es also am theoretischen Idealfall mißt, dann hat schon die Analogtechnik Probleme damit, da braucht man gar nicht erst zur Digitaltechnik überzugehen. Es sieht vielleicht bei der Digitaltechnik eher so aus, weil man dort durch einen Sprung zwischen zwei Abtastwerten so etwas wie die Illusion eines unendlich steilen Sprunges haben könnte. Er ist aber schon deswegen nicht unendlich steil weil von einem Abtastwert zu nächsten ja eine gewisse Zeit vergeht. Allein das ist schon eine Grenze für die maximale Steilheit. Die eigentliche Grenze ergibt sich aber aus der Bandbegrenzung, aus der nicht bloß eine maximale Signalsteilheit folgt, sondern auch die Bedingung daß es keine Ecken im Signal geben darf.

Letzlich definiert die Bandbreite des Systems wie "scharf" ein Impuls sein kann, egal ob dieses System analog oder digital arbeitet. Beide Technologien sind damit in dieser Hinsicht gleich gestellt. Bei Hifi ist es bloß so daß analoge Geräte oftmals eine größere Bandbreite haben als digitale Systeme. Das ist deswegen so weil man für die Begrenzung der Bandbreite extra Aufwand betreiben müßte, den man sich auch sparen kann. So hat dann ein Verstärker gern mal eine Bandbreite von >100 kHz, also ein Mehrfaches dessen was er für Audio eigentlich bräuchte. Das heißt er verstärkt auch noch Signale, die man nicht hört, aber das wird nicht als Problem aufgefaßt und hat den Nebeneffekt daß Impulse "sauberer" verstärkt werden. Wenn man sich das Ergebnis auf dem Oszilloskop betrachtet sieht es dann so aus als wäre das analoge Gerät besser als das digitale, wenn man die "Impulstreue" als Maßstab nimmt.

Ob man das hören kann steht auf einem ganz anderen Blatt. Besonders schmunzeln lassen mich immer wieder die Behauptungen, die Impulstreue "im Baßbereich" sei besser geworden. Der Baßbereich besteht ja aus den tiefen Frequenzen, und wenn es dort Impulse gibt, dann sind sie derart harmlos daß sich die Anstiegssteilheiten derart weit weg von den Grenzen auch des digitalen Systems befinden, daß ein eventueller Klangunterschied sicherlich damit überhaupt nichts zu tun haben kann. Ob diese Leute jemals die Signalform gesehen haben die aus einer Kickdrum herauskommt? Oder aus einer Baßgitarre?

Die "Impulse", mit denen man es in der Musik real zu tun hat, sind auch für die Bandbreite eines digitalen Systems langsam genug. Und auch das Gehör ist für noch schnellere Anstiegszeiten schlecht gerüstet. Solche steilen Flanken werden schon von der Luft gedämpft, und auch das schräge Auftreffen oder Abstrahlen von Membranen in Mikrofonen, Lautsprechern, und auch dem Trommelfell des Ohrs, sorgt dafür daß Impulse verschliffen werden. Es ist also schlicht kein für die Realität relevantes Problem.


Kommentare bitte im inzwischen gewohnten Thread.