Sonntag, 21. August 2016

FAQ Rauschen

Was wäre angemessener, als das Sommerloch mit Rauschen zu füllen? Ein ideales Thema für einen neuen FAQ-Artikel (Fix Abgehandelter Quatsch), meine ich.

Rauschen, was für ein langweiliges Thema, höre ich Euch stöhnen, was gibt's da groß zu erzählen?

Wartet's ab. Wie so oft ist das ein Thema, das umso interessanter und vielfältiger wird, je tiefer man einsteigt. Rauschen taucht bei Audio immer wieder auf, denn es ist unausweichliche physikalische Realität, die gemessen, bewertet, erklärt und nach Möglichkeit in Grenzen gehalten sein will.

Was ist Rauschen eigentlich?

Verdammt gute Frage! Hier geht's schon los mit der Komplexität.

Im engeren Sinn ist es ein Signal, das durch Zufallsprozesse erzeugt wird. Durch die chaotische, thermische Bewegung von Gasmolekülen zum Beispiel. Die trommeln gegen die Membran im Ohr, und das erzeugt ein Rauschsignal, wenn auch ein sehr leises. Die chaotische Bewegung des Wassers in einem Wasserfall erzeugt ebenfalls ein Rauschsignal, bloß wesentlich lauter.

Im weiteren Sinn wird das Wort auch im Sinne von "Geräusch" benutzt, besonders im Englischen, wo das Wort "Noise" beide Bedeutungen abdeckt. Dazu gehören dann auch Signalarten, die nicht so zufällig sind, aber ebensowenig dem Nutzsignal zuzurechnen sind. Ein im Hintergrund vorbei fahrender Zug produziert ein Signal, das weitgehend aus Rauschen besteht, aber auch aus ein paar weniger zufälligen Komponenten, wie z.B. das Rattern von Rädern bzw. Stoßstellen der Schienen, und manchmal auch das typische Gekreische von Bremsen.

Es ist ein fließender Übergang zwischen dem eher gleichmäßigen Rauschen im engeren Sinn, und dem gesamten Geräusch im weiteren Sinn, das auch die weniger zufälligen Teile umfaßt. Oft wird unterschieden zwischen dem gewollten Signal (Nutzsignal) und dem ungewollen Signal (Störsignal), wobei beim Störsignal nochmal unterschieden wird zwischen denjenigen störenden Anteilen, die mit dem Nutzsignal zusammen hängen (Verzerrungen) und den "eigentlichen" Störungen, die vom Nutzsignal unabhängig sind. Bei den Verzerrungen kann man weiter unterscheiden zwischen den harmonischen Verzerrungen und den unharmonischen Verzerrungen, die beide dieselbe Ursache haben können, aber sich anders auswirken. Die vom Nutzsignal unabhängigen Störungen schließlich unterteilen sich in zufällige Störungen, also Rauschen in der einen oder anderen Form, und systematische Störungen, die eine bestimmte Regelmäßigkeit haben, z.B. Brummen aus der Netzstromversorgung.

Ich verstehe unter Rauschen eher dieses gleichmäßige Wasserfallgeräusch. Wieso zählst Du diese ganzen anderen Sachen ebenfalls dazu?

Das bin nicht ich, das kommt aus der Praxis. Und zum Teil auch aus dem Englischen, wo wie gesagt die Begriffsbedeutung etwas allgemeiner ist. Wenn man z.B. von "Signal to Noise" redet, auf Deutsch "Rauschabstand", dann meint man meist den Unterschied in der Stärke zwischen dem Nutzsignal und den Störungen, wovon das Rauschen im engeren Sinn nur ein Teil von mehreren ist. Eigentlich müsste man korrekterweise von "Störabstand" reden, aber der englische Begriff "Noise" wird oft etwas sorglos eingedeutscht, was begriffliche Mißverständnisse hervorrufen kann.

Es gibt eigentlich auch eine ziemlich klar definierte deutsche Begriffsdefinition, die man vor Jahrzehnten mal genormt hat, aber die scheint in der Praxis wenig bekannt zu sein und ist auch gegenüber den englischen Begriffen ins Hintertreffen geraten, so daß man sich ggf. genauer ansehen muß, welche Begriffsbedeutung man unterstellen kann, wenn man irgendwo etwas über Rauschen liest.

Also ich lese immer wieder was von "Rauschteppich", von "SNR", von "THD+N", von Rauschabstand oder auch vom "dynamic range". Scheint alles irgendwie ähnlich zu sein, und doch wieder anders. Wie ist das zu verstehen?

Da stecken wieder diese unterschiedlichen Arten von Störung drin, deshalb muß man das einzeln aufdröseln.

Nehmen wir zuerst mal den Begriff "SNR" (Signal to Noise Ratio). Als "Noise" wird in diesem Fall alles genommen, was nicht mit dem Signal zusammen hängt. Verzerrungen zählen also nicht dazu, systematische Störungen wie z.B. Brumm dagegen schon. Die Messung ist recht einfach: Man mißt die Stärke des Gesamtsignals bei eingeschaltetem Nutzsignal, und schaltet dann das Nutzsignal ab und mißt nochmal. Das Verhältnis zwischen den beiden Messungen ergibt den SNR-Wert, den man meist in dB angibt. Wenn man das Nutzsignal abschaltet, dann verschwindet nicht nur das Signal selbst, sondern auch seine Verzerrungsprodukte. Übrig bleibt all das, was mit dem Nutzsignal nichts zu tun hat.

Bei THD+N ist das anders, denn da bildet man das Verhältnis zwischen der Stärke des Gesamtsignals mit Nutzsignal und allen Störungen, und dem gleichen Signal, bei dem man das Nutzsignal herausgefiltert hat. Genau genommen ist das Verhältnis anders herum, die Störungen werden zum Gesamtsignal ins Verhältnis gesetzt, weswegen hier eine negative dB-Zahl heraus kommt, während sie bei SNR positiv ist (Wer sich wundert, wieso das Umdrehen eines Verhältnisses das Vorzeichen bei der dB-Rechnung umkehrt, der sollte seine Kenntnisse in Logarithmen auffrischen, auf denen die dB-Rechnung beruht). Der Effekt ist, daß hier auch die vom Nutzsignal abhängigen Störungen, also die Verzerrungen, mit zur Störung gerechnet werden. In der Praxis ist also der THD+N-Wert meist schlechter als der SNR-Wert. Der Unterschied geht auf das Konto der Verzerrungen.

Wie gesagt handelt es sich im Falle von SNR und THD+N um Verhältnisse zwischen zwei Messungen, weshalb dabei als "Einheit" einfach dB heraus kommen. Es wird eine Messung gemacht mit dem Nutzsignal, und eine ohne das Nutzsignal. Bei SNR wird das Nutzsignal abgeschaltet, bei THD+N nachträglich herausgefiltert. Beidesmal spielt für das Messergebnis eine wesentliche Rolle, wie stark das Nutzsignal bei der Messung gewählt wird. Für die korrekte Interpretation der Ergebnisse muß das bekannt sein.

Wenn ich Angaben über THD+N oder über SNR lese, steht so etwas aber oft nicht dabei.

Das ist ein Problem. Man wird aber in solchen Fällen meist davon ausgehen können, daß ein Hersteller diejenigen Messbedingungen wählt, die den größten Zahlenwert bei der Messung ergeben. Er will ja möglichst gut da stehen. Bei der SNR ist das etwas gefährlicher, weil die Verzerrungen nicht ins Messergebnis eingehen, also könnte der Hersteller ein derart starkes Nutzsignal wählen, daß schon erhebliche Verzerrungen auftreten. Das wäre geschummelt. Bei THD+N würde das den Messwert verschlechtern, also muss man mit dem Nutzsignal so weit zurück gehen, daß die Verzerrungen minimal werden.

Ist dann nicht THD+N grundsätzlich die sinnvollere Messung?

Nicht unbedingt. Es kommt darauf an was man wissen will. Wenn man wissen will, wie stark das Hintergrundgeräusch ist, das man ja bei vorhandenem Nutzsignal meist gar nicht hört, weil es überdeckt wird, dann hilft einem THD+N nichts. Wenn man dagegen wissen will, wie originalgetreu ein Signal wiedergegeben wird, dann liegt man mit THD+N besser, denn es beinhaltet alle Arten von Störung.

Woher weiß ich denn, ob die Messbedingungen, die der Hersteller für die Messung gewählt hat, mit den realen Bedingungen im praktischen Betrieb vergleichbar sind?

Du kannst leider oft davon ausgehen, daß sie es nicht sind, es sei denn die Messbedingungen sind angegeben. Der Hersteller will oft die bestmöglichen Zahlenwerte herauskitzeln, und nicht die bestmögliche Praxisrelevanz.

Nimm als Beispiel einen normalen Vollverstärker. THD+N wird da oft am kleinsten, wenn man in die Nähe der Vollaussteuerung kommt, also an dem Punkt an dem der Verstärker gerade noch keine Begrenzungserscheinungen zeigt. Das ist sehr laut, in den allermeisten Fällen weitaus lauter als im Normalbetrieb. Im Normalbetrieb kommt man oft nicht über 1 Watt Ausgangsleistung hinaus, wenn die Lautstärke im üblichen Rahmen bleiben soll. Eigentlich würde der THD+N-Wert bei dieser Betriebssituation eher interessieren, und wäre dann auch eher zwischen verschiedenen Verstärkern vergleichbar. Ähnlich geht das Argument bei SNR, denn wenn man daraus ermitteln will, welcher Verstärker in der Praxis mehr rauscht, dann interessiert weniger der Abstand zwischen dem absolut lautesten Signal und der Lautstärke des Rauschens, sondern eher die Lautstärke des Rauschens als solche.

Ein wenig besser sieht's aus, wenn die Norm angegeben ist, nach der man mißt, denn dort sind die Messbedingungen genannt. Das Problem für den Anwender ist dann aber, daß er die Norm nicht hat und teuer kaufen müßte. Schlimmer noch, es gibt diverse unterschiedliche Normierungsgremien und demzufolge viele Normen. Da gibt es AES, DIN, EIA, IEC, SMPTE etc., und es werden sogar teilweise immer noch Normen benutzt, die schon seit Jahrzehnten außer Kraft sind. Wenn der eine Hersteller nach der einen Norm mißt, und der andere nach einer anderen, dann müßte man sich schon zwei Normen besorgen, nur um dann vielleicht festzustellen, daß die Werte nicht miteinander vergleichbar sind.

Wie mißt man denn die Lautstärke des Rauschens als solche? Ist das der "Rauschteppich"?

Da gibt's auch wieder diverse Varianten. Der Begriff des Rauschteppichs ist dabei eher bildlich und hat mit einer Messung nichts zu tun. Das Bild kommt vielleicht von den FFT-Diagrammen, wo man einen Signalpegel als Kurve über der Frequenz aufträgt. Rauschen sieht dort wie eine unruhige Grundlinie aus, wie eine Wiese oder ein Teppich von der Seite betrachtet.

Im Grunde will man wissen, ob dieser Teppich höher oder tiefer auf dem Diagramm zu liegen kommt, je höher desto lauter. Das ist aber erst einmal nur eine qualitative Aussage. Eine quantitative Messung wird daraus erst durch eine Reihe von Festlegungen bei der Messung.

Will man das Rauschen mit einer einzelnen Zahl charakterisieren, so muß man festlegen, mit welcher Bandbreite man mißt bzw. welche Bewertungskurve man verwendet, und mit welchem Detektor. Eine korrekte Angabe wäre z.B.: Rauschen unbewertet 20 Hz .. 20 kHz (-3 dB), effektiv. Das Ergebnis gibt man z.B. in dBV an, wenn man Rauschspannungen mißt, z.B. am Ausgang eines Verstärkers.

Eine unbewertete Messung behandelt alle Rauschfrequenzen innerhalb der Messbandbreite gleich. Außerhalb der Messbandbreite werden sie unterdrückt. In aller Regel interessiert man sich nur für die Rauschfrequenzen im hörbaren Bereich, eine Bandbegrenzung von 20 Hz .. 20 kHz (oder so ähnlich) ist daher bei Audio üblich für solche Messungen.

Nun ist aber das Gehör nicht für alle Frequenzen gleich empfindlich, speziell dann nicht, wenn es um eher leise Signale geht, was für Hintergrundrauschen ja hoffentlich der Fall ist. Da sind wir wieder bei den berühmten Fletcher-Munson-Kurven. Eine unbewertete Messung wird also kein Ergebnis liefern, was ungefähr dem menschlichen Lautheitsempfinden entspricht. Man begegnet dem durch die Verwendung von Bewertungsfiltern, deren Kurvenverlauf so gestaltet ist, daß sie die "Badewannenkurve" von Fletcher-Munson in etwa kompensieren. Also die Badewanne auf den Kopf gestellt. Im Ergebnis wird die Messung für tiefe und besonders hohe Frequenzen sehr unempfindlich, für mittlere Frequenzen aber besonders empfindlich. Damit liefert der Messwert eine bessere Annäherung an das menschliche Lautheitsempfinden.

Es gibt zwei verbreitete Bewertungsfilter für das Messen von Hintergrundrauschen im Audio-Bereich (den Telefon-Bereich nehme ich hier einmal aus, dort gibt's andere Filterkurven). Eines ist unter dem Namen A-Bewertung bekannt und ist von der IEC genormt. Ein zweites ist als CCIR-468 bekannt (obwohl das CCIR schon längst in der ITU aufgegangen ist). Andere Bewertungen haben sich nicht auf breiter Front durchsetzen können. Diese Filterkurven beinhalten eine Bandbegrenzung, so daß man bei deren Verwendung keine ausdrücklichen Angaben zur Bandbreite zu machen braucht. Messungen mit solchen Bewertungsfiltern werden auch "psophometrisch" genannt, ein entsprechendes Messgerät heißt "Psophometer". Ein Psophometer ist also ein Messgerät zur "gehörrichtigen" Messung von Hintergrundrauschen. Früher wurde das als eigenständiges Gerät verkauft, heutzutage ist es eine Softwarefunktion in einem Audio-Analysator.

Das ist ja schon mal recht kompliziert. Und was ist mit den Detektoren?

Das kommt als Variable noch dazu. Da es sich bei unserem Signal um ein Wechselspannungssignal aus unterschiedlichsten Frequenzen dreht, bei dem sich die momentane Spannung dauernd ändert, braucht man für eine halbwegs stabile Messung einen Detektor, der dieses Chaos "ausmittelt" und eine ruhige Anzeige ermöglicht. Es gibt eigentlich drei prinzipielle Alternativen: Mittelwert, Effektivwert und Spitzenwert. Der Mittelwert-Detektor mittelt die Spannung über die Zeit (genauer: den Betrag der Spannung). Der Effektivwert-Detektor mittelt die Leistung über die Zeit (in der Praxis wird meist das Quadrat der Spannung gemittelt, und vom Ergebnis die Wurzel gezogen, worauf der englische Begriff RMS hindeutet -- Root Mean Square). Der Spitzenwert-Detektor folgt den Signalspitzen, entweder einseitig oder besser beidseitig.

In der Praxis haben solche Detektoren noch eine "Ballistik", das heißt eine Reaktionsgeschwindigkeit. Je schneller sie ist, desto mehr folgt die Anzeige dem Signal, desto unruhiger wird sie aber auch. Man strebt daher einen Kompromiß zwischen Ablesbarkeit, Meßzeit und Meßgenauigkeit an. Die genaue Charakteristik solcher Detektoren ist Gegenstand der Normung. Es sollte klar sein, daß die Wahl des Detektors das Meßergebnis beeinflußt, daß man also Meßergebnisse nicht ohne weiteres vergleichen kann, wenn sie mit unterschiedlichen Detektoren ermittelt wurden.

Na super, das sind ja schon einmal dutzende Kombinationsmöglichkeiten. Das Schöne an Normen ist, daß es so viele davon gibt. Und was nimmt man jetzt in der Praxis?

Wie ich oben schon mal schrieb: Es kommt darauf an was man wissen will.

Die erste grundsätzliche Entscheidung ist die, ob man gehörrichtig messen will oder nicht, also ob einen eher die elektrische Situation interessiert, ohne Bezug zu dem was davon hörbar ist, oder ob es eben darum geht, die vom Menschen empfundene Lautstärke des Rauschens zu ermitteln, also quasi den störenden Effekt des Rauschens. Das ist die Entscheidung, ob man gewichtet mißt oder ungewichtet.

Wenn man sich für eine ungewichtete Messung entschieden hat, ist damit unmittelbar klar, daß das Ergebnis mit dem Höreindruck nur wenig zu tun haben wird. Der Messwert wird also kaum als Argument in einer Klangdiskussion taugen. Dafür kann man daran eher erkennen, wie sauber der elektronische Signalpfad ist. Zum Beispiel geht ein Brummen ungeschwächt in das Messergebnis ein. Ähnlich sieht es bei sehr hochfrequenten Störfrequenzen aus, die auch dann noch ins Messergebnis eingehen, wenn sie schon nicht mehr hörbar sind. Immer vorausgesetzt, die Störfrequenzen sind innerhalb der Messbandbreite. Diese Messbandbreite ist die zweite Entscheidung, die man zu fällen hat.

Eine gewichtete Messung ist dagegen für Brummen recht unempfindlich, und auch für hochfrequente Störungen. Wie eben auch das menschliche Gehör. Deswegen korrelliert ein Messergebnis aus einer gewichteten Messung erheblich besser mit dem Höreindruck, und taugt folglich auch eher in einer Diskussion um den Klangeinfluß einer Komponente.

Hat man sich für eine gewichtete Messung entschieden, gibt es eigentlich nur zwei in Frage kommende Alternativen: Entweder man mißt A-bewertet mit Effektivwert-Detektor, oder CCIR-bewertet mit Quasi-Spitzenwert-Detektor. Das sind die dominierenden Kombinationen, auch wenn man natürlich auch andere Möglichkeiten hätte. Das "Quasi" bei der zweiten Alternative drückt aus, daß es sich nicht um einen reinen Spitzenwertdetektor handelt, sondern um eine speziell angepasste Variante, deren ballistische Eigenschaften auch nach den Eigenschaften des Gehörs gestaltet sind, denn das Gehör selbst hat ebenfalls eine Art Detektorverhalten bei der Bewertung von Hintergrundgeräusch, dem man sich anzunähern versucht.

Man kann also davon ausgehen, daß die CCIR-Methode noch näher an den Eigenschaften des Gehörs liegt, besonders für Störungen, die nicht nur aus gleichmäßigem Rauschen bestehen. Das CCIR-Verfahren wäre damit die erste Wahl, wenn nicht schlechtere Zahlenwerte dabei heraus kämen als bei der A-bewerteten Messung. Das läßt die CCIR-Wertung auf dem Papier schlechter da stehen, was beim Marketing unpopulär ist. Die Firma Dolby, die sich mit Marketing bestens auskennt, hat daher mal eine weitere Bewertungskurve in die Normierungs-Diskussion gebracht, die im Grunde gleich wie die CCIR-Kurve aussieht, bloß mit verschobenem Maßstab, so daß bessere Zahlenwerte heraus kommen, die gegenüber einer Messung mit A-Bewertung nicht schlecht aussehen. Das hat sich aber nicht durchgesetzt.

Falls Ihr also gehörrichtig messen wollt, und Marketingüberlegungen in Richtung Schwanzlängenvergleich nicht dominant sind, dann würde ich zur CCIR-Methode greifen. Wenn sich alle Messenden an die Regeln gehalten haben, dann kann man am Ergebnis tatsächlich erkennen, welcher Kandidat hörbar weniger Hintergrundgeräusch erzeugt als die anderen.

Wer sich für die ganze Geschichte und die Details dieses recht komplexen Themas interessiert, dem lege ich die Webseite des Australiers Robin Whittle ans Herz, falls Ihr mit Englisch keine Schwierigkeiten habt.

Uff, das war eine ziemliche Dosis! Und das alles für die Messung einer einzigen Zahl. Wieso ist das eigentlich so kompliziert? Wenn ich eine Spannung mit dem Multimeter messe ist das doch ganz einfach!

Das kommt daher, daß das Rauschen ein komplizierteres Signal ist als ein Sinussignal, und auch daher, daß das menschliche Gehör so komplizierte Eigenschaften hat.

Rauschen ist schon dann kompliziert, wenn es sich gleichmäßig anhört. Der einfachste Fall ist da das weiße Rauschen, in dem alle Frequenzen gleichermaßen vertreten sind. Das entspricht oft nicht der Realität, wo die Rauschanteile oft nach Frequenz unterschiedlich sind. Im allgemeineren Fall kommen da noch weitere Störsignale hinzu, die nicht mehr als Rauschen im engeren Sinn gelten können, sondern auf deutsch eher Geräusch genannt würden. Das alles läßt Rauschen zu einem komplizierten Signal werden.

Darin liegt z.B. die Ursache dafür, daß die Messbandbreite eine solche Rolle spielt. Wenn ich ein Sinussignal messe, z.B. eines mit 1 kHz Frequenz, dann ist die Messbandbreite des Messgerätes so gut wie egal, Hauptsache die 1 kHz liegen innerhalb des Bereichs. Dann ist das Messergebnis davon unabhängig. Man könnte ganz schmalbandig messen, und nur Frequenzen in unmittelbarer Nähe von 1 kHz zulassen, oder man könnte breitbandig messen, z.B. mit 20 Hz .. 20 kHz, es käme dasselbe Ergebnis heraus, so lange keinen nennenswerten Störsignale vorhanden sind.

Ganz anders beim Rauschen. Da hier alle Frequenzen vertreten sind, hängt das Messergebnis direkt davon ab, welche Frequenzen man berücksichtigt, und welche man wegfiltert. Je schmalbandiger man mißt, desto weniger kommt durch, und desto niedriger der Messwert.

Das heißt dann wohl, daß man durch schmalbandiges Messen gezielt Störsignale und Rauschen ausblenden kann, wenn man die Stärke eines Sinussignals messen will, stimmt's?

Ganz recht! Die Wahl der passenden Bandbreite ist nicht bloß beim Messen, sondern auch bei allen Kommunikationstechniken grundlegend. Man will möglichst wenig gestört werden, um seine Nachricht möglichst unverfälscht zu empfangen. Also schneidet man alles weg, was nicht zur Nachricht gehört. Wenn das Nutzsignal sehr schmalbandig ist, also im Idealfall eine einzige Frequenz, dann kann man durch entsprechend schmalbandige Filter beim Empfang oder bei der Messung eine optimale Empfindlichkeit erreichen. Damit einher geht auch eine entsprechende Reduktion des Rauschens.

Da der Pegel des Rauschens mit der Meßbandbreite zusammen hängt, bietet es sich an, ein Rauschmaß einzuführen, welches so mit der Bandbreite verrechnet ist, daß man die sich ergebenen Werte je nach Messbandbreite daraus ausrechnen kann. Dieses Maß ist die Rauschdichte. Man kann gedanklich den ganzen Frequenzbereich in einzelne schmale Scheiben zerschneiden, z.B. könnte jede Scheibe einen Bereich von 1 Hz umfassen. Die Messbandbreite von 20 Hz .. 20 kHz würde dann in 19980 solche Scheiben aufgeteilt. Der Energieerhaltungssatz legt nahe, daß sich die Gesamtleistung des Rauschens aus der Summe der Leistungen in jeder Scheibe zusammen setzt. Das heißt, in jeder Scheibe findet man nur einen Bruchteil der Gesamtleistung des Rauschens. Diesen Bruchteil, also die Rauschleistung pro Frequenzeinheit, nennt man Rauschdichte. Bei weißem Rauschen ist die Rauschdichte in jeder Scheibe gleich, sie ist also über die Frequenz konstant. Kennt man die Rauschdichte, dann kann man die gesamte Rauschleistung für jede Bandbreite berechnen.

Ist dann die Kurve, die man bei FFT-Messungen sieht, diese Rauschdichte, über die Frequenz aufgetragen?

Nein, nicht ganz. Die FFT macht genau das was ich oben beschrieb: Sie teilt den Frequenzbereich in Scheiben (engl. bins), und berechnet in jeder Scheibe den zugehörigen Leistungs- oder Spannungswert. Die "Dicke" der Scheiben, also die Frequenzspanne, die eine Scheibe repräsentiert, ergibt sich durch die Anzahl der Punkte der FFT, in Kombination mit der Abtastrate. Bei einer Abtastrate von 48 kHz und einer Punktezahl von 24000 würde sich genau 1 Hz pro Scheibe ergeben. Dann hätte man die Rauschdichte. Bei anderen Punktezahlen ergeben sich aber entweder dickere oder dünnere Scheiben, so daß kleinere oder größere Leistungswerte heraus kommen. Das führt dazu, daß mit steigender Punktezahl der FFT das gleiche Rauschsignal eine immer tiefer liegende Linie auf dem Diagramm bewirkt. Auf so einem Diagramm rutscht der Rauschteppich bei jeder Verdopplung der Punktezahl der FFT um 3dB nach unten.

Warum kompensiert man das nicht heraus, indem man den Maßstab um 3 dB verschiebt?

Weil das dann für Sinussignale nicht mehr stimmen würde. Ein Sinussignal mit z.B. der Frequenz 1 kHz fällt ja immer in eine Scheibe, egal ob die nun dicker oder dünner ist. Wenn ich nun bei einer Verdopplung der Punktezahl der FFT den Maßstab um 3dB verschieben würde, dann wäre zwar der scheinbare Rauschteppich auf der gleichen Höhe geblieben, aber die Spitze, die zum Sinussignal gehört, wäre um 3 dB höher geworden, obwohl sich am Signal nichts geändert hat. Das wäre noch verwirrender.

Es hilft nichts: Man muß bei Rauschbetrachtungen per FFT die Abtastrate und die Punktezahl der FFT kennen, sonst kann man keine vernünftigen Aussagen machen. Das heißt man muß diese 3dB-Regel bei Punkteverdopplung kennen und berücksichtigen.

Das heißt das "Gras" in so einer FFT-Kurve ist gar nicht der echte Rauschteppich?

Nein, dem Pegel nach nicht. Das Aussehen ist zwar so, aber die konkreten Zahlenwerte stimmen nicht. Unter dem Rauschteppich versteht man normalerweise die Gesamtheit des Rauschens in einem Frequenzbereich, was letztlich auf eine breitbandige Messung hinaus läuft, während die vielen "bins" bei einer FFT eine schmalbandige Messung darstellen, die ganz andere Werte ergibt. Man könnte aus dem FFT-Bild den Pegel des Rauschteppichs dadurch berechnen, daß man die in jeder Scheibe gemessene Rauschleistung addiert, und zwar für alle Scheiben, die zur gewünschten Bandbreite dazu gehören.

Es ist aber eine gute Gelegenheit für irreführendes Marketing: Mache eine möglichst hochauflösende FFT (mit möglichst vielen Punkten), dann verschiebt sich der dargestellte "scheinbare" Rauschteppich nach unten, und der Kunde wird glauben das Produkt sei besser.

OK, so langsam ist meine Informationsverarbeitungsfähigkeit an der Grenze. Eins fehlt aber noch: "Dynamic Range". Wie passt das ins Bild?

Das ist im Grunde das gleiche wie SNR, wenn man den maximal möglichen Signalpegel zur Messung nimmt. Erinnere Dich daß die SNR-Messung eine Verhältnis-Bildung zweier Messungen darstellt, eine mit Nutzsignal und eine ohne. Die Stärke des Nutzsignals ist bei SNR erst einmal undefiniert, und muß nicht unbedingt die maximal mögliche sein. Je nach Meßvorschrift kann es sich auch um einen Nennpegel handeln, oberhalb dessen durchaus noch einiger "Headroom" besteht.

Beim Begriff "Dynamic Range" wird dagegen immer mit dem maximal möglichen Pegel beim Nutzsignal gearbeitet, bei dem noch keine nennenswerten Verzerrungen auftreten. Wieviele Verzerrungen die Grenze darstellen, muß festgelegt sein.

Die Werte für SNR sind also entweder gleich oder schlechter als die Werte für den Dynamic Range, je nachdem welchen Referenzpegel man für die SNR-Messung benutzt, bzw. wieviel Headroom man bei der SNR-Messung läßt. Man könnte auch sagen: Dynamic Range = SNR + Headroom.

Während man bei einer SNR-Messung erwarten würde, daß der Referenzpegel explizit angegeben wird, würde man bei einer Angabe des Dynamic Range erwarten, daß angegeben wird, mit welchem maximalen Klirr man gemessen hat.

Bei digitalen Systemen wird in aller Regel das maximal verzerrungsfrei darstellbare Sinussignal als Referenz verwendet (0dBFS). Man nimmt dabei statt 1 kHz oft eine Frequenz von 997 Hz, damit die Signalfrequenz und die Abtastfrequenz prim zueinander sind. Bei reinen Digitalsystemen ergibt sich die Dynamik direkt aus der Wortlänge in Bit, lediglich die Wahl des Dither kann hier noch einen (kleinen) Einfluß haben. Die Tatsache, daß die Bitanzahl einem Rauschabstand entspricht, führt zu ENOB als Maß (Effective Number Of Bits), was aber letztlich nur eine andere Darstellung der gleichen Information bedeutet.

Gut, das reicht. Haste noch ein paar Literaturhinweise, für später wenn mein Kanal wieder aufnahmefähig ist?

Probier's mal mit diesem Tutorial, das ein bißchen A/D-Wandler, bzw. D/A-Wandler-zentriert ist.

Auch nicht schlecht ist das Papier von David Mathew, und natürlich die Informationssammlung des verstorbenen Eberhard Sengpiel. Der verweist auf diverse Wikipedia-Artikel, was ich hier aus Faulheitsgründen nicht gemacht habe.