Stereo = Separation

 

Wie erkennt und ortet das Gehör mehrere Schallquellen?

Jeder kann selbst schnell feststellen, daß es problemlos möglich ist, mehrere im Raum verteilte Schallquellen zu erkennen, zu orten, sie zuzuordnen und auch ihren Informationen zu folgen (Sprache, Melodie, Tonfolgen etc…).

 

All dies kann das Gehör anhand der zwei Schallverläufe, die an unsere Ohren kommen - jene Schallverläufe, die das Summensignal all dieser Schallquellen sind - also aus denen erst einmal nicht „ersichtlich“ ist, welcher Schallanteil jetzt zu welcher Schallquelle gehört.

Hier mal die Situation an den zwei Ohren anhand des Beispiels aus meinem Audioclub-Artikel „Schallreproduktion“. Zwei Instrumente deren einzelne Schallverläufe als Summe an beide Ohren kommen:

Hier nochmal die Summenbildung grafisch verdeutlicht: In Blau die Geige und auf diesen Verlauf kommt aufaddiert das Horn. Das ergibt dann den roten Verlauf, der die Summe beider Schallverläufe ist

Die roten Kurven sind also das, was an den Ohren ankommt - die Ohrsignale.
Um es  zu verdeutlichen sind in der folgenden Darstellung nochmal die einzelnen Schallverläufe, wie sie an den Ohren ankommen würden, wenn das jeweils andere Instrument nicht spielen würde.


Diese Schallverläufe müssen also erstmal separiert werden, damit das Gehör sie als Geige und als Horn erkennen und auswerten kann.

Das Gehör/Gehirn muss also generell immer erst herausfinden wieviel Schallquellen (z. B. Instrumente) vorhanden sind und auch welcher "Anteil" des Summensignals zu welcher Schallquelle (z. B. zu welchem Instrument) gehört - bevor es überhaupt mit irgendwelchen Analysen fortfahren kann.

 

Für solch ein Problem, gibt es in der Mathematik eine Lösung, die sich Kreuzkorrelation nennt.

Die Vermutung liegt nahe, das auch das Gehör eine ähnliche Funktion hat.

Diese Vermutung begründet sich an den beim Hören mit zwei Ohren identischen Voraussetzung für die Anwendung der mathematischen Kreuzkorrelation und auch, weil nicht viele Alternativen für die Lösung der o. a. Aufgabe denkbar sind!

Alle erfolgreichen Hörmodelle gehen demnach auch davon aus, daß das Gehör über eine Kreuzkorrelationsfunktion verfügt. Man vermutet, daß mit den zwei Ohrsignalen (also den an den beiden Trommelfellen ankommenden Schallverläufen) eine sog. gleitende Kreuzkorrelation mit Musterabgleichen stattfindet.

Anm.: Als ein erfolgreiches Hörmodell werden die Hörmodelle angesehen, mit denen sich die meisten Höreindrücke schlüssig erklären lassen.

Mit einer Kreuzkorrelationsfunktion ist es möglich, alle in den Summensignalen „enthaltenen“ Schallquellen zu separieren und in der Folge auch zu lokalisieren. Mit der Verwendung von (im Gehirn gespeicherten) Mustern, wäre auch gleichzeitig eine erste Zuordnung möglich.

Diese daraus separierten Schallquellen können dann weiter analysiert werden und sind ihrerseits wieder Muster für die nachfolgenden Kreuzkorrelationen - womit diese besser bzw. „effektiver“ werden.

 

Wie genau Kreuzkorrelation mathematisch funktioniert, kann man in entsprechenden Büchern oder auch im Internet (via Google) nachlesen. Da steht das besser als ich es hier erläutern könnte. Ebenso den Stand der Forschungen wie das Gehör das vermutlich macht.

Mir geht es hier auch weniger um eine exakte Betrachtung, - die ohnehin schwer möglich ist, da man die genauen Vorgehensweisen des Gehörs/Gehirns nicht kennt – sondern um ein Denkmodell wie man sich eine Kreuzkorrelationsfunktion mit Schallverläufen vorstellen kann und den sich daraus ergebenden möglichen Konsequenzen.

Solch ein Denkmodell ist hilfreich für Betrachtungen zur Wiedergabe von Musik über eine Stereo-Anlage.

 

Ich will im Folgenden mal versuchen, wie man sich eine solche gleitende Kreuzkorrelation mit Musterabgleich bildlich vorstellen kann.

Es ist vergleichbar mit einem Memory-Spiel mit zwei Spalten (den zwei Ohrsignalen), bei dem von oben laufend neue Memory-Karten hinzukommen (durch den fortwährenden Schallverlauf). Jede Karte hat einen Zeitstempel, wann sie am jeweiligen Ohr ankam.

Jede Karte einer Spalte wird mit den Karten der anderen Spalte verglichen, ob sich darin identische Muster befinden und ob diese zu einem im Gehirn gespeicherten Muster passen.

Sobald ein passendes Paar gefunden ist, werden diese zwei Karten aus den Spalten entfernt (je eine pro Spalte).

Anhand der zeitlichen und der Lautstärke-Unterschiede zwischen beiden Karten kann dann der Schallquellenort bestimmt werden (Lokalisation).

Dieses gefundene Paar beinhaltet nun die Information einer Schallquelle für einen Zeitabschnitt!

Sie ist damit auch schon als ein bestimmter Mustertyp erkannt worden und kann nun zu evt. bereits vorher gefundenen Zeitabschnitten dieser Schallquelle hinzugefügt werden. Anschließend kann diese Information analysiert werden - also z. B. bei Sprache, was wird gesprochen, oder bei Instrumenten die Tonhöhe und die Tonfolgen etc.!

 

Dieses Gedankenmodell ist im Folgenden mal anhand von drei Beispiel-Darstellungen gezeigt, die eine Analyse von mehreren Zeitabschnitten verdeutlichen (alles auf einem Bild wäre zu groß geworden):

 

 

 

 

 

Diese Darstellungen verwenden als Kartenmuster die Beispiel-Schallverläufe aus meinem Audioclub-Artikel „Schallreproduktion“. Für eine prinzipielle Darstellung des Denkmodells sind sie ausreichend (in „Wirklichkeit“ werden die Signalformen meist deutlich komplexer sein).

Es kann durchaus sein, daß das Gehör nicht den zeitlichen Signalverlauf direkt vergleicht, sondern die Anteile der spektralen Zerlegung oder die Hüllkurven oder gar alles drei (in Abhängigkeit der Signalform). Wahrscheinlich wird der Vergleich auch mit Hilfe der bekannten Unterschiede (Richtungswinkelabhängige Laufzeit- und Pegelunterschiede) durchgeführt – analog zu Filterfunktionen (entsprechende Versuche weisen in diese Richtung).

An der Notwendigkeit, aus den zwei Summensignalen die Anzahl und die Information der Schallquellen zu separieren und auch an der wahrscheinlichen Funktionsweise des Gehörs für diese Aufgabe (einer gleitenden Kreuzkorrelationsfunktion), ändert das nichts.

Das Prinzip der Kreuzkorrelation funktioniert beim Stereo-Hören, weil in beiden Ohrsignalen (Spalten) immer die Signalverläufe (Muster) jeder Schallquelle „enthalten“ sind und weil die Unterschiede der Signalverläufe einer Schallquelle zwischen beiden Ohrsignalen (Spalten) bekannt sind.

Daß dies beim Hören mit zwei Ohren immer der Fall ist (und auch in den aufgenommenen Signalverläufen einer CD oder Schallplatte etc.), habe ich in meinem Audioclub-Artikel „Schallreproduktion“ ausgeführt.

 

Die Unterschiede zwischen den beiden an den Ohren ankommenden Signalverläufe jeder im Winkel zum Kopf positionierten Schallquelle, sind fixe Größen und dem Gehirn bekannt (Laufzeiten und Lautstärkeunterschiede in Abhängigkeit des Richtungswinkels zur Schallquelle).

Mit diesen „Voraussetzungen“ kann man die Signalverläufe mehrerer im Raum positionierten Schallquellen gut aus dem Summensignal, das an beiden Ohren ankommt, separieren.

Beim Hören von „natürlichen“ Schallquellen kommt wahrscheinlich noch die Modulation der Ohrmuscheln aufgrund des Winkels der eintreffenden Schallwellenfront hinzu – die ja auch abhängig vom Richtungswinkel dieser Schallquelle ist. Auch das ist sicherlich ein Kriterium, das zur Kreuzkorrelation verwendet werden kann. Bei der Wiedergabe mit Stereo-Boxen fällt dieses Kriterium leider weg – der Schall kommt immer mit dem gleichen Winkel an die Ohren (die Positionen der Boxen sind ja fix).

Allerdings gibt es in geschlossenen Räumen auch mit zwei fixen Stereo-Boxen noch ein Kriterium, das zur Kreuzkorrelation verwendet werden kann: den im Raum reflektierten Schall.

Auch der reflektierte Schall hat die Information jeder Schallquelle und auch hier sind die Unterschiede – in diesem Fall zum Direktschall – bekannt bzw. können z. B. beim Betreten des Raumes und dem Hören der eigenen Stimme „erfasst“ werden. Der reflektierte Schall wird deutlich später an die Ohren kommen, deutlich leiser und unter deutlich anderem Winkel (wobei hier sogar die Modulation durch die Ohrmuschel „verwertbar“ ist, da der reflektierte Schall ja tatsächlich aus einer anderen Richtung kommt als der Direktschall von den zwei fixen Stereo-Boxen).

Es ist denkbar, daß das Gehör diese Information auch nutzt – z. B. um bei einer „fehlerhaften“ oder unklaren Korrelation gewissermaßen eine Fehlerkorrektur zu machen.

Für mein weiteres Gedankenmodell lasse ich diesen Aspekt aber außer Acht – er würde zu weit führen.

 

Daß das Gehör/Gehirn sowas wie einen „Musterabgleich“ macht, bzw. ähnliche „Muster“ als „zusammengehörend“ interpretiert, kann man auch an einem anderen „Phänomen“ erkennen.
Bei einem Konzert, bzw. wenn mehrere gleiche Instrumente, die räumlich an verschiedenen Positionen im Raum stehen, gleichzeitig das gleiche spielen, nehmen   wir sie als „Gesamtes“ wahr - wir „erkennen“ deren Zusammenspiel als eine Melodie!

Obwohl an unsere Ohren (durch die unterschiedlichen Laufzeiten und des sich daraus ergebenden Summensignals) ein völlig anderer Schallverlauf ankommt, als wenn nur ein Instrument die Melodie spielen würde, nehmen wir die Melodie - auch tonal (!) - so wahr, als wenn ein Instrument diese Melodie alleine spielen würde.

Theoretisch (nach manchen Hörmodellen) müssten wir die Melodie als mehrere zeitlich nacheinander gespielte Melodien „hören“ und durch die zeitlich versetzte Überlagerung müsste sich eigentlich auch die Tonalität der Melodie deutlich ändern. Wenn man den Schallverlauf dieser zusammen spielenden Instrumente mit einem Mikrofon aufnimmt und z. B. das Frequenzspektrum analysiert, ergibt sich ein völlig anderes Bild, als wenn nur ein Instrument die gleiche Melodie spielt.
Auch die (berechnete) „Zusammensetzung“ des Klangs aller Instrumente - z. B. mittels einer FFT-Darstellung  (Frequenzgang/Phasengang) - unterscheidet sich deutlich von dem eines einzelnen Instrumentes!

Physikalisch (Akustisch) gesehen ist völlig klar, daß sich beim Hörer der Schallverlauf aller Instrumente zusammen deutlich vom Schallverlauf jedes einzelnen Instrumentes unterscheidet.
Es ist aber auch klar - und für jedermann leicht nachzuprüfen - daß man als Hörer alle Instrumente als „eine“ Melodie (synchron) spielend wahrnimmt... und auch tonal „hören“ wir keine Unterschiede gegenüber dem Spiel eines einzelnen  Instrumentes - obwohl es messtechnisch sehr deutliche Unterschiede gibt!

In der (sehr idealisierten) Beispiel-Darstellung mit 4 Geigen, wird der prinzipielle physikalische Zusammenhang deutlich.
Der Schallverlauf beim Hörer ist von jeder einzelnen Geige - wenn sie alleine spielen würde - bis auf den „Ankunfts-Zeitpunkt“ (beim Hörer) völlig identisch (obere 4 Diagramme). Wenn alle 4 Geigen spielen, sieht der Schallverlauf beim Hörer dagegen völlig anders aus (unten rechts; unten links ist die Summenbildung der 4 Geigen veranschaulicht).

Das all dies nicht so wahrgenommen wird, wie es „theoretisch“ sein müsste, zeigt, daß das Gehör/Gehirn in der Lage ist, aus dem Summensignal ähnliche Signalverläufe, die innerhalb eines bestimmten Zeitfensters an die Ohren gelangen, zu separieren und sie als „zusammengehörig“ zu interpretieren.

 

Wenn man sich mal auf dieses Gedankenmodell einlässt, führt das zu einigen interessanten Schlussfolgerungen.

Demnach ist die Separierung einer Schallquelle entscheidend für die Lokalisation aber auch für die Auswertung der Information dieser Schallquelle an sich!

Denn erst die aus den beiden Ohrsignalen separierten Teile einer Schallquelle ergeben deren Information – also den Schallverlauf dieser einzelnen Schallquelle (die Ohrsignale enthalten ja immer nur die Summe der Signale aller Schallquellen).

Dieser separierte Schallverlauf entspricht dann prinzipiell dem als würde man nur diese Schallquelle hören!

Je vollständiger die Information einer erkannten Schallquelle ist, desto „besser“ kann das Gehör/Gehirn sie analysieren - sie verwerten!

Wie vollständig die Information einer Schallquelle wird, hängt also entscheidend davon ab wie genau bzw. wie konstant die Teile dieser Schallquelle vom Gehör aus den zwei Ohrsignalen separiert werden können.

Das bedeutet auch, das die Lokalisation direkt mit der Separation zusammenhängt – denn was nicht separiert wurde, kann auch nicht lokalisiert werden!

Die Qualität der (gut wahrnehmbaren) Lokalisation ist somit ein direktes Indiz für die (nicht so gut wahrnehmbare) Qualität der Separation – und als Folge ein Indiz für die Qualität der Auswertung …auch tonal und bez. der Zuordnung und des „Verfolgens“!

Das bedeutet, daß die Qualität des Erkennens und Auswerten einer Stimme, eines Instrumentes oder von Nebengeräuschen, entscheidend davon abhängt, wie gut das Gehör diese Stimme, das Instrument oder das Nebengeräusch aus dem als Summe an den Ohren ankommenden Schallverlauf separiert.

 

Das muss man sich erstmal durch den Kopf gehen lassen - und die Konsequenzen daraus …speziell in Bezug auf Musik hören über Stereo-Anlagen!

 

Um nochmal die Bedeutung der Separation für das Hören an einem (idealisierten) Beispiel zu verdeutlichen:
Wenn zwei Sänger, eine Geige und ein Klavier gleichzeitig spielen, werde ich die Sänger als Sänger und das Klavier als Klavier sowie die Geige als Geige erst erkennen, wenn das Gehör die zugehörigen Schallanteile separiert hat!

Wie gut ich unterscheiden kann, ob es eine Frauenstimme oder eine Männerstimme ist, ob ich verstehe was sie singen, welche Töne das Klavier und die Geige spielt, ob es ein Flügel von Bechstein oder von Steinway ist oder gar nur ein Klavier, ob es eine Geige von Guarneri oder von Stradivari ist… all das hängt davon ab, wie gut dem Gehör die Separation gelingt!

 

Damit ist die Separation – also die Kreuzkorrelationsfunktion des Gehörs – eine der wichtigsten Funktionen des Hörens!

Und sie ist wesentlich für fast alle Höreindrücke!

Ohne separierte Signale kann das Gehör auch nichts erkennen oder auswerten!

Glücklicherweise hängt das Ergebnis der Kreuzkorrelationsfunktion von mehreren Faktoren ab und es führt in den seltensten Fällen zum „Totalverlust“. Beeinträchtigungen der Kreuzkorrelationsfunktion führen eher zu einer Verschlechterung der Separation und damit zu einer Verschlechterung der Wahrnehmungen – es führt zu „Qualitativen Unterschieden“ der Höreindrücke.

Genau das ist es ja auch was man selbst gut kennt: in den wenigsten Fällen gibt es gar keine Lokalisation oder gar keine Erkennung oder es wird nichts „verstanden“.

Besonders beim Vergleich von Höreindrücken bei der Wiedergabe von Musik über unterschiedliche Stereo-Anlagen bemerkt man ja meist nur eine unterschiedliche Qualität bestimmter Hörwahrnehmungen:

  • ungenauere oder schärfere Lokalisation,
  • weniger oder mehr Details,
  • weniger oder mehr Nebengeräusche,
  • Applaus wird mal diffuser mal „detaillierter“ usw..

…und dies ändert sich je nach Musikstück oder auch während eines Musikstückes.

Die Qualität der Höreindrücke hängt also unmittelbar von der Qualität der Ergebnisse der Kreuzkorrelationsfunktion des Gehörs ab!

 

Was beeinflusst nun die Qualität der Kreuzkorrelationsfunktion des Gehörs?

Welche Auswirkungen hat ein „Fehler“ der Ohrsignale (dessen Ursache z. B. die Wiedergabeanlage sein kann) auf das Ergebnis der Kreuzkorrelationsfunktion?

 

 

Als erstes kann man sicher festhalten, daß die Kreuzkorrelation (und der Musterabgleich) einfacher ist, wenn weniger Schallquellen und „einfachere“ (und/oder bekanntere) Signalformen vorhanden sind.

Für das Modell bedeutet dies, daß weniger Karten mit einfacheren, deutlicher erkennbareren Mustern je Spalte vorkommen. Ein Erkennen wird wahrscheinlicher - das Gehirn hat zudem mehr Zeit dafür.

Je mehr Schallquellen (Karten) hinzukommen desto mehr muss verarbeitet werden - (die Anzahl der Karten pro Spalte wächst) und je komplexer die Signalformen (die Muster), desto komplizierter der Abgleich.

 

Eine interessante Betrachtung ist jetzt, was passiert, wenn die Signale eines Zeitabschnittes (Muster auf den Karten) der beiden Ohrsignale (Spalten) zu unterschiedlich sind.

Das kann passieren, wenn bei der Wiedergabe aufgezeichneter Musik - z. B. durch eine Stereo-Anlage - nur das Signal eines Stereo-Kanals verändert wird, auch wenn dies nur kurzzeitig passiert.

Man kann sich die zwei aufgezeichneten Stereo-Kanäle – z. B. auf CD oder Schallplatte - wie die zwei Ohrsignale vorstellen, die man hätte, wäre man anstelle der zwei Mikrofone bei der Aufnahme dabei gewesen (Genauer ist dies im Audioclub-Artikel „Schallreproduktion“ erläutert).

Die Stereo-Kanäle „beinhalten“ prinzipiell alle Merkmale mit denen das Gehör die aufgezeichneten Schallquellen separieren kann.

Verändern kann die Stereo-Anlage „nur“ das Summensignal - denn nur dieses ist ja auf CD oder Schallplatte (auch die Stereo-Anlage weiß nicht aus wie vielen und aus welchen Schallquellen sich das Signal „zusammensetzt“).

Ein Verändern des Summensignals bedeutet aber, daß es - bildlich gesehen - alle oder nur einige der Signalanteile der einzelnen Schallquellen dieses Zeitabschnitts verändert.

Damit wird es für das Gehör schwieriger passende Paare zu finden.

Das kann bedeuten, daß manche - oder sogar alle - Paare in diesem Zeitabschnitt nicht gefunden werden.

 

Dieser Fall ist beispielhaft im folgenden Bild dargestellt (Fehler in einem Zeitabschnitt im linken Ohrsignal mit Auswirkungen auf nur eines der Signalteile einer Schallquelle (hier dem der Geige):

 

 

 

Die Information dieser zwei(!) Karten ist damit verloren - das Gehirn wird sie nicht verarbeiten - es weiß ja nicht zu welcher Schallquelle diese Informationen gehören!

Bestenfalls wird es eine Karte noch verwenden können, weil es ein „bekanntes Muster“ ist, das zu einer bereits gefundenen Schallquelle passt, aber für eine Lokalisation fehlt die zweite passende Karte.

Je häufiger dieser Fehler vorkommt, desto „unvollständiger“ wird die Information für eine oder gar mehrere Schallquellen!

 

Das bedeutet nun aber nicht, daß diese Schallquelle gar nicht lokalisiert wird oder gar nicht analysiert wird.

Da diese Information zu vorherigen Signalabschnitten und auch zu nachfolgenden Signalabschnitten einer Schallquelle gehören, die ja durchaus gefunden worden sein können, bedeutet dies nur eine „Verschlechterung“ der Erkennung und/oder der Lokalisation (im Bild unten dargestellt).

Auch die Analyse dieser Schallquelle wird nicht unmöglich, sondern nur schwieriger - anstrengender, länger dauern, sie wird „unvollständiger“, „gröber“!

Vorstellbar ist z. B., daß Atemgeräusche einer Stimme oder das Timbre eines Instrumentes (z. B. die Unterschiede zwischen einem Steinway- oder Bechstein-Flügel, einer Guarneri- oder Stradivari-Geige) nicht mehr erkennbar werden, oder die Lokalisation wird ungenauer (die Schallquelle „wandert“ etv. mal kurzzeitig im Raum), wenn die Informationen dieser Schallquelle kurzzeitig verloren „gehen“.

Dies wird auch nicht immer so sein. In weniger komplexen Passagen (also wenn weniger Karten im Spiel sind) oder wenn gut bekannte Muster vorkommen (z. B. Stimmen oder bekannte Instrumente) wird es einfacher, …auch, weil ja mehr Zeit/Gehirnkapazität für den Abgleich zur Verfügung steht.

Man muss sich immer vor Augen halten, daß es ein fortlaufender Prozess ist, bei dem die jeweils gefundenen Signalabschnitte (Karten-Paare) nur ein zeitlicher Abschnitt der gesamten Zeitdauer des Signalverlaufs einer Schallquelle sind.

Das relativiert alle „Fehler“ dieses Prozesses!

Der Übergang von „perfekter“ Erkennung, scharfer Lokalisation und vollständiger Information aller Schallquellen bis zur Nichterkennung, bis zu keiner Lokalisation und bis zu gar keiner Information ist fließend!

Damit ist auch die „Qualität“ der Höreindrücke „fließend“!

Die Qualität der „Höreindrücke“ wird somit entscheidend von den Rahmenbedingungen für die Kreuzkorrelationsfunktion abhängen (bezogen auf die zwei Ohrsignale):

  • Der Anzahl der zu vergleichenden Signalabschnitte (= Anzahl der Schallquellen).
  • Der Komplexität der Signalform (= Komplexität des Signals).
  • Der Größe der Unterschiede zwischen den in beiden Ohrsignalen „enthaltenen“ Signalteile einer Schallquelle (= Symmetrie der Laufzeit- und Pegelunterschiede einer Schallquelle in beiden Ohrsignalen).

 

Diese Rahmenbedingungen können sich laufend ändern – selbst innerhalb eines Musikstückes!

 

Beim Hören von „natürlichen“ Schallquellen kommen Änderungen dieser Rahmenbedingungen, recht selten vor.

Speziell die letzte der o. a. Rahmenbedingungen wird beim Hören von „natürlichen“ Schallquellen immer erfüllt.

Der Schallverlauf jeder Schallquelle kommt immer an beide Ohren! Und die Laufzeit- und Pegelunterschiede „passen“ immer bez. der Richtung dieser Schallquelle zusammen! Es wird nie vorkommen, daß z. B. die Richtungsbestimmung anhand des Laufzeitunterschieds eine andere Richtung „ergibt“ als die Richtungsbestimmung mit den Pegelunterschieden… das gibt es in der Natur nicht…nicht mit zwei gesunden Ohren und unveränderbarer Kopfgeometrie!

 

Wenn die Schallquellen aufgezeichnet und über eine Wiedergabeanlage gehört werden, sieht das Ganze aber schon deutlich anders aus.

Dann hat sowohl die Aufzeichnung an sich, als auch die Wiedergabeanlage einen Einfluss auf die Rahmenbedingungen - vor Allem auf die letzte der o. a. Rahmenbedingung.

Denn, bei einer Stereo-Wiedergabe „enthält“ ja bereits jeder der zwei Stereo-Kanäle einen Schallanteil jeder aufgezeichneten Schallquelle (idealerweise) – und zwar mit Laufzeit- und Pegelunterschieden …also den Bedingungen, die das Gehör für die Kreuzkorrelation auswertet.

 

Damit hat jede Veränderung, die die Wiedergabeanlage an diesem Signalverlauf macht, einen Einfluss auf die Merkmale mit denen das Gehör die aufgezeichneten Schallquellen separieren kann.

Jede Veränderungen der Signalform jedes Kanals oder Veränderungen der „Symmetrie“ zwischen beiden Kanälen verändert zwangsläufig die „Paargleichheit“ zusammengehöriger Schallanteile einer oder mehrerer aufgezeichneter Schallquellen (genau das was im Fehler-Beispiel erläutert wurde).

 

„Erschwerend“ für das Gehör kommt dann noch hinzu, daß sich der Schallverlauf von aufgezeichneten Schallquellen aus Stereo-Boxen vom „natürlichen“ Schallverlauf dieser Schallquellen deutlich unterscheidet (diese Unterschiede sind in meinem Audioclub-Artikel „Schallreproduktion“ erläutert).

 

Welche Eigenschaften einer Stereo-Anlage einen Einfluss auf die Kreuzkorrelationsfunktion des Gehör haben können, ist dann Thema eines anderen Artikels…

 

 Zum Schluss noch ein Zitat von Siegfried Linkwitz
(weil es so gut zu diesem Thema passt):
What you hear is not the air pressure variation in itself
but what has drawn your attention
in the two streams of superimposed air pressure variations at your eardrums

 

Nachtrag 28.12.2016:
Ich habe zu dem Thema Separation natürlich weiter recherchiert. Im Englischen wird dieses Thema als "Auditory Scene Analysis" (ASA) geführt und es gibt hier einige sehr interessante Studien und Beiträge (z. B. http://webpages.mcgill.ca/staff/Group2/abregm1/web/pdf/2004_Bregman_Woszczyk.pdf und generell auf der folgenden Webseite: http://webpages.mcgill.ca/staff/Group2/abregm1/web/index.htm ).
Prinzipiell gehen diese Arbeiten in die gleiche Richtung wie ich in meinen Artikel ausführe... Wer mehr darüber wissen will findet dort weitere sehr interessante Angaben. 

 

Nachtrag 26.02.2018: Eine weitere, gut zum Thema passende wissenschaftliche Arbeit gibt es hier:

http://hauptmikrofon.de/theile/1980-1_Diss._Theile_deutsch.pdf

 








Die Informationen in diesem Dokument werden ohne Rücksicht auf einen eventuellen Patentschutz veröffentlicht. Warennamen werden ohne Gewährleistung der freien Verwendbarkeit benutzt. Die Zusammenstellung von Texten und Abbildungen erfolgte mit größter Sorgfalt. Trotzdem können Fehler nicht vollständig ausgeschlossen werden. Die Verwendung der Informationen und Angaben in diesem Dokument erfolgt auf eigenes Risiko des Benutzers. Die Herausgeber und Verfasser können weder eine juristische Verantwortung noch irgendeine Haftung übernehmen.
Alle Rechte vorbehalten, auch die der fotomechanischen Wiedergabe und der Speicherung in elektronischen Medien. Die gewerbliche Nutzung der in diesem Dokument aufgeführten Angaben ist nicht zulässig.
Markennamen, Firmen- und Produktbezeichnungen die in diesem Dokument verwendet werden sind als eingetragene Markenzeichen geschützt. Da es zum Zeitpunkt der Erstellung nicht immer möglich war zeitnah zu ermitteln, ob ein Markenschutz besteht, erfolgt die Nennung ohne Kennzeichnung mit ®, ©, TM.


Diskus_GL 
alias
Joachim Liepold
im Februar 2016 

 

 
 
 
Cookies sind Dateien, die auf der Festplatte Ihres Computers abgelegt werden und der Erleichterung der Navigation dienen. Wenn Sie keine Cookies akzeptieren, kann dies im Einzelfall zu Funktionseinschränkungen unserer Seiten führen. Soweit Sie Cookies akzeptieren, legt der AudioClub Daten innerhalb der Cookies auf Ihrer Festplatte ab und ruft diese Informationen bei späteren Nutzungen wieder ab. Weitere Informationen finden Sie auf unserer Datenschutz-Seite, Bereich "Cookies"