In der PlayStation 5 wird bekanntlich ein Chip speziell für die Berechnung und die Realisierung von 3D-Audio eingesetzt. Sound in Spielen wird im Vergleich zur Grafik oftmals unterschätzt und daher soll die 3D-Audio-Technologie dafür sorgen, dass die Immersion weiter steigt. Hierzu sagte Samuel Justice (Mitbegründer von Sweet Justice Sound; beteiligt am Sounddesign von Fortnite und Injustice 2) in einem Interview mit GamesRadar: „Ich glaube, die reine Rechenleistung, die für die Erstellung realistischer Audiomodelle benötigt wird, wird weitgehend unterschätzt. In der Vergangenheit ist es uns gelungen, durch eine Menge Tricks und clevere Techniken ziemlich gute Darstellungen akustischer Modelle zu erstellen. Die Möglichkeit, voll automatisiertes 3D-Audio zu realisieren, ist ein großer Schritt nach vorn für Sound in Spielen und wird sicherlich zu viel immersiveren Erlebnissen führen“.
Laut dem Bericht bei GamesRadar sollen die Verbesserungen bereits bei „Standard-TV-Lautsprechern“ und normalen Stereo-Kopfhörern zu hören sein. Mit (speziellen) Kopfhörern soll die Sound-Erfahrung aber deutlich intensiver ausfallen. Marcus Klang (Sounddesigner von Fe und Ghost Giant bei Zoink) erklärt weiter: „Wie kann man mit einem normalen Stereo-Kopfhörer Klänge erzeugen, die von […] oben oder hinten kommen? Die Antwort ist die Verwendung von HRTF, der kopfbezogenen Übertragungsfunktion [head-related transfer function]. Sie beschreibt, wie Geräusche vom Kopf, Körper und Außenohr gefiltert werden, bevor sie das Ohr erreichen, je nach Richtung des eintreffenden Geräusches. Alle Menschen haben unterschiedlich geformte Köpfe, Körper und Ohren, und daher hat jeder seine eigene HRTF. […] Es werden oft allgemeine Werte verwendet [beim Sounddesign für Spiele], die auf der Messung der eigenen HRTF oder der Dummyköpfe verschiedener Personen basieren – und es kann ein wenig schwierig sein, diese Werte zu reproduzieren, damit sie für alle passen.“
Marcus Klang zieht einen Vergleich zum Raytracing (zur Verbesserung der Grafikqualität) und meinte, dass die Grundlagen dieser Technologie überraschend viele Anwendungen in anderen Disziplinen hätten und dazu würde auch die Zukunft des Sound-Designs gehören. „Es kann verwendet werden, um das Gefühl von Realismus durch genauere Anpassungen/Justierungen des Sounds abhängig von der Umgebung des Spielers zu verbessern, in Echtzeit“, sagte er.
Bei der ersten Ankündigung der PS5-Hardware erklärte Mark Cerny gegenüber Wired: „Mit der kommenden Konsole ist es der Traum, zu zeigen, wie dramatisch anders das Audioerlebnis sein kann, wenn wir eine beträchtliche Menge an Hardware-Power dafür bereitstellen.“ In der PlayStation 5 soll eine eigene 3D-Audio-Unit auf dem AMD-Chip für 3D-Sound zuständig sein. Man soll kleine, subtile Geräusche hören können, die z. B. von herumschleichenden Feinden kommen könnten. Die zusätzliche Rechenleistung im Vergleich zur aktuellen Generation soll für ein bedeutend besseres Klangerlebnis sorgen. Laut Cerny sei der Vergleich bzw. die Vorstellung „von Raytracing für Sound“ gar nicht so abwegig. Er spricht von einem neuen Gold-Standard für die Nutzer von Kopfhörern.
Ich habe keine Ahnung von Sound-Technik und -Konzepten. Bin nur immer wieder erstaunt, wie gut meine Stereo-Kopfhörer den Sound bei Battlefield V wieder geben und ich dort exakt die Richtung, aus der das Geräusch kommt, orten kann. Vorn, hinten, links, rechts. Mir genügt das.
Laut wiki steht dazu das:
"Das Außenohr des Menschen, das heißt die Ohrmuschel und der Anfang des Gehörgangs, wirken als richtungsselektive Filter. In der Struktur der Ohrmuschel werden je nach Schalleinfallsrichtung in der Medianebene unterschiedliche Resonanzen angeregt. Dieses führt dazu, dass jede dieser Richtungen (vorne, oben, hinten, unten) ein unterschiedliches Resonanzmuster besitzt. Der Frequenzgang der Ohren bekommt so richtungsspezifische Muster eingeprägt, die vom Gehör-Gehirn-System ausgewertet werden (richtungsbestimmende Bänder).
Diese Muster im Frequenzgang sind individuell, je nach Form und Größe der eigenen Ohrmuschel. Bekommt man Schall über Kopfhörer dargeboten, der von einem anderen Kopf mit anderen Ohrmuscheln aufgenommen wurde, wird die Erkennung der Richtung in der Medianebene nicht mehr problemlos möglich. Beispiel: Das überwiegende Hinten-Lokalisieren von Kunstkopfaufnahmen und die „Im-Kopf-Lokalisation“ (IKL). "
Ich habe gelernt, dass wenn man gewisse hohe Frequenzbereiche betont (mit einem shelf-eq zb.), diese auch "höher (und weiter vorne)" wargenommen werden.
Damit sind denke ich auch diese "Filter" gemeint, die unsere Ohrmuschel auf Grund ihrer Form hat und dass wir uns das dadurch einfach evolutionsbedingt angelernt haben.
Man musste damals auch Orten können woher der Schrei des Bären kommt und wie weit er entfernt war, dies haben wir gelernt indem wir irgendwann wussten dass, je dunkler ein Geräusch war und die hohen Frequenzen gefehlt haben, desto weiter war er auch weg.
Ich bin gespannt wie man das auf Kopfhörer übertragen will, zumindest mit der oben unten lokalisation denn ein delay (selbst im ms bereich) wird es denk ich einfach nur räumlicher machen.
Ne... Dein Gehör ist auch nur Stereo. Schall von oben erkennt dein Gehirn durch diese Zeitversetzung. Fügt man einem Audio Signal diese Versetzung hinzu glaubt dein Gehirn die Schallquelle oben zu finden. Und dafür reichen Stereokopfhörer