Audio-Grundlagen

Audio-Grundlagen

Audio-Grundlagen
Grundsätzlich unterscheidet man analoge und digitale Tonsignale. Analoge Tonsignale sind elektrische Signale mit Schwingungen (Kurven). Diese Schwingungen sind sichtbar (etwa die Membrane des Lautsprechers, die Schwingungen eines Fells oder von Saiten) oder (nahezu) unsichtbar (bei den Blasinstrumenten).

Die Schallwellen treffen auf das Trommelfell (mit 340 m/s), die an das Gehirn weitergeleitet und in elektrische Signale umgewandelt werden, so dass man hört. Dieser Vorgang ist rein analog.

Analoge Musik lässt sich speichern, wobei der Vorgang im Grunde stets der gleiche ist: Auf einer Schallplatte beispielsweise wird der Schall in Form von wellenförmigen Vertiefungen in eine Rille gefräst. Das Tonabnehmersystem tastet diese Rille in einer vordefinierten Geschwindigkeit (in der Regel mit 33 bzw. 45 Umdrehungen/Minute) ab und wandelt die unterschiedlichen Vertiefungen in eine elektrische Spannung um.

Dieses Signal wird nun von einem Verstärker verstärkt und an die Lautsprecher weitergegeben, welche das elektrische Signal wieder in Schallenergie umwandeln, so dass die Luft in Schwingungen gerät und Schallwellen entstehen.

Bei digitalen Tonsignalen (wie bei der CD) liegt die Musik nicht in Wellenform sondern als eine Folge von Zahlen vor. Jede Zahl beinhaltet Informationen über die Signalspannung bzw. Amplitude eines Klangausschnitts zu einem bestimmten Zeitpunkt. Das Eingangssignal (also die Musik bzw. das Geräusch) wird in Schwingung (Breite der Welle, Frequenz) und Lautstärke (Höhe der Welle, Amplitude) abgetastet.

Hierfür benötigt man einen sog. A/D-Wandler, welcher das analoge Signal digital (also in Zahlen!) umwandelt. Dieser A/D-Wandler ist in jedem Computer eingebaut und mit dem Line-In der Soundkarte verbunden. Der Computer arbeitet mit dem sog. „Binärzahlensystem“, welches lediglich aus „0“ und „1“ besteht. Bei dem Umwandlungsprozess tastet der A/D-Wandler mehrere tausend Mal in der Sekunde das analoge Signal ab und übergibt das Ergebnis im Binärzahlencode (jede einzelne Zahl nennt man Sample) an den PC, so dass die Musik „digital gespeichert“ wird. Die Anzahl der Samples, welche in der Sekunde aufgezeichnet bzw. abgetastet werden, nennt man Samplingrate.

Der Abspielprozess ist quasi die Umkehrung des Aufnahmeprozesses, denn nun werden die Samples im D/A-Wandler (nun umgekehrt, da digital in analog berechnet wird) wieder über den line-out in ein analoges Signal (Schwingungen) umgewandelt.

Jede einzelne Stelle der verwendeten Binärzahl (Digit) bezeichnet man als „bit“; 8 bit entsprechen einem byte. Je mehr Bits beim umwandeln in Zahlen verwendet werden, desto genauer wird die digitale Aufzeichnung. Je öfter gemessen (also das Signal abgetastet) und somit „nachgebildet“ wird, desto besser ist die Aufzeichnung. Dieser Vorgang heißt „sampling-rate“, welche in „Hz“ (Hertz) angegeben wird.

Die gebräuchlichsten sampling-rates beim Computer sind:


– 11.025 Hz (ungefähr Telefonqualität) 

– 22.050 Hz (ungefähr Radioqualität)

– 44.100 Hz (CD-Qualität), d.h. das Klangmaterial wird 44100 Mal in derSekunde gemessen!

Hierbei gibt es eine „Beziehungs-Formel“, der zufolge der höchste digitalisierbare Ton der halben sampling-rate entspricht, was bedeutet, dass die Frequenz des höchsten Tones einer CD (44,1 KHz) nicht höher als 22 KHz sein darf, was ohnehin außerhalb unseres Hörvermögens liegt, da wir in der Regel bis 16 KHz hören können.

Für den „guten Sound“ ist allerdings noch die Tiefe des samplings (Auflösung) relevant, welche die Genauigkeit erfasst. Je feiner (je mehr bits) diese, desto genauer der „digitale Nachbau“, wobei auch hier das menschliche Ohr Grenzen steckt, denn mehr als 16 bit (was 65536 einzelnen Spannungsschritten entspricht) kann man nicht hören. Trotzdem arbeiten Tonstudios mit 48 KHz und einer Auflösung von 24 bit, da bei der digitalen Bearbeitung ein „gewisser Schwund“ auftritt. Mit diesem „Trick“ beugt man hörbaren Verlusten vor.

Beim Aufzeichnen digitaler Klänge sollte man sich vergegenwärtigen, dass hierfür enorm viel Speicherplatz benötigt wird. Um optimal aufzuzeichnen, arbeitet man mit 44,1 KHz und 16 bit, was 2 byte entspricht.

Somit errechnet sich der Speicherplatz wie folgt:
44100 Hz x 2 byte x 2 (Kanäle, da Stereo) = 176.400 bytes/Sekunde

Dies entspricht 10,584 MB/Minute. Um diese Datenmengen auf dem Computer zu reduzieren, bietet es sich an, die Dateien zu „komprimieren“. Hierfür sind spezielle Programme (Codec genannt) vonnöten, die das Volumen merklich verringern.

Das „MPEG-1 Audio Layer 3“-Format (Motion Picture Expert Group, kurz mp3) wurde ursprünglich zum Komprimieren von Filmdaten entwickelt.
Mit diesem Format ist es allerdings möglich, Audio-Dateien in recht guter Qualität „speicherplatzschonend“ zu speichern, da das Volumen hierbei nur noch ca. 1/10 ausmacht.

Allerdings ist dieses Format leider für die meisten „Schulversionen“ nicht nutzbar. Von daher müssen MP-3-Dateien immer wieder in wav.-Dateien konvertiert werden, um sie benutzbar zu machen. Das Abschlussergebnis kann dann wieder rekonvertiert werden.