Musikproduktion – Digitaltechnik in der Musikproduktion
Author D.Selzer-McKenzie
https://youtu.be/xiv0nQ-NAtY
Die Digitaltechnik hat in viele Bereiche unseres Lebens
Einzug gehalten. Nicht nur in der Kommunikation oder in einem Automobil oder
beim Fernsehen geht nichts mehr ohne Digitaltechnik. Selbst Waschmaschinen sind
digital gesteu-ert, und es gibt sogar digital gesteuerte Staubsauger.
Grundlage der Digitaltechnik ist die Tatsache, dass man alle
Arten von Daten als ein digitales Datenwort darstellen kann. Solch ein
Datenwort besteht aus einer Aneinanderreihung von langweiligen Nullen und
Einsen. Voraussetzung dafür ist die Umwandlung der Daten von einem analogen in
ein digitales Format. Weil wir selbst mit Nullen und Einsen nichts anfangen
können, muss das digitale Wort irgendwann wieder in das ursprüngliche Format
gewandelt werden, wel¬ches wir eigentlich nutzen möchten.
Auf der digitalen Ebene kann man mit solchen Digitalwörtern
eine Menge Dinge tun, die in der analogen Welt entweder schwieriger.
verlustbehaftet oder überhaupt nicht möglich wären. Das ist, ganz allgemein
gesagt, der Sinn der Digitaltechnik. Eine der gebräuchlichsten Anwendungen ist
die Speicherung. Festplatten haben mittlerweile eine Kapazität im
Terabyte-Bereich. Auf einer Festplatte für 90 Euro haben etwa 25.000 Songs von
4 Minuten Länge im CD-Audioformat Platz. Nun ist die Speicherung bei Weitem
nicht alles, was die Digitaltechnik leistet. Jede Funktion, die sich als eine
mathematische Aufgabe darstellen lässt, kann von einem Rechner bravourös
erledigt werden, wenn die zu bearbeitenden Daten erst einmal im digitalen
Format vorliegen.
Was hat das alles mit Musik zu tun?
Es ist nicht so leicht vorstellbar, aber: Ein gebräuchlicher
Computer ist mit einem entsprechenden Programm in der Lage, jeden nur
erdenklichen Klang zu erzeugen, eben weil auch die Klangerzeugung als
mathematische Aufgabe gelöst werden kann. Aber beginnen wir von vorn.
Analog-Digital-Wandlung
Akustische Ereignisse in einem Frequenzbereich von 20 Hz bis
20.000 Hz nimmt das menschliche Ohr als Schalldruckschwankungen wahr. Die
Einheit für den Schalldruck ist Pascal (Pa). Mit einem Schallwandler (Mikrofon)
kann
man Schalldruckschwankungen in eine elektrische Spannung
umwandeln. Diese Spannung wird beim Digitalisieren in einen binären Code
gewandelt. Binär bedeutet, dass es zur Darstellung dieses Codes nur zwei
unterschiedli-che Zeichen gibt, die Null und die Eins. Diese Zeichen werden
entsprechend des darzustellenden Wertes aneinandergereiht. Ein Zeichen
entspricht in der digitalen Welt einem Bit. Die Zahl 8 wird beispielsweise als
1000 (bei einem 4-Bit-Wort) dargestellt.
Wozu digitalisieren?
Um sich dieser Frage zu nähern, betrachten wir die Vorgänge
in einem Ton-studio:
Ein musikalisches Ereignis wird mithilfe einer
Übertragungskette von einem Ort (Sender) zu einem anderen Ort (Empfänger)
übertragen. Der Begriff Über-tragungskette stammt aus der Rundfunktechnik. Eine
einfache Übertragungs-kette besteht aus einem Mikrofon, einem Verstärker, ein
paar Verbindungska-beln und mindestens einem Lautsprecher. Mit diesem Setup ist
es möglich, den Sänger in einem Raum singen zu lassen und dabei seine Stimme in
einem ande¬ren Raum zu hören. Wenn eine Übertragungskette zusätzlich ein
Speicherme¬dium enthält, ist es auch möglich, die Stimme zu einem späteren,
beliebigen Zeitpunkt wiederzugeben. Dabei ist das Ziel, die Qualitätsverluste
gegenüber der Originalstimme so weit wie möglich zu minimieren. Viele kleine
technische Unzulänglichkeiten wie zum Beispiel das Rauschen eines Verstärkers
oder das Rauschen einer analogen Bandaufzeichnung oder der Verlust von hohen
Frequenzen durch ein billiges Kabel führen in der Summe zu einem hörbaren
Qualitätsverlust. Wie bei jeder anderen Kette auch bestimmt das schwächste
Glied die Qualität der ganzen Konstruktion.
Probleme der analogen Audiotechnik
Nehmen wir als Beispiel eine analoge Bandmaschine mit einem
Magnetband als Speichermedium. Durch die Verteilung der Magnetteilchen auf dem
Band wird der Musik ein Bandrauschen hinzugefügt. Da dieses Rauschen einen
relativ konstanten Pegel aufweist, wird das Rauschen immer auffälliger, je
lei¬ser die Musikaufnahme ist. Das Lautstärkeverhältnis zwischen der Musik und
dem Rauschen nennt man Rauschabstand (engl. signal to noise ratio). Diesem
Begriff begegnet man auch bei den technischen Spezifikationen eines
Verstär-kers, denn (fast) jeder Verstärker rauscht zumindest ein kleines bisschen.
Jetzt wird's digital ...
Wenn die Übertragungskette jedoch nur einen binären Code zu
übertragen hat, dann spielen diese technischen Unzulänglichkeiten wie
Bandrauschen keine Rolle mehr. Ein binärer Code kennt nur zwei unterschiedliche
Informationen: Null und Eins oder „Spannung an" und „Spannung aus".
Wenn die Übertra-gungskette diese beiden Zustände einwandfrei voneinander
unterscheidet, dann spielen zusätzliche Störgeräusche innerhalb der
Übertragungskette keine Rolle mehr.
Pegel
Bei der Aufbereitung und Digitalisierung eines akustischen
Schallereignisses durchläuft das Signal mehrere Stufen. Die Spannung, die ein
Mikrofon erzeugt, ist proportional zur Stärke des Schallereignisses und sie ist
Zeit kontinuierlich. Die erzeugte Spannung liegt selbst bei einem sehr lauten
Signal von einem Pascal Schalldruck nur im Millivolt-Bereich. Sie ist also sehr
gering. Daher muss diese Spannung auf einen sogenannten Line-Pegel angehoben
werden. Dieser Pegel beträgt in einem professionellen Tonstudio 6 dBu (1,55
Volt) bei 100 Prozent Vollausschlag, bei Hi-Fi-Anlagen beträgt er -10 dBu (0,32
Volt). Der Line-Pegel kann nun mithilfe eines Analog-Digital-Wandlers in ein
digitales Signal beziehungsweise Codewort gewandelt werden. Und das geht so:
Abtastung
Als ersten Schritt tastet der Analog-Digital-Wandler das
analoge Signal in immer gleichbleibenden Intervallen ab. Dieses Verfahren nennt
man Pulse-Amplituden-Modulation (PAM). Bei jeder einzelnen Abtastung wird ein
Wert ermittelt. Damit wird aus einem kontinuierlichen Signal eine Reihe von
einzel-nen Werten. Jeder Wert wird als ein Sample verstanden. Mit der
sogenannten Sample-and-Hold-Schaltung wird der ermittelte Wert so lange
konstant gehal-ten ,t\s das nächste Sample ermittelt ist. Böse Zungen sagen, das
Audiosignal werde bei diesem Vorgang zerhackt.
Ein wichtiges Kriterium für die Qualität eines digitalen
Signals ist die Anzahl der Abtastungen. Je höher die Sample-Rate ist, umso
höher ist die Auflösung. Mit einer höheren Sample-Rate steigt aber auch die
Datenmenge. Nach dem Nyquist-Shannon-Abtastheorem muss die Sample-Rate mehr als
doppelt so hoch sein als die höchst abzubildende Frequenz. Wird diese Bedingung
nicht
Dynamik
Ein dB SPL (Sound Pressure Level) ist als der von einem
Menschen noch hör-bare kleinstmögliche Lautstärkeunterschied bei 1.000 Hz
definiert. Mit einer Dynamik von 96 dB kann sogar der leise Flügelschlag eines
Schmetterlings wiedergegeben werden, wenn alle anderen Komponenten der
Übertragungs-kette auch in der Lage sind, eine solche Dynamik darzustellen.
Digital-Analog-Umsetzer (DAU)
Das einmal digital gewandelte Signal ist nach der
Zurückwandlung nicht mit dem ursprünglichen analogen Signal identisch. Die
durch die Quantisierungs-fehler verloren gegangenen Informationen sind
definitiv perdu.
Der DA-Wandler wird aus einer begrenzten Anzahl von Samples,
für die jeweils ein digitaler Wert entstand, wieder eine zeitkontinuierliche
analoge Spannung wandeln. Mithilfe eines Tiefpassfilters wird sichergestellt,
dass alle uner-wünschten hohen Frequenzanteile, die durch das Sampeln
entstanden sind, vom Nutzsignal getrennt werden. Außerdem kompensiert
(verschmiert) er die bei der Digitalisierung entstandenen Quantisierungsfehler
etwas.
Höhere Samplefrequenz
Mit einer Sample-Rate von 88 KHz oder höher ist es möglich,
Frequenzen beziehungsweise Obertöne weit oberhalb von 20.000 Hz zu übertragen.
Da eine Samplefrequenz von 44,1 KHz nur knapp über dem doppelten Wert von
20.000 Hz liegt, muss der Tiefpassfilter sehr steilflankig sein, also innerhalb
einer Oktave beinahe 100 dB dämpfen, um störende Aliasing-Effekte zu ver¬meiden.
Mit einer höheren Sample-Rate muss dieser Filter nicht solch hohen
Anforderungen genügen. Allerdings steigt mit der Sample-Rate auch die
Datenmenge, und das macht sich bei der Handhabung und dem Abspeichern von
Mehrspuraufnahmen nachteilige bemerkbar.
Frage, was das menschliche Ohr oberhalb von 20 KHz an
Frequenzen hört oder psychoakustisch wahrnimmt, ist bisher nicht eindeutig
geklärt. Auch die klanglichen Einbußen eines steilflankigen Aliasing-Filters,
der bei 44,1 KHz Sample-Rate zwingend notwendig ist, sind umstritten.
Wird eine Musikproduktion in einer hohen Abtastrate
erstellt, dann muss die digitalisierte Musik in den meisten Fällen am Ende der
Produktionskette wie¬der auf 44,1 KHz heruntergerechnet werden, da das
CD-Audioformat diese Sample-Rate vorschreibt. Auch bei dieser Wandlung entsteht
eine Klang¬beeinflussung, die den Vorteil einer hohen Abtastrate zumindest
teilweise wieder zunichtemacht. Einige Ingenieure/Mathematiker empfehlen daher
eine Abtastrate, die einem ganzzahligen Vielfachen der Ziel-Sample-Rate
entspricht.
Nach meiner Erfahrung ist der Klangvorteil einer höheren
Sample-Rate, wenn überhaupt, nur feststellbar, wenn man den Vergleich in ein
und derselben Abhörsituation durchführt. Begibt man sich mit einer
„High-End-Produktion" an einen anderen Ort, dann überlagern die
veränderten akustischen Bedin¬gungen den technischen Vorteil. Die maßgeblich
schwächsten Glieder in einer Übertragungskette sind in den meisten Fällen die
Lautsprecherboxen
Es gibt gute Gründe, bei einer digitalen Audioproduktion
eine höhere Bit-Rate als 16 Bit zu verwenden. Da man bei der Aufnahme und
Digitalisierung eines Audiosignals eine Übersteuerung unbedingt vermeiden
sollte, wird zur Sicher-heit ein Headroom von 6 bis 10 dBFS eingehalten. Damit
schrumpft die theo-retische Dynamik von 16 Bit erheblich. Infolge dessen hat
sich bei Aufnahmen eine Bit-Rate von 24 oder 32 Bit etabliert.
Gehe ich der Frage nach, ob eine höhere Auflösung als 16 Bit
sinnvoll ist, so unterscheide ich zwei Aspekte. Das eine Thema beschäftigt sich
mit der Frage: Was höre ich in einer fertigen Musikproduktion? Höre ich einen
bes¬seren Sound, wenn ich einen Titel mit einer Auflösung von 24 oder 32 Bit
wiedergebe?
Nun bin ich als Toningenieur gewohnt, einen Musiktitel bei
intensivem Hören in seine Einzelteile zu zerlegen. Mir fällt der Gitarrensound
auf, der Reverb auf der Snaredrum, die Intonation der Stimme und so weiter,
aber ich nehme definitiv keinen Unterschied bei einer höheren Bit-Rate wahr.
Ganz anders ist die Sachlage während des Ablaufs einer
digitalen Musikpro-duktion. Wie ich bereits beschrieben habe, kann man die 16
Bit bei einer Auf-nahme nicht ausnutzen, da man aus technischen Gründen einen
Headroom lassen muss. Hier ist die Wahl einer höheren Bit-Rate unbedingt
angebracht. Bei einer 24-Bit-Aufnahme muss man sich keine Gedanken mehr um die
Auflösung bei sehr geringem Pegel machen. Auch die Klangqualität eines
digitalen Equalizers oder eines Reverbs verbessert sich mit einer höheren
Auflösung deutlich.
Sample-Rate-Konvertierung und Truncation
Wird ein Audiofile mit einer geringeren Abtastrate
abgespielt, als es selbst zur Verfügung stellt, werden die überzähligen Bits
ignoriert. „Truncation" bedeutet das Abschneiden eines Teils der
digitalisierten Audioinformation. Das betrifft vor allem die Musikanteile am
unteren Rande der Dynamik, also die sehr leisen Töne. Bei der Wiedergabe können
Verzerrungen hörbar werden.
Bei der Umwandlung eines 24-Bit-Files in ein 16-Bit-File
wird dieses Problem mithilfe des Ditherings kompensiert. Hierbei wird ein
leises Rauschen hinzu-gefügt. Solch ein Dithering wird immer dann notwendig,
wenn eine Produktion mit einer Auflösung von 24 Bit oder 32 Bit auf das
CD-Audio-Format (16 Bit) zu konvertieren ist.
Fehlerkorrektur
Wenn bei einer Übertragung von digitalen Audiodaten nur ein
einziges Bit „umkippt", also von 1 auf 0 oder umgekehrt, dann ist eine
korrekte Decodie-rung nicht mehr möglich. Es können hörbare Störungen, je nach
musikalischem Inhalt beispielsweise Knacker, auftreten. Um dies zu vermeiden,
werden zu der eigentlichen Audio-Information zusätzliche Daten übertragen.
Es werden einzelne Prüf-Bits in die Datenblöcke integriert,
die sogenannte Prüfsummen enthalten. Die Quersumme eines jeden Datenblocks
ergibt einen geraden oder einen ungeraden Wert. Geht nun ein einzelnes Bit bei
der Über-tragung verloren, stimmt die tatsächliche Quersumme nicht mehr mit dem
Wert des Prüf-Bits überein. Diese Art der Prüfung nennt man Paritätsprüfung.
Sie ist nur rudimentär, da zum einen nicht erkannt wird, welches Bit
„umgekippt" ist, und zum anderen kein Fehler erkannt wird, wenn zufällig
zwei Bits ihren Wert verlieren.
Ist ein kompletter Datensatz unlesbar, entstehen sogenannte
Dropouts (Aus-setzer). Um diese Fehler zu korrigieren, wird der fehlende Wert
interpoliert. Bei der Dropout-Kompensation wird der Mittelwert aus dem
Datenwert vor und nach dem fehlerhaften Datenblock gebildet. Werden mehrere
Datenblöcke vor und nach dem Fehler in die Berechnung einbezogen, kann der
Fehler nahezu perfekt kompensiert werden. Für diese Fehlerbeseitigung ist
allerdings der technische Aufwand größer.
Digitale Audioformate
Mittlerweile gibt es eine ganze Reihe digitaler
Audioformate. Man unterschei¬det grundsätzlich zwischen verlustfreien und
verlustbehafteten Formaten. Und man unterscheidet zwischen komprimierten und
unkomprimierten Datenfor¬maten.
Verlustbehaftet bedeutet in der digitalen Audiotechnik eine
Datenreduktion, bei der die, allem Anschein nach, nicht (oder kaum) hörbaren
Frequenzanteile eliminiert werden. Im folgenden Abschnitt werden einige der
bekanntesten Formate mit ihren Merkmalen aufgelistet.
Verlustfreie Formate
Das Wave-Format wurde von Microsoft entwickelt. Es basiert
auf dem Res¬source Interchange File Format (RIFF). Am Anfang eines jeden
Datenblocks, dem Header, befinden sich zusätzliche Informationen (Metadaten).
Dazu gehört die Identifikation als Audiodatei, die Dateigröße, die
Sampling-Rate, die Bit-Rate und Informationen darüber, ob es sich um ein Mono-
oder Stereo-File handelt.
Das BWF-Format (Broadcast Wave Format) wurde 1997 von der
EBU (Europä¬ische Rundfunkunion) spezifiziert. Es entspricht im Aufbau dem
Wave-Format, beinhaltet jedoch zusätzliche Metadaten. Das können beispielsweise
Angaben über das Entstehungsdatum oder über die Lautheit des Titels sein. Da
die¬ses Format die Dateiendung „wav" enthält, kann es von jedem
gewöhnlichen Audio-Programm gelesen werden.
Das AIFF-Format wurde von Apple Macintosh entwickelt. Es
basiert, ähnlich wie es bei einer Wave Datei der Fall ist, auf dem IFF-Format.
Der Unterschied zum Wave-Format liegt nur in den Informationen des Headers.
Weitere verlustfreie Audioformate sind unter anderem das
CDDA-Format (Audio CD) und das FLAC-Format. Die Datenrate bei dem
CD-Audio-Format beträgt etwa 1.400 kbit/s.
Das Format Apple Lossiess Audio Codec (ALAC) ist ein von
Apple entwickeltes Audioformat, das nicht verlustbehaftet ist, obwohl es
datenkomprimierend ist. Es wird vom iPhone, den meisten iPads und
Macintosh-Rechnern unterstützt.
Verlustbehaftete Formate
Das MP3-Format mit der genauen Bezeichnung MPEG-1 Audio
Layer III ist ein verlustbehaftetes Audioformat zur Übertragung und Speicherung
von Audio-daten. Es wird im Gegensatz zum Wave- und Al FF-Format als
verlustbehaftet bezeichnet, da nur ein kleiner Teil der original Audiodaten
erhalten bleiben. Je nach Codierung werden nur etwa 10 Prozent der Datenmenge
im Vergleich zu einem verlustfreien Format verwendet. Das vom Fraunhofer
Institut entwickelte Verfahren nutzt geschickt psychoakustische Effekte, um die
Daten wegfallen zu lassen, die scheinbar unhörbar sind. Leise Töne, die von
lauten Tönen über¬deckt sind, werden beispielsweise ignoriert. Außerdem ist der
Frequenzumfang im Vergleich zu einem verlustfreien Digitalformat reduziert. Bei
der Codierung
kann der Anwender die Bit-Rate wählen. Mit steigender
Bit-Rate steigt die Klangqualität, aber auch die Größe eines Files. Das beste
Ergebnis erreicht man bei einer Codierung mit variabler Bit-Rate. Der Encoder
wählt je nach Inhalt des Originals die Bit-Rate.
Eine Bit-Rate von 320 Kbit/s stellt einen akzeptablen
Kompromiss zwischen möglichst hoher Klangqualität und möglichst kleinem
Datenformat dar. Schwierig ist es, ein datenkomprimiertes File digital
weiterzubearbeiten. Da nur noch ein kleiner Anteil der Original-Daten vorhanden
ist, können beispiels-weise Frequenzanteile, die einmal herausgerechnet wurden,
nicht mehr ver-stärkt werden.
Das AAC-Format (Advanced Audio Coding) ist mit dem
MP3-Format ver-gleichbar. Es soll bei vergleichbarer Datengröße eine etwas
bessere Klangqua-lität bieten. Musikanbieter wie iTunes verwenden dieses
Format, da mit dem integrierbaren DRM (Digital Rights Management) die
Nutzungsrechte einge-schränkt werden können.
Das Ogg Vorbis ist auch ein verlustbehaftetes digitales
Audioformat, das bes¬ser als MP3 klingen soll. Es ist allerdings nicht sehr
verbreitet.
Das Unternehmen Dolby hat neben dem Fraunhofer-Institut das
am meisten verbreitete System zur Datenreduktion von Audioformaten entwickelt.
Das Dolby-Digital-Format umfasst bis zu sechs Kanäle (5.1-Ton). Es wird für den
Ton von Kinofilmen und für das DVD-Videoformat verwendet. Die sechs Kanäle sind
aufgeteilt in: links und rechts, Mitte (ausschließlich für Sprache), hinten
links und rechts (Surround-Kanäle) und Low-Frequency-Effects (LFE). Das
Codierverfahren AC-3 nutzt ähnlich wie das MP3-Format psychoakustische Effekte,
um die hohe Datenmenge von sechs Audiospuren zu reduzieren.
Das WMA-Format (Windows Media Audio) ist ein von Microsoft
entwickeltes proprietäres Audioformat. Es arbeitet ähnlich wie MP3 mit
Datenkompression und unterstützt bis zu 24 Bit und 96 KHz bei einer variablen
Bit-Rate. Auch Mehrkanal-Ton bis zu 7.1 ist möglich.
Weitere verlustbehaftete Audioformate sind unter anderem das
Real-Audio-Format und das DTS-Format.
Digitale
Schnittstellen
Zur Verbindung von zwei oder mehreren digitalen Audiogeräten
stehen je nach Gerät und Anwendung verschiedene digitale Schnittstellen zur
Verfügung.
Die Schnittstelle S/PDIF (Sony/Phillips Digital Interface)
ist bekannt als digi-tale Verbindung von Consumer-Geräten. Als Steckverbindung
dient ein Cinch-Anschluss (75-Ohm-Coaxialkabel) oder ein Toslink-Anschluss
(Lichtwellenlei-ter für optische Signalübertragung).
Die Schnittstelle AES/EBU (Audio Engineering
Society/European Broadcast Union) ist professionellen Geräten vorbehalten. Das
Format der Audiodaten ist annähernd identisch mit dem Format S/PDIF. Diese
Schnittstelle ist meist als symmetrische XLR Verbindung ausgeführt. Daher ist
sie ähnlich wie symme-trische Mikrofonkabel unempfindlicher gegen
elektromagnetische Einstrah-lungen. Hier ist ein 110-Ohm-Kabel zu verwenden.
Viele professionelle Geräte bieten sowohl AES/EBU- als auch S/PDIF-Anschüsse.
Die ADAT Schnittstellet dient zur Übertragung von bis zu
acht Spuren bei einer Sample-Rate von maximal 48 KHz. Dabei wird die optische
Übertragung über Toslink verwendet. Bei der Übertragung mit einer Sample-Rate
von 96 KHz können maximal vier Spuren übertragen werden.
Multi Channel Audio Digital Interface (MADI)
Diese Schnittstelle wurdegeschaffen, um eine Übertragung von
mehreren Digi-talsignalen gleichzeitig zu ermöglichen. Nach der letzten
geänderten Spezifika-tion der AES10 ist je nach Anzahl der zu übertragenden
Kanäle eine Sample-Rate von bis zu 192 KHz möglich. Bei einer Sample-Rate von
48 KHz oder 44,1 KHz können gleichzeitig bis zu 64 Kanäle mit 24 Bit übertragen
werden.
Synchronisation
Digitale Audiodaten werden nicht zeitkontinuierlich
übertragen, sondern in Blöcken zusammengefasst. Diese Blöcke enthalten neben
den eigentlichen Audiodaten Informationen über den Stereokanal, Informationen
zur Datensi-cherheit und zur Synchronisation.
Bei der Übertragung von digitalen Audiodaten von einem Gerät
zu einem ande-ren ist es zwingend notwendig, den Datenstrom zu synchronisieren.
Dabei wird das sendende Gerät als Master definiert, den Empfänger nennt man
Slave. Der Master gibt den genauen Takt der Sample-Rate vor. Wenn mehrere
Geräte hinter¬einander geschaltet werden, wird das erste Glied der Kette als
Master definiert.
Als Synchronisationstakt fungiert die Sample-Rate. Bei einer
Sample-Rate von 44,1 kHz beginnt also jeden 44.100sten Teil einer Sekunde ein
neuer Daten-block. Damit wird der entscheidende Anfang eines jeden Datenblocks
definiert.
Was passiert nun, wenn der Datenstrom nicht einwandfrei
funktioniert? Dies kann beispielsweise bei sehr großen Kabellängen geschehen,
oder es kann Probleme geben, wenn man mehrere Slaves hintereinander schaltet.
Als Folge können Knackgeräusche hörbar werden oder schlimmstenfalls kann die
Über-tragung aussetzen. Eine gewisse Anzahl von Übertragungsfehlern kann
mit-hilfe der Fehlerkorrektur kompensiert werden.
Eine professionelle Lösung bietet ein externer
Taktgenerator. Dort wird die Sample-Rate festgelegt und alle digitalen Geräte
werden dort als Slave parallel angeschlossen. Damit erhalten alle Geräte den
exakt gleichen Takt. In den einzelnen Geräten muss die Synchronisation auf
extern geschaltet werden.
Welche Probleme sind bei der digitalen Übertragung hörbar?
Grundsätzlich unterteile ich zwei Problemarten:
1. Fehlerhafte
Datenübertragung
2. Synchronisationsfehler
Zu 1: Fehlerhafte Datenübertragung
Es ist natürlich nicht ausgeschlossen, dass es zu Fehlern
bei der Übertragung kommt. Die digitalen Impulse sind sehr steilflankig. Wenn
diese Flanken nicht einwandfrei übertragen werden, kann es passieren, dass eine
1 „umkippt" und zu einer 0 wird. Das kann beispielsweise passieren, wenn
man ein falsches Kabel mit einer großen Kabellänge verwendet. Ein billiges
Kabel wirkt unter Umständen wie ein Tiefpassfilter, der hohe Frequenzen
eliminiert (NF-Kabel statt 75-Ohm-Kabel). Wenn nur ein einzelnes Bit
„umkippt", dann sollte das kein Problem sein. Wie beschrieben gibt es
Prüfsummen und Fehlerkorrek¬turen, die solch einen Fehler aufspüren und
kompensieren. Wenn eine technische Unzulänglichkeit vorliegt, dann bleibt es
selten bei einem einzelnen Fehler. Ganze Datenblöcke können verloren gehen und
damit die Fehlerkorrektur überfordern. In diesem Falle könnten
ein Knacken oder sogenannte Glitches hörbar werden. Im
schlimmsten Falle
setzt die Übertragung kurz vollständig aus. Also: Richtiges
Kabel verwenden!
Zu 2: Synchronisationsfehler
Ich habe mit Spezialisten die Frage nach dem möglichen
Soundverlust bei schlechter Synchronisation diskutiert. Gibt es bessere und
schlechtere Syn¬chronisation? Ist es sinnvoll 100 EUR für ein Digitalkabel
auszugeben?
Die Antwort war wunderbar klar und einfach: „Man nehme einen
Sinuston von 1.000 Hz und schicke ihn durch die komplette Anlage. Hört man am
Ende ein leises unregelmäßiges Knacken, dann existiert ein Problem mit der
Synchroni¬sation. Hört man nichts dergleichen, dann ist alles gut. Alles andere
ist Voodoo.
Ein zusätzlicher kleiner Tipp von mir:
Eine Digitalverbindung über AES/EBU (XLR-Kabel) verbindet
auch die Masse-Potenziale zweier Geräte miteinander. Das führt gern zu
Brummschleifen und einem ganzen Sortiment von möglichen Folgen. Es ist
bekanntermaßen lebensgefährlich, bei einem der Geräte den Masseanschluss am
Netzstek-ker abzuklemmen, um eine Brummschleife zu vermeiden, aber das
Abtrennen eines Masseanschlusses des XLR-Kabels an einer Seite empfiehlt sich
zur Vermeidung von Brummschleifen (und ist ungefährlich).
Bei einer digitalen Verbindung mit einem Lichtfaser-Kabel
(Toslink-Steck-verbindung) erübrigt sich dieses Problem, da keine elektrisch
leitende Ver¬bindung besteht.
Keine Kommentare:
Kommentar veröffentlichen
Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.