Dienstag, 16. Februar 2016

Musikproduktion – Digitaltechnik in der Musikproduktion


Musikproduktion – Digitaltechnik in der Musikproduktion

Author D.Selzer-McKenzie

https://youtu.be/xiv0nQ-NAtY

 

Die Digitaltechnik hat in viele Bereiche unseres Lebens Einzug gehalten. Nicht nur in der Kommunikation oder in einem Automobil oder beim Fernsehen geht nichts mehr ohne Digitaltechnik. Selbst Waschmaschinen sind digital gesteu-ert, und es gibt sogar digital gesteuerte Staubsauger.

Grundlage der Digitaltechnik ist die Tatsache, dass man alle Arten von Daten als ein digitales Datenwort darstellen kann. Solch ein Datenwort besteht aus einer Aneinanderreihung von langweiligen Nullen und Einsen. Voraussetzung dafür ist die Umwandlung der Daten von einem analogen in ein digitales Format. Weil wir selbst mit Nullen und Einsen nichts anfangen können, muss das digitale Wort irgendwann wieder in das ursprüngliche Format gewandelt werden, wel¬ches wir eigentlich nutzen möchten.

Auf der digitalen Ebene kann man mit solchen Digitalwörtern eine Menge Dinge tun, die in der analogen Welt entweder schwieriger. verlustbehaftet oder überhaupt nicht möglich wären. Das ist, ganz allgemein gesagt, der Sinn der Digitaltechnik. Eine der gebräuchlichsten Anwendungen ist die Speicherung. Festplatten haben mittlerweile eine Kapazität im Terabyte-Bereich. Auf einer Festplatte für 90 Euro haben etwa 25.000 Songs von 4 Minuten Länge im CD-Audioformat Platz. Nun ist die Speicherung bei Weitem nicht alles, was die Digitaltechnik leistet. Jede Funktion, die sich als eine mathematische Aufgabe darstellen lässt, kann von einem Rechner bravourös erledigt werden, wenn die zu bearbeitenden Daten erst einmal im digitalen Format vorliegen.

Was hat das alles mit Musik zu tun?

Es ist nicht so leicht vorstellbar, aber: Ein gebräuchlicher Computer ist mit einem entsprechenden Programm in der Lage, jeden nur erdenklichen Klang zu erzeugen, eben weil auch die Klangerzeugung als mathematische Aufgabe gelöst werden kann. Aber beginnen wir von vorn.

Analog-Digital-Wandlung

Akustische Ereignisse in einem Frequenzbereich von 20 Hz bis 20.000 Hz nimmt das menschliche Ohr als Schalldruckschwankungen wahr. Die Einheit für den Schalldruck ist Pascal (Pa). Mit einem Schallwandler (Mikrofon) kann

man Schalldruckschwankungen in eine elektrische Spannung umwandeln. Diese Spannung wird beim Digitalisieren in einen binären Code gewandelt. Binär bedeutet, dass es zur Darstellung dieses Codes nur zwei unterschiedli-che Zeichen gibt, die Null und die Eins. Diese Zeichen werden entsprechend des darzustellenden Wertes aneinandergereiht. Ein Zeichen entspricht in der digitalen Welt einem Bit. Die Zahl 8 wird beispielsweise als 1000 (bei einem 4-Bit-Wort) dargestellt.

Wozu digitalisieren?

Um sich dieser Frage zu nähern, betrachten wir die Vorgänge in einem Ton-studio:

Ein musikalisches Ereignis wird mithilfe einer Übertragungskette von einem Ort (Sender) zu einem anderen Ort (Empfänger) übertragen. Der Begriff Über-tragungskette stammt aus der Rundfunktechnik. Eine einfache Übertragungs-kette besteht aus einem Mikrofon, einem Verstärker, ein paar Verbindungska-beln und mindestens einem Lautsprecher. Mit diesem Setup ist es möglich, den Sänger in einem Raum singen zu lassen und dabei seine Stimme in einem ande¬ren Raum zu hören. Wenn eine Übertragungskette zusätzlich ein Speicherme¬dium enthält, ist es auch möglich, die Stimme zu einem späteren, beliebigen Zeitpunkt wiederzugeben. Dabei ist das Ziel, die Qualitätsverluste gegenüber der Originalstimme so weit wie möglich zu minimieren. Viele kleine technische Unzulänglichkeiten wie zum Beispiel das Rauschen eines Verstärkers oder das Rauschen einer analogen Bandaufzeichnung oder der Verlust von hohen Frequenzen durch ein billiges Kabel führen in der Summe zu einem hörbaren Qualitätsverlust. Wie bei jeder anderen Kette auch bestimmt das schwächste Glied die Qualität der ganzen Konstruktion.

Probleme der analogen Audiotechnik

Nehmen wir als Beispiel eine analoge Bandmaschine mit einem Magnetband als Speichermedium. Durch die Verteilung der Magnetteilchen auf dem Band wird der Musik ein Bandrauschen hinzugefügt. Da dieses Rauschen einen relativ konstanten Pegel aufweist, wird das Rauschen immer auffälliger, je lei¬ser die Musikaufnahme ist. Das Lautstärkeverhältnis zwischen der Musik und dem Rauschen nennt man Rauschabstand (engl. signal to noise ratio). Diesem Begriff begegnet man auch bei den technischen Spezifikationen eines Verstär-kers, denn (fast) jeder Verstärker rauscht zumindest ein kleines bisschen.

Jetzt wird's digital ...

Wenn die Übertragungskette jedoch nur einen binären Code zu übertragen hat, dann spielen diese technischen Unzulänglichkeiten wie Bandrauschen keine Rolle mehr. Ein binärer Code kennt nur zwei unterschiedliche Informationen: Null und Eins oder „Spannung an" und „Spannung aus". Wenn die Übertra-gungskette diese beiden Zustände einwandfrei voneinander unterscheidet, dann spielen zusätzliche Störgeräusche innerhalb der Übertragungskette keine Rolle mehr.

 Pegel

Bei der Aufbereitung und Digitalisierung eines akustischen Schallereignisses durchläuft das Signal mehrere Stufen. Die Spannung, die ein Mikrofon erzeugt, ist proportional zur Stärke des Schallereignisses und sie ist Zeit kontinuierlich. Die erzeugte Spannung liegt selbst bei einem sehr lauten Signal von einem Pascal Schalldruck nur im Millivolt-Bereich. Sie ist also sehr gering. Daher muss diese Spannung auf einen sogenannten Line-Pegel angehoben werden. Dieser Pegel beträgt in einem professionellen Tonstudio 6 dBu (1,55 Volt) bei 100 Prozent Vollausschlag, bei Hi-Fi-Anlagen beträgt er -10 dBu (0,32 Volt). Der Line-Pegel kann nun mithilfe eines Analog-Digital-Wandlers in ein digitales Signal beziehungsweise Codewort gewandelt werden. Und das geht so:

 Abtastung

Als ersten Schritt tastet der Analog-Digital-Wandler das analoge Signal in immer gleichbleibenden Intervallen ab. Dieses Verfahren nennt man Pulse-Amplituden-Modulation (PAM). Bei jeder einzelnen Abtastung wird ein Wert ermittelt. Damit wird aus einem kontinuierlichen Signal eine Reihe von einzel-nen Werten. Jeder Wert wird als ein Sample verstanden. Mit der sogenannten Sample-and-Hold-Schaltung wird der ermittelte Wert so lange konstant gehal-ten ,t\s das nächste Sample ermittelt ist. Böse Zungen sagen, das Audiosignal werde bei diesem Vorgang zerhackt.

Ein wichtiges Kriterium für die Qualität eines digitalen Signals ist die Anzahl der Abtastungen. Je höher die Sample-Rate ist, umso höher ist die Auflösung. Mit einer höheren Sample-Rate steigt aber auch die Datenmenge. Nach dem Nyquist-Shannon-Abtastheorem muss die Sample-Rate mehr als doppelt so hoch sein als die höchst abzubildende Frequenz. Wird diese Bedingung nicht

 

Dynamik

Ein dB SPL (Sound Pressure Level) ist als der von einem Menschen noch hör-bare kleinstmögliche Lautstärkeunterschied bei 1.000 Hz definiert. Mit einer Dynamik von 96 dB kann sogar der leise Flügelschlag eines Schmetterlings wiedergegeben werden, wenn alle anderen Komponenten der Übertragungs-kette auch in der Lage sind, eine solche Dynamik darzustellen.

 Digital-Analog-Umsetzer (DAU)

Das einmal digital gewandelte Signal ist nach der Zurückwandlung nicht mit dem ursprünglichen analogen Signal identisch. Die durch die Quantisierungs-fehler verloren gegangenen Informationen sind definitiv perdu.

Der DA-Wandler wird aus einer begrenzten Anzahl von Samples, für die jeweils ein digitaler Wert entstand, wieder eine zeitkontinuierliche analoge Spannung wandeln. Mithilfe eines Tiefpassfilters wird sichergestellt, dass alle uner-wünschten hohen Frequenzanteile, die durch das Sampeln entstanden sind, vom Nutzsignal getrennt werden. Außerdem kompensiert (verschmiert) er die bei der Digitalisierung entstandenen Quantisierungsfehler etwas.

 Höhere Samplefrequenz

Mit einer Sample-Rate von 88 KHz oder höher ist es möglich, Frequenzen beziehungsweise Obertöne weit oberhalb von 20.000 Hz zu übertragen. Da eine Samplefrequenz von 44,1 KHz nur knapp über dem doppelten Wert von 20.000 Hz liegt, muss der Tiefpassfilter sehr steilflankig sein, also innerhalb einer Oktave beinahe 100 dB dämpfen, um störende Aliasing-Effekte zu ver¬meiden. Mit einer höheren Sample-Rate muss dieser Filter nicht solch hohen Anforderungen genügen. Allerdings steigt mit der Sample-Rate auch die Datenmenge, und das macht sich bei der Handhabung und dem Abspeichern von Mehrspuraufnahmen nachteilige bemerkbar.

Frage, was das menschliche Ohr oberhalb von 20 KHz an Frequenzen hört oder psychoakustisch wahrnimmt, ist bisher nicht eindeutig geklärt. Auch die klanglichen Einbußen eines steilflankigen Aliasing-Filters, der bei 44,1 KHz Sample-Rate zwingend notwendig ist, sind umstritten.

Wird eine Musikproduktion in einer hohen Abtastrate erstellt, dann muss die digitalisierte Musik in den meisten Fällen am Ende der Produktionskette wie¬der auf 44,1 KHz heruntergerechnet werden, da das CD-Audioformat diese Sample-Rate vorschreibt. Auch bei dieser Wandlung entsteht eine Klang¬beeinflussung, die den Vorteil einer hohen Abtastrate zumindest teilweise wieder zunichtemacht. Einige Ingenieure/Mathematiker empfehlen daher eine Abtastrate, die einem ganzzahligen Vielfachen der Ziel-Sample-Rate entspricht.

Nach meiner Erfahrung ist der Klangvorteil einer höheren Sample-Rate, wenn überhaupt, nur feststellbar, wenn man den Vergleich in ein und derselben Abhörsituation durchführt. Begibt man sich mit einer „High-End-Produktion" an einen anderen Ort, dann überlagern die veränderten akustischen Bedin¬gungen den technischen Vorteil. Die maßgeblich schwächsten Glieder in einer Übertragungskette sind in den meisten Fällen die Lautsprecherboxen

Es gibt gute Gründe, bei einer digitalen Audioproduktion eine höhere Bit-Rate als 16 Bit zu verwenden. Da man bei der Aufnahme und Digitalisierung eines Audiosignals eine Übersteuerung unbedingt vermeiden sollte, wird zur Sicher-heit ein Headroom von 6 bis 10 dBFS eingehalten. Damit schrumpft die theo-retische Dynamik von 16 Bit erheblich. Infolge dessen hat sich bei Aufnahmen eine Bit-Rate von 24 oder 32 Bit etabliert.

Gehe ich der Frage nach, ob eine höhere Auflösung als 16 Bit sinnvoll ist, so unterscheide ich zwei Aspekte. Das eine Thema beschäftigt sich mit der Frage: Was höre ich in einer fertigen Musikproduktion? Höre ich einen bes¬seren Sound, wenn ich einen Titel mit einer Auflösung von 24 oder 32 Bit wiedergebe?

Nun bin ich als Toningenieur gewohnt, einen Musiktitel bei intensivem Hören in seine Einzelteile zu zerlegen. Mir fällt der Gitarrensound auf, der Reverb auf der Snaredrum, die Intonation der Stimme und so weiter, aber ich nehme definitiv keinen Unterschied bei einer höheren Bit-Rate wahr.

 

Ganz anders ist die Sachlage während des Ablaufs einer digitalen Musikpro-duktion. Wie ich bereits beschrieben habe, kann man die 16 Bit bei einer Auf-nahme nicht ausnutzen, da man aus technischen Gründen einen Headroom lassen muss. Hier ist die Wahl einer höheren Bit-Rate unbedingt angebracht. Bei einer 24-Bit-Aufnahme muss man sich keine Gedanken mehr um die Auflösung bei sehr geringem Pegel machen. Auch die Klangqualität eines digitalen Equalizers oder eines Reverbs verbessert sich mit einer höheren Auflösung deutlich.

Sample-Rate-Konvertierung und Truncation

Wird ein Audiofile mit einer geringeren Abtastrate abgespielt, als es selbst zur Verfügung stellt, werden die überzähligen Bits ignoriert. „Truncation" bedeutet das Abschneiden eines Teils der digitalisierten Audioinformation. Das betrifft vor allem die Musikanteile am unteren Rande der Dynamik, also die sehr leisen Töne. Bei der Wiedergabe können Verzerrungen hörbar werden.

Bei der Umwandlung eines 24-Bit-Files in ein 16-Bit-File wird dieses Problem mithilfe des Ditherings kompensiert. Hierbei wird ein leises Rauschen hinzu-gefügt. Solch ein Dithering wird immer dann notwendig, wenn eine Produktion mit einer Auflösung von 24 Bit oder 32 Bit auf das CD-Audio-Format (16 Bit) zu konvertieren ist.

Fehlerkorrektur

Wenn bei einer Übertragung von digitalen Audiodaten nur ein einziges Bit „umkippt", also von 1 auf 0 oder umgekehrt, dann ist eine korrekte Decodie-rung nicht mehr möglich. Es können hörbare Störungen, je nach musikalischem Inhalt beispielsweise Knacker, auftreten. Um dies zu vermeiden, werden zu der eigentlichen Audio-Information zusätzliche Daten übertragen.

Es werden einzelne Prüf-Bits in die Datenblöcke integriert, die sogenannte Prüfsummen enthalten. Die Quersumme eines jeden Datenblocks ergibt einen geraden oder einen ungeraden Wert. Geht nun ein einzelnes Bit bei der Über-tragung verloren, stimmt die tatsächliche Quersumme nicht mehr mit dem Wert des Prüf-Bits überein. Diese Art der Prüfung nennt man Paritätsprüfung. Sie ist nur rudimentär, da zum einen nicht erkannt wird, welches Bit „umgekippt" ist, und zum anderen kein Fehler erkannt wird, wenn zufällig zwei Bits ihren Wert verlieren.

Ist ein kompletter Datensatz unlesbar, entstehen sogenannte Dropouts (Aus-setzer). Um diese Fehler zu korrigieren, wird der fehlende Wert interpoliert. Bei der Dropout-Kompensation wird der Mittelwert aus dem Datenwert vor und nach dem fehlerhaften Datenblock gebildet. Werden mehrere Datenblöcke vor und nach dem Fehler in die Berechnung einbezogen, kann der Fehler nahezu perfekt kompensiert werden. Für diese Fehlerbeseitigung ist allerdings der technische Aufwand größer.

Digitale Audioformate

Mittlerweile gibt es eine ganze Reihe digitaler Audioformate. Man unterschei¬det grundsätzlich zwischen verlustfreien und verlustbehafteten Formaten. Und man unterscheidet zwischen komprimierten und unkomprimierten Datenfor¬maten.

Verlustbehaftet bedeutet in der digitalen Audiotechnik eine Datenreduktion, bei der die, allem Anschein nach, nicht (oder kaum) hörbaren Frequenzanteile eliminiert werden. Im folgenden Abschnitt werden einige der bekanntesten Formate mit ihren Merkmalen aufgelistet.

Verlustfreie Formate

Das Wave-Format wurde von Microsoft entwickelt. Es basiert auf dem Res¬source Interchange File Format (RIFF). Am Anfang eines jeden Datenblocks, dem Header, befinden sich zusätzliche Informationen (Metadaten). Dazu gehört die Identifikation als Audiodatei, die Dateigröße, die Sampling-Rate, die Bit-Rate und Informationen darüber, ob es sich um ein Mono- oder Stereo-File handelt.

Das BWF-Format (Broadcast Wave Format) wurde 1997 von der EBU (Europä¬ische Rundfunkunion) spezifiziert. Es entspricht im Aufbau dem Wave-Format, beinhaltet jedoch zusätzliche Metadaten. Das können beispielsweise Angaben über das Entstehungsdatum oder über die Lautheit des Titels sein. Da die¬ses Format die Dateiendung „wav" enthält, kann es von jedem gewöhnlichen Audio-Programm gelesen werden.

Das AIFF-Format wurde von Apple Macintosh entwickelt. Es basiert, ähnlich wie es bei einer Wave Datei der Fall ist, auf dem IFF-Format. Der Unterschied zum Wave-Format liegt nur in den Informationen des Headers.

Weitere verlustfreie Audioformate sind unter anderem das CDDA-Format (Audio CD) und das FLAC-Format. Die Datenrate bei dem CD-Audio-Format beträgt etwa 1.400 kbit/s.

Das Format Apple Lossiess Audio Codec (ALAC) ist ein von Apple entwickeltes Audioformat, das nicht verlustbehaftet ist, obwohl es datenkomprimierend ist. Es wird vom iPhone, den meisten iPads und Macintosh-Rechnern unterstützt.

Verlustbehaftete Formate

Das MP3-Format mit der genauen Bezeichnung MPEG-1 Audio Layer III ist ein verlustbehaftetes Audioformat zur Übertragung und Speicherung von Audio-daten. Es wird im Gegensatz zum Wave- und Al FF-Format als verlustbehaftet bezeichnet, da nur ein kleiner Teil der original Audiodaten erhalten bleiben. Je nach Codierung werden nur etwa 10 Prozent der Datenmenge im Vergleich zu einem verlustfreien Format verwendet. Das vom Fraunhofer Institut entwickelte Verfahren nutzt geschickt psychoakustische Effekte, um die Daten wegfallen zu lassen, die scheinbar unhörbar sind. Leise Töne, die von lauten Tönen über¬deckt sind, werden beispielsweise ignoriert. Außerdem ist der Frequenzumfang im Vergleich zu einem verlustfreien Digitalformat reduziert. Bei der Codierung

kann der Anwender die Bit-Rate wählen. Mit steigender Bit-Rate steigt die Klangqualität, aber auch die Größe eines Files. Das beste Ergebnis erreicht man bei einer Codierung mit variabler Bit-Rate. Der Encoder wählt je nach Inhalt des Originals die Bit-Rate.

Eine Bit-Rate von 320 Kbit/s stellt einen akzeptablen Kompromiss zwischen möglichst hoher Klangqualität und möglichst kleinem Datenformat dar. Schwierig ist es, ein datenkomprimiertes File digital weiterzubearbeiten. Da nur noch ein kleiner Anteil der Original-Daten vorhanden ist, können beispiels-weise Frequenzanteile, die einmal herausgerechnet wurden, nicht mehr ver-stärkt werden.

Das AAC-Format (Advanced Audio Coding) ist mit dem MP3-Format ver-gleichbar. Es soll bei vergleichbarer Datengröße eine etwas bessere Klangqua-lität bieten. Musikanbieter wie iTunes verwenden dieses Format, da mit dem integrierbaren DRM (Digital Rights Management) die Nutzungsrechte einge-schränkt werden können.

Das Ogg Vorbis ist auch ein verlustbehaftetes digitales Audioformat, das bes¬ser als MP3 klingen soll. Es ist allerdings nicht sehr verbreitet.

Das Unternehmen Dolby hat neben dem Fraunhofer-Institut das am meisten verbreitete System zur Datenreduktion von Audioformaten entwickelt. Das Dolby-Digital-Format umfasst bis zu sechs Kanäle (5.1-Ton). Es wird für den Ton von Kinofilmen und für das DVD-Videoformat verwendet. Die sechs Kanäle sind aufgeteilt in: links und rechts, Mitte (ausschließlich für Sprache), hinten links und rechts (Surround-Kanäle) und Low-Frequency-Effects (LFE). Das Codierverfahren AC-3 nutzt ähnlich wie das MP3-Format psychoakustische Effekte, um die hohe Datenmenge von sechs Audiospuren zu reduzieren.

Das WMA-Format (Windows Media Audio) ist ein von Microsoft entwickeltes proprietäres Audioformat. Es arbeitet ähnlich wie MP3 mit Datenkompression und unterstützt bis zu 24 Bit und 96 KHz bei einer variablen Bit-Rate. Auch Mehrkanal-Ton bis zu 7.1 ist möglich.

Weitere verlustbehaftete Audioformate sind unter anderem das Real-Audio-Format und das DTS-Format.

 Digitale Schnittstellen

Zur Verbindung von zwei oder mehreren digitalen Audiogeräten stehen je nach Gerät und Anwendung verschiedene digitale Schnittstellen zur Verfügung.

Die Schnittstelle S/PDIF (Sony/Phillips Digital Interface) ist bekannt als digi-tale Verbindung von Consumer-Geräten. Als Steckverbindung dient ein Cinch-Anschluss (75-Ohm-Coaxialkabel) oder ein Toslink-Anschluss (Lichtwellenlei-ter für optische Signalübertragung).

Die Schnittstelle AES/EBU (Audio Engineering Society/European Broadcast Union) ist professionellen Geräten vorbehalten. Das Format der Audiodaten ist annähernd identisch mit dem Format S/PDIF. Diese Schnittstelle ist meist als symmetrische XLR Verbindung ausgeführt. Daher ist sie ähnlich wie symme-trische Mikrofonkabel unempfindlicher gegen elektromagnetische Einstrah-lungen. Hier ist ein 110-Ohm-Kabel zu verwenden. Viele professionelle Geräte bieten sowohl AES/EBU- als auch S/PDIF-Anschüsse.

Die ADAT Schnittstellet dient zur Übertragung von bis zu acht Spuren bei einer Sample-Rate von maximal 48 KHz. Dabei wird die optische Übertragung über Toslink verwendet. Bei der Übertragung mit einer Sample-Rate von 96 KHz können maximal vier Spuren übertragen werden.

Multi Channel Audio Digital Interface (MADI)

Diese Schnittstelle wurdegeschaffen, um eine Übertragung von mehreren Digi-talsignalen gleichzeitig zu ermöglichen. Nach der letzten geänderten Spezifika-tion der AES10 ist je nach Anzahl der zu übertragenden Kanäle eine Sample-Rate von bis zu 192 KHz möglich. Bei einer Sample-Rate von 48 KHz oder 44,1 KHz können gleichzeitig bis zu 64 Kanäle mit 24 Bit übertragen werden.

Synchronisation

Digitale Audiodaten werden nicht zeitkontinuierlich übertragen, sondern in Blöcken zusammengefasst. Diese Blöcke enthalten neben den eigentlichen Audiodaten Informationen über den Stereokanal, Informationen zur Datensi-cherheit und zur Synchronisation.

Bei der Übertragung von digitalen Audiodaten von einem Gerät zu einem ande-ren ist es zwingend notwendig, den Datenstrom zu synchronisieren. Dabei wird das sendende Gerät als Master definiert, den Empfänger nennt man Slave. Der Master gibt den genauen Takt der Sample-Rate vor. Wenn mehrere Geräte hinter¬einander geschaltet werden, wird das erste Glied der Kette als Master definiert.

Als Synchronisationstakt fungiert die Sample-Rate. Bei einer Sample-Rate von 44,1 kHz beginnt also jeden 44.100sten Teil einer Sekunde ein neuer Daten-block. Damit wird der entscheidende Anfang eines jeden Datenblocks definiert.

Was passiert nun, wenn der Datenstrom nicht einwandfrei funktioniert? Dies kann beispielsweise bei sehr großen Kabellängen geschehen, oder es kann Probleme geben, wenn man mehrere Slaves hintereinander schaltet. Als Folge können Knackgeräusche hörbar werden oder schlimmstenfalls kann die Über-tragung aussetzen. Eine gewisse Anzahl von Übertragungsfehlern kann mit-hilfe der Fehlerkorrektur kompensiert werden.

Eine professionelle Lösung bietet ein externer Taktgenerator. Dort wird die Sample-Rate festgelegt und alle digitalen Geräte werden dort als Slave parallel angeschlossen. Damit erhalten alle Geräte den exakt gleichen Takt. In den einzelnen Geräten muss die Synchronisation auf extern geschaltet werden.

Welche Probleme sind bei der digitalen Übertragung hörbar?

Grundsätzlich unterteile ich zwei Problemarten:

1.        Fehlerhafte Datenübertragung

2.        Synchronisationsfehler

Zu 1: Fehlerhafte Datenübertragung

Es ist natürlich nicht ausgeschlossen, dass es zu Fehlern bei der Übertragung kommt. Die digitalen Impulse sind sehr steilflankig. Wenn diese Flanken nicht einwandfrei übertragen werden, kann es passieren, dass eine 1 „umkippt" und zu einer 0 wird. Das kann beispielsweise passieren, wenn man ein falsches Kabel mit einer großen Kabellänge verwendet. Ein billiges Kabel wirkt unter Umständen wie ein Tiefpassfilter, der hohe Frequenzen eliminiert (NF-Kabel statt 75-Ohm-Kabel). Wenn nur ein einzelnes Bit „umkippt", dann sollte das kein Problem sein. Wie beschrieben gibt es Prüfsummen und Fehlerkorrek¬turen, die solch einen Fehler aufspüren und kompensieren. Wenn eine technische Unzulänglichkeit vorliegt, dann bleibt es selten bei einem einzelnen Fehler. Ganze Datenblöcke können verloren gehen und damit die Fehlerkorrektur überfordern. In diesem Falle könnten

ein Knacken oder sogenannte Glitches hörbar werden. Im schlimmsten Falle

setzt die Übertragung kurz vollständig aus. Also: Richtiges Kabel verwenden!

Zu 2: Synchronisationsfehler

Ich habe mit Spezialisten die Frage nach dem möglichen Soundverlust bei schlechter Synchronisation diskutiert. Gibt es bessere und schlechtere Syn¬chronisation? Ist es sinnvoll 100 EUR für ein Digitalkabel auszugeben?

Die Antwort war wunderbar klar und einfach: „Man nehme einen Sinuston von 1.000 Hz und schicke ihn durch die komplette Anlage. Hört man am Ende ein leises unregelmäßiges Knacken, dann existiert ein Problem mit der Synchroni¬sation. Hört man nichts dergleichen, dann ist alles gut. Alles andere ist Voodoo.

Ein zusätzlicher kleiner Tipp von mir:

Eine Digitalverbindung über AES/EBU (XLR-Kabel) verbindet auch die Masse-Potenziale zweier Geräte miteinander. Das führt gern zu Brummschleifen und einem ganzen Sortiment von möglichen Folgen. Es ist bekanntermaßen lebensgefährlich, bei einem der Geräte den Masseanschluss am Netzstek-ker abzuklemmen, um eine Brummschleife zu vermeiden, aber das Abtrennen eines Masseanschlusses des XLR-Kabels an einer Seite empfiehlt sich zur Vermeidung von Brummschleifen (und ist ungefährlich).

Bei einer digitalen Verbindung mit einem Lichtfaser-Kabel (Toslink-Steck-verbindung) erübrigt sich dieses Problem, da keine elektrisch leitende Ver¬bindung besteht.

 

 







Keine Kommentare:

Kommentar veröffentlichen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.