Klangerzeugung zur Musikproduktion
Author D.Selzer-McKenzie
https://youtu.be/566QeU7GVpA
Klangerzeugung
Die Suche nach neuen Klängen und nach Erweiterung der
klanglichen Ausdrucksmöglichkeiten ist seit jeher ein Bedürfnis'von Musikern
und Komponisten gewesen (man denke nur an die Entwicklung der akustischen
Musikinstrumente). In der populären Musik nutzte man vor allem die Fortschritte
in Technik und Elektronik, um elektroakustische und elektronische Klangerzeuger
zu entwickeln. Die Erfindung der Elektronenröhre durch Lee de Forest (1906)
Anfang des Jahrhunderts eröffnete ungeahnte neue Klangmöglichkeiten und
Verfremdungen. Ein weiterer Meilenstein war die Erfindung der Hammond Orgel
durch Laurens Hammond im Jahre 1935. Doch die wohl folgenschwerste Entwicklung
wurde durch den Synthesizer von Robert Moog Anfang der 60er Jahre eingeleitet.
Beim Moog-Synthesizer erfolgt die Tonerzeugung rein
elektronisch mit Oszillatoren, Die Grundidee war, alle
Klangbearbeitungs-parameter von außen steuerbar zumachen, um eine effektvolle
Klangsteuerung zu erzielen. So konnten während des Spielens mittels
Potentiometer und Schiebereglern Filter oder Modulatoren zur Klangveränderung
angesteuert werden. Der erste Moog war wegen seiner Größe nur in einem Studio
zu verwenden und sehr teuer. Daher entwickelte man den Minimoog, eine
abge-magerte, handliche und preisgünstige Version des großen Moog-Synthesizer.
Er wurde bei vielen Rockgruppen der 70er Jahre zum Standardinstrument neben
E-Gitarre und Schlagzeug.
Nach der Entwicklung vom monophonen zum polyphonen
Synthesizer entstanden in den 80er Jahren die ersten digitalen Synthesizer. Die
Vorreiterrolle hatte der DX-7 von Yamaha, dessen Tonerzeugung auf der
Frequenzmodulationssynthese beruht.
Durch die leistungsfähige Computertechnologie konnte ein Ton
in Echtzeit berechnet sowie das Spektrum in seinem zeitlichen Verlauf verändert
werden. Diese neue Art der Klangerzeugung und Klangbearbeitung ermöglichte eine
sehr große Klangvielfalt. Doch bereitete die Bedienung der Klangparameter für
Anwender zunächst Probleme:
(1) war die
Bedienung nicht so übersichtlich und verständlich wie bei analogen
Synthesizern. Ein Sound mußte vor dem Spielen mittels Druckknöpfen und Display
programmiert werden;
(2) konnte der
Klang während des Spielens nicht mehr verändert werden. Dadurch waren spontane
Klangabänderungen und Klangimprovisationen nicht mehr möglich.
Digitale Synthesizer, wie z.B. der DX-7, sind Preset
Synthesizer. Das heißt, sie verfügen über von der Firma vorgefertigte Sounds,
sogenannte Werksounds. Diese zuerst als Werbung und verkaufsförderndes Mittel
eingesetzte Idee erwies sich bald als sehr hilfreich. Musiker verwendeten die
Presetsounds, da sie Schwierigkeiten hatten, ihre Kenntnisse der analogen
Klanggestaltung auf die digitale Ebene zu übertragen.
Mit der Samplingtechnik schließlich konnte jedes
Schallereignis in digitale Daten umgewandelt werden. Aufnahme und Speicherung,
computergestützte Bearbeitung und Reproduktion auf Tastendruck waren möglich.
Doch die Mitte der 80er Jahre wohl revolutionierendste technologische Neuerung
war die Einführung des Musical Instruments Digital Interface, kurz MIDI
genannt, einer digitalen Schnittstelle, die einen Datenaustausch zwischen
verschiedenen Synthesizern und Computern ermöglicht. Bald auch erlaubte das
MIDI-System die Verkoppelung verschiedener Geräte wie Drumcomputer, Sampler,
Expander und Effektgeräte, die sich von einem Computer aus mit einer
Sequencer-Software ansteuern lassen. Im MIDI-System können also mit relativ
geringem Aufwand vielschichtige Klangkombinationen produziert werden. Es
entstanden sogenannte integrierte Systeme, bei denen diverse Verfahren - wie
z.B.: Klangsythese, Sequencer, Notationssoftware und Speicherung - in einem
System gekoppelt sind. Kleinere integrierte Systeme sind die Workstations, die
sich vor allem im
Homerecordingbereich großer Beliebtheit erfreuen. Größere
und teurere Systeme, wie Synclavier, Fairlight oder AudioFrame, werden im
professionellen Bereich eingesetzt.
2. Klangbearbeitung
Zur Bearbeitung von Klängen stehen heute dem Musiker,
Toningenieur und Produzenten eine Vielzahl von elektronischen Geräten zur Verfügung.
Mit zunehmenden Möglichkeiten der Klangerzeugung und Klangbearbeitung
avancierte der Begriff "Sound" in der Popularmusik zum zentralen,
strukturellen und ästhetischen Kriterium des Musizierens. Damit ist nicht nur
der Klang eines Instruments gemeint, sondern auch die "Gesamtheit aller
die sinnliche Qualität von Musik bestimmenden Faktoren"
(Ziegenrücker/Wicke, Sachlexikon Popularmusik, 1987, S. 368). Diese Faktoren
umfassen einerseits die technischen Mittel, wie die Wahl des Instruments, des
Mikrophons, des Mischpults und der Effektgeräte oder des Aufnahmeverfahrens,
und andererseits die musikalischen Mittel, also z.B. Interpretation, Spielweise
und das Arrangement eines Stückes.
In den 60er Jahren entwickelte sich das.
Mehrspur-aufnahmeverfahren. Zunächst wurde auf zwei Spuren aufgenommen, Die
ersten Schritte in der Mehrspurtechnik erfolgten durch Überspielen von einer
zur anderen Spur bzw. Von einem zum anderen Tonbandgerät. Mitte dieses
Jahrzehnts standen 4-Spurgeräte zur Verfügung und ab dem Jahr 1967 setzte ein
explosionsartiger Anstieg in der Anzahl der Aufnahmespuren ein, der bis zu den
heutigen 24-, 32- und 48- Spur-tonbandmaschinen führte. Zugleich vergrößerte
sich die Anzahl der Kanäle am Mischpult und deren Parameter zur
Klang-bearbeitung.
Die Bearbeitung eines Klanges beginnt bei der Aufnahme, am
Mischpult. Hier wird mit einem Equalizer das Frequenzspektrum korrigiert
(Anhebung oder Absenkung einzelner Frequenzbänder). Richtig eingestellte
Klangkorrekturen unterstützen wesentliche Frequenzbereiche einer Instrumental-
oder Vokalaufnahme und führen zu einer guten Aufteilung der Instrumente im Frequenzspektrum,
Dadurch läßt sich eine optimale Transparenz des Gesamtklangbildes erreichen.
Die Links-Rechts-Zuordnung In einem Klangbild wird mit dem Panoramaregler
eingestellt, wobei ein Instrument oder Signal kontinuierlich von ganz links bis
ganz rechts im Klangbild positioniert werden kann. Weiterhin gibt es am
Mischpult die Möglichkeit, Signale abzugreifen, um diese in Effektgeräte zu
schicken und dort zu verändern.
Das wohl wichtigste Effektgerät im Tonstudio Ist der Hall.
In den 60er Jahren spielten die Bands ihre Musikstücke gemeinsam im Studio ein.
Durch die Einführung des Mehrspur-aufnahmeverfahrens wurden die Instrumente
völlig getrennt und ganz "trocken", d.h. ohne Raumklang aufgenommen.
Die fehlende Rauminformation mußte beim "Mix down" nachträglich
künstlich hinzugefügt werden. Das geschah in den 60er Jahren in Hallräumen, mit
Hallplatten oder einem Federhall auf recht aufwendige und umständliche Weise.
Heute simulieren Hallgeräte in der Größe eines 19 Zoll-Gehäuses jeden
gewünschten Raum, vom Badezimmer bis zum Kölner Dom. Mit dem Dazumischen von
Hall wird zweierlei erreicht: Erstens kommt ein Instrument zum Klingen, wirkt
natürlich, und zweitens wird jedes Instrument in einen eigenen Raum
"gesetzt". Das erlaubt eine Tiefenstaffelung der Instrumente Im
Klangbild.
Eine weitere wichtige Funktion des Halls besteht in der
Gestaltung einer Einheit. Bei der Aufnahme eines Drumsets z.B. werden alle Instrumente
extra aufgenommen, extra bearbeitet und extra mit einem Hall versehen. Um
dieses im Klangbild total auseinandergefallene Drumset wieder zu einer Einheit
zusammenzufügen, wird dem Schlagzeug-Summensignal ein einheitlicher Hallraum
beigemischt.
Weitere Klangbearbeitungs- und Effektgeräte sind: Delay,
Flanging, Kompressor, Harmonizer und Exciter. Ein Delay erzeugt Echoeffekte und
kann auch zur Unterstützung des Klangvolumens, z.B. einer Vokalaufnahme,
eingesetzt werden. Der Flanging-Effekt wurde erstmals in den 60er Jahren
entdec.kt. Zwei Bandmaschinen, die synchron laufen sollten, differierten um
wenige Millisekunden, so daß es zu Phasenverschiebungen und
interferrenzauslöschungen im Frequenzspektrum und damit zu
Klangverfärbungen kam. Anwendung findet dieser Effekt z.B.
bei Gitarren, Streichern oder bei statisch wirkenden synthetischen Klängen, um
sie lebendiger zu gestalten.
Der Kompressor dient zur Dynamikregelung. Durch die
Komprimierung eines Signals im Dynamikbereich wird es druckvoller, kompakter
und in der Popmusik leichter bearbeitbar, Da sich Pop- und Rockmusik in einem
sehr begrenzten und schmalen Dynamikbereich bewegt, kommt dieses Effektgerät
hier so gut wie immer zur Anwendung.
Mit einem Harmonizer kann zu einer Melodie eine zweite oder
dritte Melodie in einem bestimmten Intervallabstand hinzuaddiert werden. Ferner
können leichte Intonationsschwankungen (z.B. bei einer Vokalaufnahme)
ausgeglichen werden.
Mittels eines Exciters schließlich werden einem
Originalsignal Obertöne hinzugefügt. Hiermit erzielt man einerseits ein
schärferes Klangbild, andererseits wird das Gesamtklangbild eines Musikstücks
"auseinandergezogenm und erscheint damit transparenter.
3. Musik und Technik
Für den Erfolg eines Songs oder eines Musikstückes wurde
früher in der Musikindustrie ein strukturbildendes Prinzip angewandt, das vor
allem am Aufbau eines melodischen Konzepts orientiert war. An erster Stelle
standen die musikalischen Parameter Melodie, Harmonie und Rhythmus. Durch den
zunehmenden Einfluß der Technik wurden diese Parameter zugunsten eines neuen,
von den technologischen Möglichkeiten determinierten Produktions-konzepts
zurückgedrängt. Um den kommerziellen Erfolg kalkulierbarer zu machen, setzte
man ein soundorientiertes Konzept ein, in dem der aufnahmetechnische Vorgang im
Tonstudio sowie die technische Qualität der Musik in den Vordergrund traten.
"Das hat enorme Möglichkeiten des Musizierens freigesetzt, die In der
Entwicklung der Rockmusik, in der Vielfalt ihrer Spielweisen und
Stilkonzeptionen auch realisiert worden sind" (Ziegenrücker/Wicke,
Sachlexikon Popularmusik, 1987, S. 326). Die Popularmusik bedient sich
ausschließlich der jeweils modernsten Techniken, Damit Ist sie von den
Produktions-und Reproduktionsbedingungen der Massenmedien abhängig geworden.
Technik fungiert als gleichberechtigter Bestandteil neben den musikalischen und
instrumentalen Parametern. Die Technik beeinflußt
(1) die
musikimmanenten und strukturellen Ideen der Musiker,
(2) die
Klangvorstellungen und -realisationen,
(3) den Klang der
Musikinstrumente und deren Ausdrucks-möglichkeiten,
(4) die Qualität
der Musikaufnahme.
Alle diese Faktoren sind wesentlich für den kommerziellen
Erfolg einer Musikproduktion geworden.
Der immer stärker werdende Einfluß neuer Technologien auf
den musikalischen Schaffensprozeß sei kurz an einigen Beispielen der Beatles
aufgezeigt Ihre ersten Songs sind noch mit der "klassischen"
Standardbesetzung (2 Gitarren, Baß und Schlag-zeug) aufgenommen. Bald aber
begann man mit den vorhandenen technischen Geräten zu experimentieren. Dabei
orientierte man sich durchaus auch an Komponisten der Elektronischen Musik wie
z.B. Stockhausen und übernahm einige der dort erarbeiteten Möglichkeiten:
Techniken wie Montage, Collage, Verwenden von Alltagsgeräuschen, Abspielen der
Tonbänder mit verschiedenen Geschwindigkeiten oder Rückwärts-Abspielen von
Tonbandstücken. So entstand im Jahr 1966 mit relativ großem technischen Aufwand
die Single "Strawberry Fields Forever". In diesem Stück sind zu
hören:
- Tonbandeinspielungen
mit Stimmengewirr, - rückwärtiges Abspielen einzelner Tonbandstücke, -
Aneinanderreihung und Rückwärts-Abspielung kurzer Tonband¬stücke, so daß ein
rhythmisches Muster entsteht,
- Montage von
Partien, die mit unterschiedlichen Geschwindig-keiten auf zwei Tonbandmaschinen
abgespielt wurden (Phasingeffekt),
- Ausnützen
des Stereoeindrucks mit wandernder Schallquelle von links nach rechts (z.B.
wird das Herannahen eines Zuges mit der Gitarre simuliert).
Derarfige Klangexperimente waren die Wurzel .und der
Ideenfundus für die in den folgenden. Jahrzehnten entwickelten
weiterer wichtiger Schritt in der klanglichen Veränderung
der Popularmusik war dann das Verwenden synthetisch erzeugter Klänge. Der Musiker
Keith Emerson von der Formation Emerson, Lake & Palmer setzte als einer der
ersten den Minimoog als eigenes, selbständiges Instrument ein. Vor allem in den
70er Jahren versuchte Jeder Keyboardspleler seine eigenen, synthetisch
erzeugten Klänge zu kreieren. Dieses machte einen nicht unwesentlichen
Bestandteil des charakteristischen Klangbildes einer Gruppe aus.
Mit Potentiometer und Schieberegelern der analogen
Synthesizer konnten klangliche Improvisationen auch während des Spielens
realisiert werden. Durch diese hohe Klangflexibilität waren die 60er und 70er
Jahre geprägt von Klangimprovisationen der Keyboarder. Synthesizerklänge
rückten teilweise aber auch übermäßig stark in den Vordergrund, da mit ihnen
Faszination beim Publikum auszulösen war. So sind die Musikstücke der Formation
Tangerine Dream z.B. durch lange Synthesizer-Improvisationen geprägt. "in
Moll gehaltene, langgestreckte Melodien - selten mehr als fünf Töne - bauten
sich über bis zu 10 Sekunden währenden Dreiklängen auf, die zu simplen Akkordgerüsten
verbunden wurden. (...) Modulationen waren Zufall" (Christian Kneisel in
T. Kneif, Rock in den 70ern, 1980, S. 200). Diese Klangimprovisationen traten
so stark in den Mittelpunkt, daß rhythmische und melodische Komponenten
zurückgedrängt wurden.
In den 80er Jahren rückte die Technik immer mehr in den
Vordergrund, bedingt durch die rasante Entwicklung auf dem Instrumentenmarkt
und auch als Folge des zunehmenden Konkurrenzkampfes auf dem Musikmarkt. Für
eine Band und einen Musiker wurde es immer wichtiger, mit welchen Instrumenten
man spielte. Für das Image und für den Erfolg war es von großer Bedeutung, an
der Spitze der Technologie zu stehen, So findet man auf Plattencovers eine
meist sehr ausführliche Auflistung sämtlicher verwendeter Musikinstrumente und
Geräte. Auch Interviews mit Musikern aus der Zeit der 80er Jahre sind häufig
nur Die einschneidensten und die Pop- und Rockmusik verändernden Innovationen
waren die Einführung des MIDI-Systems, die Samplingtechnik und der Einzug des
Computers in die Tonstudios. Dank der Sampler, digitalen Klangspeichergeräten,
stehen heute eine unbegrenzte Vielfalt von Klängen und Geräuschen zur
Verfügung. Taucht ein origineller Sound in einem Song oder Musikstück auf und
avanciert der Song zum Hit, so wird er sofort mittels der Samplingtechnik
verwertet und in neue Songs eingemischt, In der Hoffnung, auf diese Weise
eventuell an dem Erfolg teilzuhaben.
Durch die Einführung digitaler Synthesizer mit der sehr
abstrakten Klanggestaltung und das dadurch bedingte Zurückgreifen auf die
Presetsounds ging ein wichtiger Teil der individuellen Klang-gestaltung
verloren. Es entstand das paradoxe Phänomen, daß die Musikstücke trotz der
vielen Klangbearbeitungs-möglichkeiten im Großen und Ganzen einander klanglich
immer ähnlicher wurden. Daher entwickelte sich in der popularen Musik der
letzten Jahre eine stark sängerbezogene Musik. Der Sänger gibt mit seiner
Stimme dem Song ein unverwechselbares Charakteristikum. Demgegenüber treten die
Instrumentalisten in den Hintergrund. .Sie sind ersetzbar geworden, denn die
Soundgestaltung ist nicht mehr an den Musiker gebunden, wie das noch in den
60er und 70er Jahren der Fall war. Soundgestaltung ist durch die
Studiotechnologie machbar.
Das Klangbild der kommerziell produzierten Popmusik hat sich
seit dem Einsatz der neuen Technologien stark geändert. Der Sound eines
Popsongs (oder eines Hits) heute klingt steril, synthetisch und
"clean". Dieser Eindruck wird durch die Präzision der
computerquantisierten Rhythmen verstärkt. Zur Abschwächung dieses Eindrucks
werden sogenannte "human feeling" Programme eingesetzt, die den Song
rhythmisch wieder etwas ungenauer und damit "menschlicher" machen.
Zusammenfassung
Die musikhistorische Bedeutung der Entwicklung der
Musiktechnologien und die daraus resultierende Annäherung von
Musik und Technik besteht darin, daß ohne sie weder
Rock'n'Roll und Beatmusik, noch Rock- und Popmusik in ihrer heutigen Form
hätten entstehen können. Der Einfluß der Musiktechnologie auf die Art des
Musizierens und die Musikproduktion läßt sich in vier Phasen darstellen:
(1) In der ersten
Phase des gemeinsam-kollektiven Musizierens (50/60er) wird die Musik von allen
Bandmitgliedern gespielt, auf Tonband aufgenommen, und im Studio nachträglich
kaum verändert.
(2) Das
"gemeinsame Musizieren" wird durch die. Tonaufnahme in
Mehrspurtechnik aufgebrochen. Jedes Instrument wird einzeln aufgenommen und
klanglich bearbeitet. Klang als eigener
Parameter gewinnt an Bedeutung. Es entsteht die Phase des
getrennt-kollektiven Musizierens. Alle Bandmitglieder sind
noch
am Entstehungsprozeß beteiligt und geben der Aufnahme durch
ihre jeweils persönliche Spielweise, durch die verwendeten Instrumente und
Sounds ein charakteristisches Klangbild. Der Einfluß von Toningenieur und
Technik wird aber immer größer.
(3) Es folgt die
Phase des getrennten Einspielens. Sie ist gekennzeichnet durch das Zurücktreten
der Bedeutung des
Musikers. Die einzelnen Instrumental- und Vokalparts werden
getrennt auf Band aufgenommen. Es besteht keine
Notwendigkeit mehr, daß sich die Musiker sehen und über das
Spielen hinaus am Produktionsprozeß beteiligt sind. Auch
können Berufs- oder Studiomusiker eingesetzt werden, die
sich
vollständig in den gewünschten Sound einfügen. Das feste
Bandgefüge bricht auf. Durch die Austauschbarkeit der
Sounds, das Verwenden von Presetsounds und durch die
vielfältigen Klangbearbeitungsmöglichkeiten im Studio geht
ein Teil des individuellen Gruppenstils oder Sounds
verloren. Sound ist nicht mehr an den Musiker gebunden, er wird zur technischen
Dimension: Produktion und Klangbild werden von der verwendeten Technik und vom
Produzenten bestimmt.
(4) In der bislang
letzten, der technischen Phase vollzieht sich eine Verselbständigung der Musik
vom Musiker und vom Musizieren.
Das Kreieren von Musik aus Tönen, Klängen, Geräuschen und
gesampelten Schallereignissen erfolgt am Computer. Der Musiker scheint
überflüssig und durch den Programmierer ersetzbar zu sein. Die menschliche
Stimme kann als einziges personengebundenes Charakteristikum bestehen bleiben,
ist aber auch schon durch technische Stimmreproduktion ersetzbar. Der
charakteristische Stil eines Toningenieurs oder eines Produzenten prägt das
Klangbild und die Machart einer Produktion.
Ob durch die neuen Technologien die Musikalität und
Kreativität eingeschränkt wird, liegt letztlich aber auch in den Händen der
Musiker. Entscheidend ist, wie sie mit den Technologien umgehen. Musiker werden
musizieren und die Technologien als Hilfsmittel verwenden. Nichtmusiker
hingegen werden programmieren und durch die Technologie Musik machen. Ob das
Endprodukt Musik ist, entscheiden jedoch nicht diejenigen, die sie gemacht
haben, sondern die Plattenfirmen, die das Endprodukt als Musik vertreiben und
die Rezipienten, die es als Musik akzeptieren, und kaufen oder aber verwerfen.
Keine Kommentare:
Kommentar veröffentlichen
Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.