Montag, 14. März 2016

Klangerzeugung zur Musikproduktion


Klangerzeugung zur Musikproduktion

Author D.Selzer-McKenzie

https://youtu.be/566QeU7GVpA

 

 

Klangerzeugung

Die Suche nach neuen Klängen und nach Erweiterung der klanglichen Ausdrucksmöglichkeiten ist seit jeher ein Bedürfnis'von Musikern und Komponisten gewesen (man denke nur an die Entwicklung der akustischen Musikinstrumente). In der populären Musik nutzte man vor allem die Fortschritte in Technik und Elektronik, um elektroakustische und elektronische Klangerzeuger zu entwickeln. Die Erfindung der Elektronenröhre durch Lee de Forest (1906) Anfang des Jahrhunderts eröffnete ungeahnte neue Klangmöglichkeiten und Verfremdungen. Ein weiterer Meilenstein war die Erfindung der Hammond Orgel durch Laurens Hammond im Jahre 1935. Doch die wohl folgenschwerste Entwicklung wurde durch den Synthesizer von Robert Moog Anfang der 60er Jahre eingeleitet.

Beim Moog-Synthesizer erfolgt die Tonerzeugung rein elektronisch mit Oszillatoren, Die Grundidee war, alle Klangbearbeitungs-parameter von außen steuerbar zumachen, um eine effektvolle Klangsteuerung zu erzielen. So konnten während des Spielens mittels Potentiometer und Schiebereglern Filter oder Modulatoren zur Klangveränderung angesteuert werden. Der erste Moog war wegen seiner Größe nur in einem Studio zu verwenden und sehr teuer. Daher entwickelte man den Minimoog, eine abge-magerte, handliche und preisgünstige Version des großen Moog-Synthesizer. Er wurde bei vielen Rockgruppen der 70er Jahre zum Standardinstrument neben E-Gitarre und Schlagzeug.

Nach der Entwicklung vom monophonen zum polyphonen Synthesizer entstanden in den 80er Jahren die ersten digitalen Synthesizer. Die Vorreiterrolle hatte der DX-7 von Yamaha, dessen Tonerzeugung auf der Frequenzmodulationssynthese beruht.

 

Durch die leistungsfähige Computertechnologie konnte ein Ton in Echtzeit berechnet sowie das Spektrum in seinem zeitlichen Verlauf verändert werden. Diese neue Art der Klangerzeugung und Klangbearbeitung ermöglichte eine sehr große Klangvielfalt. Doch bereitete die Bedienung der Klangparameter für Anwender zunächst Probleme:

(1)      war die Bedienung nicht so übersichtlich und verständlich wie bei analogen Synthesizern. Ein Sound mußte vor dem Spielen mittels Druckknöpfen und Display programmiert werden;

(2)      konnte der Klang während des Spielens nicht mehr verändert werden. Dadurch waren spontane Klangabänderungen und Klangimprovisationen nicht mehr möglich.

Digitale Synthesizer, wie z.B. der DX-7, sind Preset Synthesizer. Das heißt, sie verfügen über von der Firma vorgefertigte Sounds, sogenannte Werksounds. Diese zuerst als Werbung und verkaufsförderndes Mittel eingesetzte Idee erwies sich bald als sehr hilfreich. Musiker verwendeten die Presetsounds, da sie Schwierigkeiten hatten, ihre Kenntnisse der analogen Klanggestaltung auf die digitale Ebene zu übertragen.

Mit der Samplingtechnik schließlich konnte jedes Schallereignis in digitale Daten umgewandelt werden. Aufnahme und Speicherung, computergestützte Bearbeitung und Reproduktion auf Tastendruck waren möglich. Doch die Mitte der 80er Jahre wohl revolutionierendste technologische Neuerung war die Einführung des Musical Instruments Digital Interface, kurz MIDI genannt, einer digitalen Schnittstelle, die einen Datenaustausch zwischen verschiedenen Synthesizern und Computern ermöglicht. Bald auch erlaubte das MIDI-System die Verkoppelung verschiedener Geräte wie Drumcomputer, Sampler, Expander und Effektgeräte, die sich von einem Computer aus mit einer Sequencer-Software ansteuern lassen. Im MIDI-System können also mit relativ geringem Aufwand vielschichtige Klangkombinationen produziert werden. Es entstanden sogenannte integrierte Systeme, bei denen diverse Verfahren - wie z.B.: Klangsythese, Sequencer, Notationssoftware und Speicherung - in einem System gekoppelt sind. Kleinere integrierte Systeme sind die Workstations, die sich vor allem im

 

Homerecordingbereich großer Beliebtheit erfreuen. Größere und teurere Systeme, wie Synclavier, Fairlight oder AudioFrame, werden im professionellen Bereich eingesetzt.

2. Klangbearbeitung

Zur Bearbeitung von Klängen stehen heute dem Musiker, Toningenieur und Produzenten eine Vielzahl von elektronischen Geräten zur Verfügung. Mit zunehmenden Möglichkeiten der Klangerzeugung und Klangbearbeitung avancierte der Begriff "Sound" in der Popularmusik zum zentralen, strukturellen und ästhetischen Kriterium des Musizierens. Damit ist nicht nur der Klang eines Instruments gemeint, sondern auch die "Gesamtheit aller die sinnliche Qualität von Musik bestimmenden Faktoren" (Ziegenrücker/Wicke, Sachlexikon Popularmusik, 1987, S. 368). Diese Faktoren umfassen einerseits die technischen Mittel, wie die Wahl des Instruments, des Mikrophons, des Mischpults und der Effektgeräte oder des Aufnahmeverfahrens, und andererseits die musikalischen Mittel, also z.B. Interpretation, Spielweise und das Arrangement eines Stückes.

In den 60er Jahren entwickelte sich das. Mehrspur-aufnahmeverfahren. Zunächst wurde auf zwei Spuren aufgenommen, Die ersten Schritte in der Mehrspurtechnik erfolgten durch Überspielen von einer zur anderen Spur bzw. Von einem zum anderen Tonbandgerät. Mitte dieses Jahrzehnts standen 4-Spurgeräte zur Verfügung und ab dem Jahr 1967 setzte ein explosionsartiger Anstieg in der Anzahl der Aufnahmespuren ein, der bis zu den heutigen 24-, 32- und 48- Spur-tonbandmaschinen führte. Zugleich vergrößerte sich die Anzahl der Kanäle am Mischpult und deren Parameter zur Klang-bearbeitung.

Die Bearbeitung eines Klanges beginnt bei der Aufnahme, am Mischpult. Hier wird mit einem Equalizer das Frequenzspektrum korrigiert (Anhebung oder Absenkung einzelner Frequenzbänder). Richtig eingestellte Klangkorrekturen unterstützen wesentliche Frequenzbereiche einer Instrumental- oder Vokalaufnahme und führen zu einer guten Aufteilung der Instrumente im Frequenzspektrum, Dadurch läßt sich eine optimale Transparenz des Gesamtklangbildes erreichen. Die Links-Rechts-Zuordnung In einem Klangbild wird mit dem Panoramaregler eingestellt, wobei ein Instrument oder Signal kontinuierlich von ganz links bis ganz rechts im Klangbild positioniert werden kann. Weiterhin gibt es am Mischpult die Möglichkeit, Signale abzugreifen, um diese in Effektgeräte zu schicken und dort zu verändern.

Das wohl wichtigste Effektgerät im Tonstudio Ist der Hall. In den 60er Jahren spielten die Bands ihre Musikstücke gemeinsam im Studio ein. Durch die Einführung des Mehrspur-aufnahmeverfahrens wurden die Instrumente völlig getrennt und ganz "trocken", d.h. ohne Raumklang aufgenommen. Die fehlende Rauminformation mußte beim "Mix down" nachträglich künstlich hinzugefügt werden. Das geschah in den 60er Jahren in Hallräumen, mit Hallplatten oder einem Federhall auf recht aufwendige und umständliche Weise. Heute simulieren Hallgeräte in der Größe eines 19 Zoll-Gehäuses jeden gewünschten Raum, vom Badezimmer bis zum Kölner Dom. Mit dem Dazumischen von Hall wird zweierlei erreicht: Erstens kommt ein Instrument zum Klingen, wirkt natürlich, und zweitens wird jedes Instrument in einen eigenen Raum "gesetzt". Das erlaubt eine Tiefenstaffelung der Instrumente Im Klangbild.

Eine weitere wichtige Funktion des Halls besteht in der Gestaltung einer Einheit. Bei der Aufnahme eines Drumsets z.B. werden alle Instrumente extra aufgenommen, extra bearbeitet und extra mit einem Hall versehen. Um dieses im Klangbild total auseinandergefallene Drumset wieder zu einer Einheit zusammenzufügen, wird dem Schlagzeug-Summensignal ein einheitlicher Hallraum beigemischt.

Weitere Klangbearbeitungs- und Effektgeräte sind: Delay, Flanging, Kompressor, Harmonizer und Exciter. Ein Delay erzeugt Echoeffekte und kann auch zur Unterstützung des Klangvolumens, z.B. einer Vokalaufnahme, eingesetzt werden. Der Flanging-Effekt wurde erstmals in den 60er Jahren entdec.kt. Zwei Bandmaschinen, die synchron laufen sollten, differierten um wenige Millisekunden, so daß es zu Phasenverschiebungen und interferrenzauslöschungen im Frequenzspektrum und damit zu

Klangverfärbungen kam. Anwendung findet dieser Effekt z.B. bei Gitarren, Streichern oder bei statisch wirkenden synthetischen Klängen, um sie lebendiger zu gestalten.

Der Kompressor dient zur Dynamikregelung. Durch die Komprimierung eines Signals im Dynamikbereich wird es druckvoller, kompakter und in der Popmusik leichter bearbeitbar, Da sich Pop- und Rockmusik in einem sehr begrenzten und schmalen Dynamikbereich bewegt, kommt dieses Effektgerät hier so gut wie immer zur Anwendung.

Mit einem Harmonizer kann zu einer Melodie eine zweite oder dritte Melodie in einem bestimmten Intervallabstand hinzuaddiert werden. Ferner können leichte Intonationsschwankungen (z.B. bei einer Vokalaufnahme) ausgeglichen werden.

Mittels eines Exciters schließlich werden einem Originalsignal Obertöne hinzugefügt. Hiermit erzielt man einerseits ein schärferes Klangbild, andererseits wird das Gesamtklangbild eines Musikstücks "auseinandergezogenm und erscheint damit transparenter.

3. Musik und Technik

Für den Erfolg eines Songs oder eines Musikstückes wurde früher in der Musikindustrie ein strukturbildendes Prinzip angewandt, das vor allem am Aufbau eines melodischen Konzepts orientiert war. An erster Stelle standen die musikalischen Parameter Melodie, Harmonie und Rhythmus. Durch den zunehmenden Einfluß der Technik wurden diese Parameter zugunsten eines neuen, von den technologischen Möglichkeiten determinierten Produktions-konzepts zurückgedrängt. Um den kommerziellen Erfolg kalkulierbarer zu machen, setzte man ein soundorientiertes Konzept ein, in dem der aufnahmetechnische Vorgang im Tonstudio sowie die technische Qualität der Musik in den Vordergrund traten. "Das hat enorme Möglichkeiten des Musizierens freigesetzt, die In der Entwicklung der Rockmusik, in der Vielfalt ihrer Spielweisen und Stilkonzeptionen auch realisiert worden sind" (Ziegenrücker/Wicke, Sachlexikon Popularmusik, 1987, S. 326). Die Popularmusik bedient sich ausschließlich der jeweils modernsten Techniken, Damit Ist sie von den Produktions-und Reproduktionsbedingungen der Massenmedien abhängig geworden. Technik fungiert als gleichberechtigter Bestandteil neben den musikalischen und instrumentalen Parametern. Die Technik beeinflußt

(1)      die musikimmanenten und strukturellen Ideen der Musiker,

(2)      die Klangvorstellungen und -realisationen,

(3)      den Klang der Musikinstrumente und deren Ausdrucks-möglichkeiten,

(4)      die Qualität der Musikaufnahme.

Alle diese Faktoren sind wesentlich für den kommerziellen Erfolg einer Musikproduktion geworden.

Der immer stärker werdende Einfluß neuer Technologien auf den musikalischen Schaffensprozeß sei kurz an einigen Beispielen der Beatles aufgezeigt Ihre ersten Songs sind noch mit der "klassischen" Standardbesetzung (2 Gitarren, Baß und Schlag-zeug) aufgenommen. Bald aber begann man mit den vorhandenen technischen Geräten zu experimentieren. Dabei orientierte man sich durchaus auch an Komponisten der Elektronischen Musik wie z.B. Stockhausen und übernahm einige der dort erarbeiteten Möglichkeiten: Techniken wie Montage, Collage, Verwenden von Alltagsgeräuschen, Abspielen der Tonbänder mit verschiedenen Geschwindigkeiten oder Rückwärts-Abspielen von Tonbandstücken. So entstand im Jahr 1966 mit relativ großem technischen Aufwand die Single "Strawberry Fields Forever". In diesem Stück sind zu hören:

-          Tonbandeinspielungen mit Stimmengewirr, - rückwärtiges Abspielen einzelner Tonbandstücke, - Aneinanderreihung und Rückwärts-Abspielung kurzer Tonband¬stücke, so daß ein rhythmisches Muster entsteht,

-          Montage von Partien, die mit unterschiedlichen Geschwindig-keiten auf zwei Tonbandmaschinen abgespielt wurden (Phasingeffekt),

-          Ausnützen des Stereoeindrucks mit wandernder Schallquelle von links nach rechts (z.B. wird das Herannahen eines Zuges mit der Gitarre simuliert).

Derarfige Klangexperimente waren die Wurzel .und der Ideenfundus für die in den folgenden. Jahrzehnten entwickelten

weiterer wichtiger Schritt in der klanglichen Veränderung der Popularmusik war dann das Verwenden synthetisch erzeugter Klänge. Der Musiker Keith Emerson von der Formation Emerson, Lake & Palmer setzte als einer der ersten den Minimoog als eigenes, selbständiges Instrument ein. Vor allem in den 70er Jahren versuchte Jeder Keyboardspleler seine eigenen, synthetisch erzeugten Klänge zu kreieren. Dieses machte einen nicht unwesentlichen Bestandteil des charakteristischen Klangbildes einer Gruppe aus.

Mit Potentiometer und Schieberegelern der analogen Synthesizer konnten klangliche Improvisationen auch während des Spielens realisiert werden. Durch diese hohe Klangflexibilität waren die 60er und 70er Jahre geprägt von Klangimprovisationen der Keyboarder. Synthesizerklänge rückten teilweise aber auch übermäßig stark in den Vordergrund, da mit ihnen Faszination beim Publikum auszulösen war. So sind die Musikstücke der Formation Tangerine Dream z.B. durch lange Synthesizer-Improvisationen geprägt. "in Moll gehaltene, langgestreckte Melodien - selten mehr als fünf Töne - bauten sich über bis zu 10 Sekunden währenden Dreiklängen auf, die zu simplen Akkordgerüsten verbunden wurden. (...) Modulationen waren Zufall" (Christian Kneisel in T. Kneif, Rock in den 70ern, 1980, S. 200). Diese Klangimprovisationen traten so stark in den Mittelpunkt, daß rhythmische und melodische Komponenten zurückgedrängt wurden.

In den 80er Jahren rückte die Technik immer mehr in den Vordergrund, bedingt durch die rasante Entwicklung auf dem Instrumentenmarkt und auch als Folge des zunehmenden Konkurrenzkampfes auf dem Musikmarkt. Für eine Band und einen Musiker wurde es immer wichtiger, mit welchen Instrumenten man spielte. Für das Image und für den Erfolg war es von großer Bedeutung, an der Spitze der Technologie zu stehen, So findet man auf Plattencovers eine meist sehr ausführliche Auflistung sämtlicher verwendeter Musikinstrumente und Geräte. Auch Interviews mit Musikern aus der Zeit der 80er Jahre sind häufig nur Die einschneidensten und die Pop- und Rockmusik verändernden Innovationen waren die Einführung des MIDI-Systems, die Samplingtechnik und der Einzug des Computers in die Tonstudios. Dank der Sampler, digitalen Klangspeichergeräten, stehen heute eine unbegrenzte Vielfalt von Klängen und Geräuschen zur Verfügung. Taucht ein origineller Sound in einem Song oder Musikstück auf und avanciert der Song zum Hit, so wird er sofort mittels der Samplingtechnik verwertet und in neue Songs eingemischt, In der Hoffnung, auf diese Weise eventuell an dem Erfolg teilzuhaben.

Durch die Einführung digitaler Synthesizer mit der sehr abstrakten Klanggestaltung und das dadurch bedingte Zurückgreifen auf die Presetsounds ging ein wichtiger Teil der individuellen Klang-gestaltung verloren. Es entstand das paradoxe Phänomen, daß die Musikstücke trotz der vielen Klangbearbeitungs-möglichkeiten im Großen und Ganzen einander klanglich immer ähnlicher wurden. Daher entwickelte sich in der popularen Musik der letzten Jahre eine stark sängerbezogene Musik. Der Sänger gibt mit seiner Stimme dem Song ein unverwechselbares Charakteristikum. Demgegenüber treten die Instrumentalisten in den Hintergrund. .Sie sind ersetzbar geworden, denn die Soundgestaltung ist nicht mehr an den Musiker gebunden, wie das noch in den 60er und 70er Jahren der Fall war. Soundgestaltung ist durch die Studiotechnologie machbar.

Das Klangbild der kommerziell produzierten Popmusik hat sich seit dem Einsatz der neuen Technologien stark geändert. Der Sound eines Popsongs (oder eines Hits) heute klingt steril, synthetisch und "clean". Dieser Eindruck wird durch die Präzision der computerquantisierten Rhythmen verstärkt. Zur Abschwächung dieses Eindrucks werden sogenannte "human feeling" Programme eingesetzt, die den Song rhythmisch wieder etwas ungenauer und damit "menschlicher" machen.

Zusammenfassung

Die musikhistorische Bedeutung der Entwicklung der Musiktechnologien und die daraus resultierende Annäherung von

Musik und Technik besteht darin, daß ohne sie weder Rock'n'Roll und Beatmusik, noch Rock- und Popmusik in ihrer heutigen Form hätten entstehen können. Der Einfluß der Musiktechnologie auf die Art des Musizierens und die Musikproduktion läßt sich in vier Phasen darstellen:

(1)      In der ersten Phase des gemeinsam-kollektiven Musizierens (50/60er) wird die Musik von allen Bandmitgliedern gespielt, auf Tonband aufgenommen, und im Studio nachträglich kaum verändert.

(2)      Das "gemeinsame Musizieren" wird durch die. Tonaufnahme in Mehrspurtechnik aufgebrochen. Jedes Instrument wird einzeln aufgenommen und klanglich bearbeitet. Klang als eigener

Parameter gewinnt an Bedeutung. Es entsteht die Phase des

getrennt-kollektiven Musizierens. Alle Bandmitglieder sind noch

am Entstehungsprozeß beteiligt und geben der Aufnahme durch ihre jeweils persönliche Spielweise, durch die verwendeten Instrumente und Sounds ein charakteristisches Klangbild. Der Einfluß von Toningenieur und Technik wird aber immer größer.

(3)      Es folgt die Phase des getrennten Einspielens. Sie ist gekennzeichnet durch das Zurücktreten der Bedeutung des

Musikers. Die einzelnen Instrumental- und Vokalparts werden

getrennt auf Band aufgenommen. Es besteht keine

Notwendigkeit mehr, daß sich die Musiker sehen und über das

Spielen hinaus am Produktionsprozeß beteiligt sind. Auch

können Berufs- oder Studiomusiker eingesetzt werden, die sich

vollständig in den gewünschten Sound einfügen. Das feste

Bandgefüge bricht auf. Durch die Austauschbarkeit der

Sounds, das Verwenden von Presetsounds und durch die

vielfältigen Klangbearbeitungsmöglichkeiten im Studio geht

ein Teil des individuellen Gruppenstils oder Sounds verloren. Sound ist nicht mehr an den Musiker gebunden, er wird zur technischen Dimension: Produktion und Klangbild werden von der verwendeten Technik und vom Produzenten bestimmt.

(4)      In der bislang letzten, der technischen Phase vollzieht sich eine Verselbständigung der Musik vom Musiker und vom Musizieren.

Das Kreieren von Musik aus Tönen, Klängen, Geräuschen und gesampelten Schallereignissen erfolgt am Computer. Der Musiker scheint überflüssig und durch den Programmierer ersetzbar zu sein. Die menschliche Stimme kann als einziges personengebundenes Charakteristikum bestehen bleiben, ist aber auch schon durch technische Stimmreproduktion ersetzbar. Der charakteristische Stil eines Toningenieurs oder eines Produzenten prägt das Klangbild und die Machart einer Produktion.

Ob durch die neuen Technologien die Musikalität und Kreativität eingeschränkt wird, liegt letztlich aber auch in den Händen der Musiker. Entscheidend ist, wie sie mit den Technologien umgehen. Musiker werden musizieren und die Technologien als Hilfsmittel verwenden. Nichtmusiker hingegen werden programmieren und durch die Technologie Musik machen. Ob das Endprodukt Musik ist, entscheiden jedoch nicht diejenigen, die sie gemacht haben, sondern die Plattenfirmen, die das Endprodukt als Musik vertreiben und die Rezipienten, die es als Musik akzeptieren, und kaufen oder aber verwerfen.


Keine Kommentare:

Kommentar veröffentlichen

Hinweis: Nur ein Mitglied dieses Blogs kann Kommentare posten.