Paulo C. Chagas

Zwischen Klängen und Apparaten

Zur Theorie und Praxis der elektronischen Musik


Rediroma-Verlag


Copyright (2021) Re Di Roma-Verlag

Alle Rechte beim Autor

www.rediroma-verlag.de

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Für Volker Müller (1942-2021) in Erinnerung an unsere gemeinsame Zeit im elektronischen Studio des WDR, mit Dankbarkeit für seinen freien Geist, seine Großzügigkeit und Kreativität.

Einleitung

 

Zwischen Klängen und Apparaten:

Zur Theorie und Praxis der elektronischen Musik

 

 

Die Praxis der elektronischen Musik ist ein besonders geeignetes Feld für die Ausübung der Kulturkritik der Gegenwart. Die Fragen, mit denen sich dieses Buch befasst, lassen sich wie folgt zusammenfassen: Wie werden heute musikalische Informationen erzeugt? Dies ist offensichtlich ein grundlegendes Thema der elektronischen Musik, aber es betrifft alle zeitgenössischen Musikschöpfungen. Die Antwort stellt uns vor eine doppelte Herausforderung: Einerseits müssen wir die Konzepte der postindustriellen Gesellschaft, ihre Geräte und Programme kritisieren; andererseits müssen wir methodisch nach Lösungen suchen, um Informationsstrukturen aufzuklären und zu fördern. Während der zehn Jahre (1990-1999), die ich als Klangregisseur im Studio für elektronische Musik des WDR in Köln arbeitete, hatte ich die Gelegenheit, mich aktiv an einer Struktur zu beteiligen, deren Arbeitsphilosophie als historische Referenz zu betrachten ist, und zwar nicht nur für die Produktion elektronischer Musikwerke, sondern als Modell für künstlerische Kreativität überhaupt.

 

Seit seiner Gründung in den frühen 1950er Jahren förderte das Kölner Studio eine enge und intensive Zusammenarbeit zwischen Technikern und Künstlern. Die Komponisten, die im Studio arbeiteten, hatten die breite und uneingeschränkte Unterstützung von technischen und künstlerischen Assistenten, die eine viel wichtigere Beteiligung am Schöpfungsprozess hatten als es in den historischen Aufzeichnungen erscheint. Es ist keine Übertreibung, diese kollektive Struktur als „dialogische Schöpfung“ zu bezeichnen. Dies mag für diejenigen radikal klingen, die künstlerisches Schaffen als einen Prozess der Individualisierung, eine Vergöttlichung der kreativen Person verstehen. Der Mythos des „Künstlers“, ein Überbleibsel einer bis heute versteinerten romantischen Konzeption des künstlerischen Prozesses, verhindert, dass die Frage nach musikalischen Informationen klar erkennbar wird. Daher verstehe ich es als unsere Aufgabe, diese romantische Vorstellung von ihrem traditionalistischen Schleier zu befreien und die Strukturen der Kreativität in der heutigen Gesellschaft mit zeitgenössischen Konzepten zu beleuchten, um die revolutionären Möglichkeiten des technologischen Wandels im künstlerischen und musikalischen Universum transparent zu machen.

 

Der Apparat ist ein Schlüsselkonzept für das Verständnis der zeitgenössischen künstlerischen Kreativität. Der Begriff des Apparats ist nicht auf die Technik von Objekten beschränkt, sondern umfasst Subjektivierungsprozesse. Wie Agamben behauptet, haben Apparate „die Fähigkeit, Gesten, Verhaltensweisen, Meinungen oder Diskurse von Lebewesen zu erfassen, zu orientieren, zu bestimmen, abzufangen, zu modellieren, zu kontrollieren oder zu sichern.“1 Alle Arten von sozialen Instanzen wie Gefängnisse, Schulen, Fabriken, juristische Maßnahmen, aber auch Literatur, Philosophie, Kunst, Unterhaltung, Computer, Telefone, Rassismus und Sprache selbst sind Apparate. Das Wachstum von Apparaten im Kapitalismus kann durch die Multiplikation von Subjektivierungsprozessen verfolgt werden. Agamben definiert die gegenwärtige extreme Phase des Kapitalismus als eine massive Anhäufung und Verbreitung von Apparaten. Apparate wurzeln im Wesen der Humanisierung und stellen die Trennung dar, die das Lebewesen von sich selbst und seiner Umwelt trennt: „Die Wurzel jedes Apparats ist ein allzu menschliches Verlangen nach Glück. Die Erfassung und Subjektivierung dieses Wunsches in einer separaten Sphäre bildet die spezifische Kraft des Apparats.“2

 

Mit elektronischer Musik bauen wir die Fähigkeit auf, Geräte zu verwenden, um Geräusche in Räumen zu erzeugen und zu bewegen. In diesem Sinne stellt die elektronische Musik einen Paradigmenwechsel dar, da die Art und Weise beeinflusst, wie wir die Welt sehen und wie wir uns als Menschen definieren. Wir sind von der Interpretation von Bedeutung durch Philosophie, Poesie und Hermeneutik zum Denken in Bezug auf Kybernetik, Informationstheorie und stochastische Systeme übergegangen. Wir haben uns von der zentralen Position der menschlichen Subjektivität entfernt, um eine Art Maschinenobjekt zu werden, das unabhängig von menschlicher Handlungsfähigkeit arbeitet. Ein umfassender Ansatz der elektronischen Musik sollte daher vielschichtige Einblicke in die Natur der Apparate liefern, nicht nur mit analytischen und synthetischen Ansätzen zur Klangwahrnehmung und -komposition, sondern auch deren symbolische Funktion als kulturelle Paradigmen untersuchen.

 

„Ein Überblick über die wichtigsten Geräte“ ist eine Einführung in die Apparatur des elektronischen Studios, die 1990 geschrieben wurde mit dem Ziel, die Komponisten mit der Hybridausrüstung des Studios vertraut zu machen. Es gehörte zur Philosophie des WDR-Studios, sich nicht auf eine Technologie zu beschränken, sondern die Vorteile der verschiedenen analogen und digitalen Systeme auszunutzen und Verbindungen zwischen ihnen zu schaffen. Der Text lässt sich heute quasi wie eine archäologische Betrachtung der damaligen Apparatur und ihrer künstlerischen Möglichkeiten lesen. So werden ausführlich beschrieben: der Fairlight III als Prototyp von Computermusiksystemen, der Akai S1000 Sampler, der frühere Yamaha-Digital-Musiksynthesizer DX7 II und TX 802, der emblematischen EMS Synth 100, ein Synthesizer der 70er Jahrer, der das Prinzip der Steuerspannung (Control Voltage) in einer umfangreichen und mannigfaltigen Ausführung verwirklicht, und der EMS Vocoder, ein analoges Gerät, das grundsätzlich zur Bearbeitung von Sprache konzipiert wurde, aber im Studio als wichtiger Apparat für die Bearbeitung von Klängen und Klangstrukturen diente.

 

Der Wandel von analog zu digital bei der Produktion elektronischer Musik im WDR-Studio ist das Thema von „Ein Regler ist nicht ein Regler ist nicht ein Regler“. Der Text wurde als Brief an Karlheinz Stockhausen 1998 formuliert, anlässlich seiner Entscheidung, die Produktion seines elektronischen Werkes im Studio abzubrechen. Die Produktionsmethoden der 90er Jahre werden detailliert beschrieben und die Struktur der „dialogischen Schöpfung“ enthüllt, die bezeichnend für die Arbeit des Studios gewesen ist. Natürlich verlaufen die menschlichen Beziehungen nicht geradlinig und werden mit vielfältigen, wechselwirkenden Emotionen geladen. Daher wäre es verlockend, diesen in einem leichten und humorvollen Ton verfassten Text als Kritik an Stockhausen zu interpretieren. Aber das war keinesfalls meine Absicht. Ich wertschätze Stockhausens große Leistung und seine Vorreiterrolle bei der Entwicklung der elektronischen Musik sehr, aber in dem Aufsatz wollte ich die Aufmerksamkeit vor allem auf die neue Realität der digitalen Apparate und ihre radikalen Auswirkungen auf das künstlerische Schaffen lenken.

 

„Der Pluralistische Raum“ ist eine dreiteilige Dokumentation der Produktion des Studios für elektronische Musik des WDR in den 90er Jahren, die teilweise in Zusammenarbeit mit dem Toningenieur Volker Müller entstanden ist. In Teil I werden die räumlichen und technischen Einrichtungen des WDR-Studios beschrieben, das grundlegende Arbeitskonzept vorgestellt, und die Werke, die im Studio produziert wurden, zusammengestellt. In den folgenden Teilen werden die Werke der Komponisten einzeln betrachtet: in Teil II die Stücke von Jean-Claude Eloy, Denys Bouliane, Luc Ferrari, Michel Waisvisz, Jörg Birkenkötter und Younghi Pagh-Paan; in Teil III die Stücke von York Höller, Jonathan Harvey, John McGuire, Paulo C. Chagas, Marco Stroppa, Mauricio Sotello und Karlheinz Stockhausen. Die Ästhetik und die Produktionsmethoden der Werke sind Ausgangspunkt für einen kritischen, analytischen Einblick in das weite Feld der elektronischen Musik. Es wird gezeigt, wie die elektronische Musik der 90er Jahre eine enge Beziehung zur Instrumentalmusik pflegte. Sie ist sowohl Ausgangspunkt für die Annäherung an die Elektronik als auch Ziel einer Ästhetik, in der elektronische Klänge vorwiegend im Zusammenwirken mit traditionellen Instrumenten ihre Berechtigung überhaupt finden. Bei der näheren Betrachtung der Werke wird versucht, Ansätze der sogenannten Live-Elektronik zu beschreiben und Kategorien aufzudecken, die einen dialogisierenden Prozess in der Auseinandersetzung mit den Apparaten der elektronischen Musik kennzeichnen. Die Zusammenstellung der Apparatur des Studios für elektronische Musik – in Teil II – verschafft einen Einblick in der Technik der 90er Jahre.

 

Mit der Krise des elektronischen Studios, die am Ende der 90er Jahre voll im Gang war und dem Prozess, der zur Schließung des WDR-Studios in 2001 führte, setzen sich die kurzen Essays „Paradoxien der elektronischen Musik“ und „Zur Zukunft des elektronischen Studios“ auseinander. Als ein Medienapparat in traditioneller Hinsicht, wurde die historische Rolle des Studios durch die Digitalisierung und Vernetzung der Gesellschaft in Frage gestellt. Anfang des 21. Jahrhunderts fand eine öffentliche Diskussion über die Zukunft des Studios mit der Beteiligung von Journalisten, Musikkritikern, Komponisten, WDR-Funktionären und Musikinteressenten im Allgemeinen statt. Mein Interesse an dieser Debatte als ehemaliger Studiomitarbeiter, Komponist und Forscher bestand hauptsächlich darin, Fragen zu stellen, um einen Dialog zu fördern. Das Schicksal des Studios weist auf die Medienentwicklung der Gesellschaft und die Transformation von Werten hin, auf einen Prozess, der gerade erst beginnt und für den die Auflösung des Studios eine symbolische Bedeutung hat. Die ganze Diskussion drückt das Bewusstsein aus, dass neue ästhetische Kategorien zum Ausdruck gebracht werden müssen. Die Frage, die sich in diesen Essays stellt, ist immer noch sehr aktuell: Wie sollen wir den künstlerischen Herausforderungen entgegentreten?

 

Der Aufsatz „Virtualität und Metadesign: Die Klangkunst im Zeitalter ihrer Vernetzbarkeit“ von 2003 reflektiert die neuen Technologien der Informationsgesellschaft und die Entwicklung neuer künstlerischer, musikalischer und klanglicher Felder. Die neuen Medien treiben den Prozess der Ausdifferenzierung des Kunstsystems durch die Entstehung von neuen Formen voran, in dem die Musik eine Vorreiterrolle spielt, wie man im Internetboom zu Beginn des 21. Jahrhunderts beobachtet hat. Der Artikel setzt sich mit der Entstehung einer Techno-Kultur auseinander und den unterschiedlichen Auffassungen, die diese Entwicklung begleiten: einerseits mit der Begeisterung für die neue Möglichkeiten der Netzwerk-Kommunikation, welche die Utopie der telematischen Gesellschaft verkörpert; andererseits mit der Skepsis über die Fähigkeit der Technologie, unser Dasein als Mensch zu verändern. Aus einer interdisziplinären Perspektive, die Begriffe von Kunst, Kultur und Technologie in Zusammenhang bringt, werden zusammenfassend Modelle der Entwicklung der Klangkunst im Medienzeitalter vorgeschlagen.

 

Die zeitgenössische europäische Musik der Nachkriegszeit und die Blütezeit der ersten Phase der elektronischen Musik in den 1950er und 1960er Jahren ist mit der Figur mehrerer Komponisten verbunden, die diese Welt im frühen 21. Jahrhundert verlassen haben – unter ihnen Karlheinz Stockhausen und Henri Pousseur. Es war mir eine große Ehre, diese beiden Komponisten persönlich kennenzulernen und die Möglichkeit zu haben, eng mit ihnen zusammenzuarbeiten. Noch unter der Resonanz ihres Todes schrieb ich die Texte „The Great Trickster of Electronic Music“ (Stockhausen 1928-2007) und „Die Naivität eines Kindes“ (Pousseur 1929–2009). Sie sind posthume Hommagen und Ausdruck meiner Dankbarkeit an diese bedeutenden Persönlichkeiten, deren Ideen meine künstlerische Orientierung beeinflusst haben. Meine Erinnerungen an Stockhausen sind geprägt von seinem Charisma und seinem feinen Sinn für Humor, seiner Fähigkeit, Menschen mit seiner Musik und Fantasie zu verführen und zu begeistern. Mit Pousseur pflegte ich eine jahrzehntelange Freundschaft. Er faszinierte mich durch seinen Sinn für Humanismus und seine Fähigkeit, historische Tradition und kulturelle Vielfalt in musikalische „harmonische Netzwerke“ zu integrieren.

 

„Pulsierende Knoten“ präsentiert eine Retrospektive von Konzepten und Themen, die in früheren Texten behandelt wurden und hier unter neuen ganzheitlichen Gesichtspunkten überarbeitet wurden. Die Geschichte der elektronischen Musik aus der Sicht des Studios von Köln und Paris sowie die ästhetischen Grundlagen, die sich den 1950er und 60er Jahren der elektronischen Musik und der musique concrète widersetzten, werden verglichen und analysiert. Der Text konzentriert sich insbesondere auf die Kreativität des Kölner Studios. Es zeigt die Rolle des Radios als Propagandawerkzeug während des NS-Regimes und wie elektroakustische Technologie und Medieninteraktionen die Ästhetik elektronischer Musik beeinflussten. Das Studio wird als autopoetisches Modell präsentiert, das das Prinzip der kybernetischen Zirkularität in weitesten Sinne verwirklicht hat. Die neue Ära der digitalen Kreativität wird unter Bezugnahme auf Attalis Verständnis von Musik als wirtschaftspolitisches Instrument analysiert. Schließlich wird auf der Grundlage semiotischer Ausarbeitungen der Postmoderne ein musikalisches Kreativitätsmodell vorgeschlagen, um Trends in der zeitgenössischen Kunst zu artikulieren.

 

Der Aufsatz „Die kybernetische Zirkularität in der elektronischen Komposition“ ist meinem Werk Projektion 12-kanalige elektronische Musik gewidmet, das im Studio für elektronische Musik des WDR realisiert wurde, kurz bevor das Studio seine musikalische Produktion einstellte. Projektion setzt sich mit einigen Ideen und Visionen der Analog-Ära der elektronischen Musik auseinander, u.a. mit den Konzepten der „parametrischen“ Komposition und der Klangraum-Komposition, die mit digitalen Apparaten realisiert wurden. Das kybernetische Prinzip der Zirkularität und das Konzept von nichttrivialen Maschinen werden in der Komposition angewendet für die Erschaffung eines virtuellen 12-kanaligen Klangraums. Auf der Grundlage des Fragments eines Sprachklanges wurden mehrere 12-kanalige Strukturen erstellt durch Transformationsverfahren wie z.B. Rückkopplung (Feedback), Verzögerung (Delay) und Filter, die zusammengesetzt wurden für die Komposition des Stückes Projektion 12-kanalige elektronische Musik. Darüber hinaus wurde das Konzept der zirkulären Klangraums und die Ästhetik der Immersion durch die Klanginstallation Projektion 12-kanalige Klanginstallation weiterverfolgt.

 

Der brasilianische Komponist Gilberto Mendes (1922-2016) spielte eine wichtige Rolle bei der Einführung der Avantgarde-Musik in Brasilien in den 1960er Jahren und durch die Gründung des „Festival Música Nova“, eines der wichtigsten Ereignisse für zeitgenössische Musik in Brasilien. Seine Karriere entwickelte sich parallel zu den europäischen Komponisten seiner Generation, obwohl er Santos, seine Heimatstadt am Meer, nie verließ. Der am Tag seines Todes verfasste Text, „Segeln im Meer der Kreativität“, ist ihm gewidmet. Während meiner langjährigen Freundschaft mit Gilberto Mendes habe ich die Originalität seines musikalischen Denkens und seiner unglaublichen Fähigkeit, das Absurde und das Komische zu erkennen, bewundert. Dies sind einige der Eigenschaften, die sich in seinem umfangreichen musikalischen Werk widerspiegeln.

 

Der letzte Aufsatz des Buches „Revolt and Ambivalence“ beschäftigt sich mit der dunkleren Seite des elektroakustischen Paradigmas, nämlich der Ära der Musik als Folterapparat. Er untersucht die Komposition meines Digitalen Oratoriums The Refrigerator von 2014 – für zwei Sänger, Instrumentalensemble, elektronische Klänge und visuelle Projektion –, in dem ich meine persönlichen Erfahrungen mit Folter verarbeite. Ich war 17 Jahre alt, als ich 1971 in Brasilien aufgrund meiner politischen Aktivitäten gegen die brasilianische Militärdiktatur in Militärhaft kam und viele Tage lang mit elektronischen Klängen brutal gefoltert wurde. Die Erfahrung der Folter wird betrachtet aus der Perspektive der Absurditätsphilosophie von Camus und seine Interpretation des Mythos von Sisyphos, der die Absurdität sowohl durch seine Leidenschaft als auch durch sein Leiden verkörpert. In dem Aufsatz werden Brücken zwischen der existenziellen Erfahrung von Folter, der elektronischen Musikkomposition und der Technologie der Klangsynthese geschlagen. Die Praxis der Folter mit elektronischen Klängen zeigt, dass innerhalb des elektroakustischen Paradigmas ein vibrationszentriertes Modell existiert, das das Vorhandensein einer allgegenwärtigen, unsichtbaren Vibrationskraft erzeugt, die die physische Kraft besitzt, menschliche Subjektivität und Freiheit zu eliminieren.

 

Die Artikel wurden zwischen 1990 und 2016 geschrieben. Sie werden in chronologischer Reihenfolge präsentiert und der Originaltext wurde so weit wie möglich beibehalten.

 

Riverside (CA), 10.02.2021

Paulo C. Chagas

 

Inhaltsverzeichnis

 

1. Ein Überblick über die wichtigsten Geräte

Studio für elektronische Musik des Westdeutschen Rundfunks (1990)

 

2. Ein Regler ist nicht ein Regler ist nicht ein Regler

Oder wie man aus der Oper Licht eine virtuelle Operette schafft

 

3. Der Pluralistische Raum.

Die Produktion des Studios für elektronische Musik des WDR in den 90er Jahren. Eine Einführung und Dokumentation      68

 

4. Der Pluralistische Raum.

Die Produktion des Studios für elektronische Musik des WDR in den 90er Jahren. Eine Einführung und Dokumentation. Teil II      81

 

5. Der Pluralistische Raum.

Die Produktion des Studios für elektronische Musik des WDR in den 90er Jahren. Eine Einführung und Dokumentation. Teil III      101

 

6. Paradoxien der elektronischen Musik

Wozu braucht man das elektronische Studio?

 

7. Zur Zukunft des elektronischen Studios

Die künstlerische Herausforderung

 

8. Virtualität und Metadesign

Die Klangkunst im Zeitalter ihrer Vernetzbarkeit

 

9. The Great Trickster of Electronic Music.

Karlheinz Stockhausen (1928-2007)

 

10. Die Naivität eines Kindes.

Henri Pousseur (1929-2009) und die humanistischen Quellen der Kreativität

 

11. Pulsierende Knoten

Vom Studio für elektronische Musik zu neuen Modellen musikalischer Kreativität

 

12. Die kybernetische Zirkularität in der elektronischen Komposition

Projektion 12-kanalige elektronische Musik

Projektion 12-kanalige Klanginstallation      217

 

13. Segeln im Meer der Kreativität

Gilberto Mendes (1922–2016)

 

14. Revolt and Ambivalence

Music, Torture and Absurdity in the Digital Oratorio The Refrigerator

 

 

1. Ein Überblick über die wichtigsten Geräte

 

Studio für elektronische Musik des Westdeutschen Rundfunks (1990)3

 

1. Einleitung

 

Diese Einführung soll dazu dienen, den Komponistinnen und Komponisten einen Überblick über die Geräte des Studios für elektronische Musik des WDR zu geben. Es ist nicht unsere Absicht, die technischen Eigenschaften der Geräte ausführlich zu beschreiben, sondern vielmehr das Ganze aus einem musikalischen und praktischen Blickwinkel zu betrachten.

 

Die Erfahrung hat gezeigt, dass die verfügbaren Geräte in elektronischen Studios sehr oft auf unorthodoxe oder unvorhergesehene Weise benutzt wurden und werden. So sind z.B. in den fünfziger Jahren Geräte der Mess- und Prüftechnik zu wichtigen „Instrumenten“ der elektronischen Musik geworden. Die analogen Synthesizer der siebziger Jahre, die speziell für elektronische Musik konzipiert wurden, haben nichts Neues im Bereich der Klangerzeugung gebracht. Sie haben vor allem die Arbeit wesentlich erleichtert und dadurch neue kompositorische Prozesse ermöglicht. Doch in der Praxis wurden sehr oft Verfahren entwickelt, in denen die Bausteine dieser Geräte (Oszillatoren, Filter usw.) für andere als die tatsächlich gedachten Zwecke benutzt wurden.

 

Mit der digitalen Technik ist es nicht anders. Die heutzutage verfügbaren MIDI-Synthesizer, Sampler und Computersysteme sind vorwiegend für kommerzielle Musik konzipiert, was einerseits zu immer leistungsfähigeren und benutzerfreundlichen Geräten führt, aber andererseits eine Konfektionierung der Klänge und Standardisierung des musikalischen Ausdruckes verursacht. Die elektronische Musik kann und soll von den Produkten der Musikindustrie profitieren, gleichzeitig aber muss sie sich darüber hinaus weiterentwickeln, wenn sie ihre eigene Identität behalten und ihrer Bedeutung für gegenwärtiges und zukünftiges Musikschaffen gerecht werden will.

 

 

 

2. Zur Apparatur

 

Das elektronische Studio bietet den Komponistinnen und Komponisten grundsätzlich immer eine flexible Arbeitsumgebung und eine Vielfalt an Möglichkeiten hinsichtlich Apparatur und technischen Einrichtungen an. Wir wollen uns nicht auf eine bestimmte Technologie beschränken, sondern die Vorteile der verschiedenen analogen und digitalen Systeme ausnutzen und Verbindungen zwischen ihnen schaffen.

 

Die komplette Apparatur des Studios kann man aus der von Volker Müller aufgestellten Liste über die technischen Geräte (Stand Februar 1990) entnehmen.4 In dieser Einführung wollen wir einen Blick auf die wichtigsten Geräte werfen, die direkt mit der Klangerzeugung und -bearbeitung zu tun haben. Jedes dieser Geräte hat seine eigene Welt und verlangt eine andere Denkweise, was nicht ausschließt, dass man sie miteinander kombinieren kann. Sie lassen sich in drei Gruppen zusammenfassen:

 

Sampler:

Fairlight III

Akai S1000

 

FM-Synthesizer:

Yamaha DX7 II

Yamaha TX 802

 

Analoge Klangerzeugung und -verarbeitung:

EMS Synthi 100

EMS Vocoder

 

3. Der Fairlight III

 

Der Fairlight III ist ein Computersystem, das speziell für Musik entwickelt wurde. Er ist grundsätzlich als eine sogenannte Audio-Post-Production-Einheit für den Studiobetrieb konzipiert worden. Mit Audio-Post-Production ist gemeint, dass theoretisch alle Bereiche einer Musikproduktion abdeckt werden: digitale Aufnahme (= Sample) von Klangmaterial (von einzelnen Klängen bis zu längeren Stücken), Zusammenstellung, Bearbeitung und Transformation von Klängen, Herstellung von musikalischen Strukturen (durch die Anwendung von Sequencern) und Synchronisation mit Mehrspur-Tonbandmaschine (durch SMPTE).

 

Das ganze Potenzial des Fairlight III hier darzustellen, würde den Rahmen dieser Einführung sprengen. Auf der Grundlage der konkreten Möglichkeiten der im Studio vorhandenen Hardware und Software soll eine Beschreibung des Systems gegeben werden.

 

3.1. Die Hardware

 

Die Hardware des Fairlight III besteht aus vier Komponenten:

der Zentraleinheit, in der sich der größte Teil der Elektronik befindet,
der alphanumerischen Computer-Tastatur mit integriertem Grafik-Tablett,
dem Monochrom-Monitor,
und dem musikalischen Keyboard.

 

Man braucht die System-Architektur nicht im Detail zu verstehen, aber es erscheint wichtig, die Funktion einiger Elemente klar darzustellen. Die Steuerung des Fairlight III erfolgt über mehrere Mikroprozessoren, die verschiedene Aufgaben übernehmen. Den Kern des Systems bildet der 68.000-Waveform-Prozessor, der die eigentlichen Klangdaten verwaltet.

 

Zwei für den Umgang mit dem Fairlight III wesentliche Komponenten sind das Waveform-Memory und die Kanal-Karte: Das Waveform-Memory ist der interne Speicher (RAM), über den alle die Klänge betreffenden Operationen laufen müssen (außer direct to disc recording). Seine Größe bestimmt die Länge des Klanges oder der Anzahl von Klängen, die darin verwaltet werden. Aber ist die Länge auch abhängig von der Samplingrate, mit der die Klänge aufgenommen wurden. 2 MByte RAM entsprechen maximal 24 Sekunden Mono bei einer Samplingrate von 44,1 kHz (CD-Qualität).

 

Die Kanal-Karte ist der Prozessor, der den Klang hörbar macht. Die Anzahl von Kanal-Karten bestimmt die Anzahl der polyphonen Stimmen, die gleichzeitig gespielt oder von einer externen Quelle gesteuert werden können, wobei ein Kanal gleich einer Stimme ist.

 

Das Studio für elektronische Musik des WDR besitzt zwei komplette Fairlight III-Systeme: ein großes mit 14 Megabyte RAM und 8 Kanal-Karten und ein kleines mit lediglich 2 Megabyte RAM und 2 Kanal-Karten. In dem großen Fairlight kann man also 8-stimmig spielen und in dem kleinen 2-stimmig.

 

Mit unserem großen Fairlight III ist es z.B. möglich, einen Klang von maximal fünf Minuten Länge im RAM zu bearbeiten und achtstimmig spielbar zu machen, oder umgekehrt bis zu acht verschiedene Einzelklänge, deren Gesamtlänge fünf Minuten nicht überschreiten, jeweils als einzelne Stimmen wiederzugeben. Selbstverständlich gibt es innerhalb dieser Grenzen auch noch andere Möglichkeiten der Zuordnung der Klänge zu den Kanälen (z.B. zwei Klänge: vier- und vier-stimmig, drei Klänge: vier-, drei- und einstimmig etc.). Jede Kanal-Karte ist mit einem Einzelaudioausgang gekoppelt, sodass sich die Klänge separat im Mischpult behandeln lassen.

 

Der Fairlight III ist mit drei verschiedenen Massenspeicher-Einheiten ausgestattet: einem 8 Zoll /1,2-MByte-Disketten-Laufwerk, einer Harddisk (oder Festplatte) und einem Streamer-Tape. Wegen ihrer Größe und Schnelligkeit wird die Harddisk als Speichereinheit bevorzugt. Unser großes System besitzt eine 190-MByte-Harddisk und unser kleines eine 110-MByte-Harddisk. Eigentlich ist die Speicherkapazität nicht besonders groß; ganz schnell sammelt man eine beachtliche Anzahl von Klängen und die Festplatte ist voll.

 

Über die MIDI-Schnittstelle (4 x MIDI IN/OUT) kann der Fairlight III mit der MIDI-Welt (Synthesizer, Computer und Peripherie) kommunizieren. So kann man z.B. die einfache Tastatur des Fairlight durch ein MIDI-Masterkeyboard ersetzen. Sämtliche Controller können über MIDI übertragen werden und lassen sich innerhalb des Fairlight beliebig umwandeln.

 

Zur Synchronisation dient die SMPTE-IN/OUT-Schnittstelle. Der Fairlight III ist in der Lage, SMPTE-Code (Time Code) zu generieren und zu empfangen, was sehr nützlich für die Arbeit mit Mehrspurverfahren ist. So lassen sich komplexe Strukturen, die auf mehrere Spuren des Tonbands verteilt sind, übereinanderschichten. Solche Strukturen können z.B. in dem Fairlight wieder gesampelt werden und als Grundlage für neue Klänge (oder Strukturen) dienen.

 

 

 

3.2. Die Software – Version 5.4 von 1988

 

3.2.1. Die Sample-Struktur

 

Hinsichtlich der internen Organisation der Samples hat der Fairlight III eine hierarchische Struktur. Die grundlegende Einheit ist die „Voice“, die sich in bis zu 63 „Subvoices“ unterteilen lässt. Eine Subvoice ist im Prinzip ein einzelnes Sample. Man kann die Subvoices beliebig über das Keyboard verteilen. Dabei ist keine Überlappung möglich, d.h. es können nicht zwei Subvoices ein und derselben Taste zugeordnet werden.

 

Die nächste Stufe ist das „Instrument“, das eine oder mehrere Voices enthalten kann. Damit eine Voice (Klangfarbe) überhaupt klingt, muss sie mindestens einer polyphonen Stimme (Kanal-Karte) zugeordnet werden. In unserem „großen“ Fairlight lassen sich Instruments mit maximal acht Voices bilden. Ein Instrument mit einer Voice hat eine Klangfarbe und kann achtstimmig gespielt werden; ein Instrument mit acht Voices hat acht Klangfarben die einstimmig zusammenklingen, wenn eine Taste gedrückt wird. Natürlich sind auch andere Kombinationen möglich.

 

Es lassen sich auch Instruments ohne zugehörige Samples kreieren, was sehr praktisch ist, um externes MIDI-Equipment wie andere Synthesizer mitzuverwalten. Das Zusammensetzen mehrerer Voices zu einem Instrument ist eine einfache Methode, komplexe Klänge zu bauen.

Die höchste Ebene der Sample-Struktur ist das „System“. Es enthält eine Instrument-Liste, in der bis zu 80 Instruments gespeichert werden können, die MIDI-Input/Output-Konfiguration und die System-Parameter, die den Voices zugeordnet werden können.

 

3.2.2. Die Pages

 

Die verschiedenen Funktionen des Fairlight sind auf die sogenannten Pages verteilt. Eine detaillierte Beschreibung des Aufbaus aller Pages würde den Rahmen dieser Einführung überschreiten. Wir versuchen, die Pages unter bestimmten Kategorien zusammenzufassen und auf einige Funktionen aufmerksam machen.

 

 

3.2.2.1. System-Verwaltung

 

Alle auf der Harddisk befindlichen Daten wie Voice-, System-, Sequenzer-Files usw. sind auf der Directory-Page aufgelistet. Hier kann man Klänge direkt von der Harddisk hören und sämtliche Informationen über die Struktur des Samples abrufen.

 

In der System Configuration-Page kann man die Zuordnung der Voices und der Instrumente programmieren. Hier wird bestimmt, welche Voice zu welchen Audio-Outputs geht und die MIDI-Konfiguration (MIDI-IN/OUT) festgelegt.

 

3.2.2.2. Sampling-Aufnahme und -Bearbeitung

 

Der Sampling-Vorgang wird in der Sampling-Page bestimmt. Samples können Mono oder Stereo aufgenommen werden. Die Sampling-Rate lässt sich zwischen 5 und 50 kHz einstellen (Default ist 44,1 kHz). Die Samplingzeit lässt sich genau einstellen. Die maximale Samplingzeit hängt von der Samplingrate und dem vorhandenen freien RAM-Speicher ab (2 MByte RAM entsprechen etwa 24 Sekunden bei 44,1 kHz).

 

Nachdem das Sample aufgenommen worden ist, muss es geschnitten und in der Lautstärke optimal eingestellt werden. Dies erfolgt in der auf dem Monitor sichtbaren Edit-Page, wo man mit dem Grafik-Pen einen direkten Zugriff zur Wellenform hat. Man kann Ausschnitte des Samples anwählen, sie vergrößern und auf verschiedene Art und Weise hörbar machen. Zahlreiche Funktionen in dieser Page ermöglichen bereits auf dieser Ebene eine kreative Bearbeitung des Klanges.

 

Mit der Loop-Funktion kann man Klänge statisch machen. (Man wählt einen Ausschnitt des Klanges und lässt ihn permanent wiederholen). Es gibt mehrere Möglichkeiten, eine Loop zu setzen, wobei bestimmte Verfahren wie z.B. Crossfading und Blend den Klang wesentlich verändern können. Zum Experimentieren dienen auch andere Funktionen, die auf das ganze Sample oder auf angewählte Ausschnitte einwirken. Mit der Fader- und der Reverse-Funktion (rückwärts spielen) kann man z.B. Überblendungen programmieren. Sample-Stücke können herausgeschnitten und mittels der Copy-, Cut- und Paste-Funktionen wieder zusammengefügt werden. Damit kann man z.B. mit einem einzelnen Klang schon eine komplexe Klangstruktur aufbauen.

 

Es gibt auch eine Reihe von Funktionen, die die Tonhöhe beeinflussen, wie Transpose-Sample, Sample-Rate-Convertion und Sweep-Command. Dadurch lassen sich alle möglichen Manipulationen auf der Ebene der Frequenz programmieren, wie z.B. mikrotonale Verstimmungen innerhalb der Wellenform.

 

In der Mix-Page kann man Klänge mischen. Bis zu 64 Wellenformen lassen sich in dem sogenannten Mix-Pot ablegen; dort werden sie auch graphisch dargestellt. Zuerst müssen eine Zielwellenform (destination) und die Quellenwellenformen (source) definiert werden. Danach können frei ausgewählte Ausschnitte der Quellenwellenformen in die Zielwellenform eingefügt (insert) oder durch Crossfades überblendet werden. Mit diesem Verfahren lassen sich komplexe, aus mehreren Wellenformen zusammengesetzte Klänge aufbauen. Man kann z.B. aus mehreren Klängen einen neuen Klang aufbauen, dessen Klangfarbe sich mit der Zeit kontinuierlich verändert.

 

In der Flanger-Page lassen sich Flanging-Effekte erzeugen. Flanging wird produziert, indem zu dem originalen Klang eine verzögerte (delayed) Version addiert und die Verzögerungszeit (delay) variiert wird. Auf Grund der eingestellten Parameter – Delay (bis zehn Sekunden), Width (Delay-Variation), Rate (Delay-Modulation), Depth, Wet und Dry (Verhältnis Original/Effekt) – errechnet der Fairlight eine neue Wellenform, die als neues Sample verwendet werden kann.

 

3.2.2.3. Fast Fourier Transformation

 

In der Fast Fourier Transform-Page hat man direkten Zugriff auf die harmonische Struktur des Klanges. Nach dem FFT-Prinzip wird der Klang in Segmente, die eine bestimmte Anzahl von Samples beinhalten, unterteilt und analysiert. Der Fairlight analysiert die Amplitude und die Phase der ersten 255 Obertöne des Klanges und stellt das Resultat graphisch dar. Mit dem Grafik-Pen kann man die Amplitude und die Phase von jedem Oberton verändern (redrawing) und das Resultat in Form einer Resynthese errechnen lassen.

 

Es gibt grundsätzlich zwei Wege, die Möglichkeiten der FFT-Page auszunutzen: Entweder geht man von einem bestehenden Klang aus, den man durch Analyse, Wiederzeichnen und Resynthese transformiert, oder man nimmt einfache Wellenformen (wie z.B. Sinus) als Ausgangspunkt und baut damit allmählich seinen eigenen Klang auf. Beide Verfahren erfordern allerdings ein sehr zeitaufwendiges Experimentieren, ehe man zu einem interessanten Resultat gelangt.

 

3.2.2.4. Die Abspiel-Parameter

 

Nachdem man die Samples aufgenommen, transformiert und als Voice und Subvoice definiert hat, bietet der Fairlight eine Reihe von Abspielparametern, die das Sample beeinflussen und je nachdem stark verändern können. Die Einstellung dieser Parameter erfolgt in der FX-Page; dabei muss man zwischen einem Voice- und einem Subvoice-Modus unterscheiden.

 

Zu den Subvoice-Parametern, die nur die gewählte Subvoice beeinflussen, zählen insgesamt acht verschiedene Hüllkurven-Parameter, unterschiedliche Tuning-Parameter (feine und grobe Transposition), Filter-Einstellungen sowie verschiedene Loop und Hüllkurven-Modi. Die Voice-Parameter beeinflussen alle Subvoices gleichzeitig und beziehen sich auf Funktionen wie Filter, Lautstärke, Pitch-Bend, Tuning, Attack, Release, Portamento, Vibrato, Tremolo und Balance.

 

Die Einstellung der Voice- und Subvoice-Parameter kann festgelegt oder durch einen beliebigen Controller (MIDI-Controller oder Fairlight intern) gesteuert werden. In der FE-Page kann man eine Funktionskurve, die die Wirkungsweise eines Controllers auf den Parameter bestimmt, mit dem Grafik-Pen zeichnen. Das ist insofern eine sehr interessante Möglichkeit, als sich dadurch die Parameter-Einstellung mit der Zeit verändert und der Klang lebendig wird. Die Controller können auch von einem Sequencer gesteuert werden.

 

3.2.2.5. Die Sequencer

 

3.2.2.5.1. Zum Sequencer im Allgemeinen

 

Sequencer funktionieren hinsichtlich ihrer Bedienung ähnlich wie Tonbandmaschinen. Die Daten werden auf Spuren aufgezeichnet, und man unterscheidet zwischen Play- und Record-Modus. Es werden jedoch keine Klänge aufgenommen, sondern nur digitale Informationen. Praktisch alle Sequencer können sämtliche MIDI-Daten aufzeichnen (empfangen) und wiedergeben (senden). Diese Daten dienen nicht nur der Steuerung der musikalischen Parameter von Synthesizern – wie Midi-Note (Tonhöhe), Velocity (Lautstärke), Note-On Note-Off (Dauer), Programme Change (Klangfarbe) –, sondern umfassen eine Vielfalt von Möglichkeiten – wie Controllers, System-Exclusiv, MIDI-Clock –, die für die Gestaltung von Klängen und musikalischen Strukturen verwendet werden können.

 

Ein wesentlicher Vorteil von Sequencern ist, dass die Daten beliebig manipuliert werden können. Nachdem sie aufgezeichnet wurden, können sie editiert (d.h. geändert) und auf derselben oder auf eine andere Spur kopiert, eingefügt oder gemischt werden. Heutzutage gibt es eine ganze Menge von Sequencern, die meistens über kleine Computer (Atari, IBM, Macintosh) laufen. Sie sind zum Teil in ihren Funktionen sehr komplex und beinhalten vielfältig und kreativ einsetzbare Werkzeuge, sowohl für die Arbeit im Studio als auch für die Live-Elektronik.

 

3.2.2.5.2. Die Fairlight-Sequencer

 

Der Fairlight umfasst drei verschiedene Sequencer: den RS (Real Time Sequencer), den CAPS und den Cue-List. Die beiden ersten sind für die „Komposition“ gedacht. Der CAPS ist eine Weiterentwicklung des RS. In beiden Sequencern lassen sich polyphone Spuren sowie Controller-Daten aufzeichnen.

 

Der CAPS verfügt über insgesamt 80 Spuren und kann 80 verschiedene Controller steuern. Die Notes und die Controller werden graphisch dargestellt, und die aufgezeichneten Werte können mit dem Grafik-Pen geändert werden. Darüber hinaus gibt es die Möglichkeit, die Kurve der Controller zu zeichnen. Alle Daten werden auch über MIDI ausgegeben, was die Steuerung von anderen Synthesizern ermöglicht. Durch SMPTE Timecode kann der CAPS mit externem Equipment (Tonbandmaschine) synchronisiert werden.

 

Die Cue-List, der in Verbindung mit dem SMPTE Zeitcode läuft, ist hauptsächlich für den Post-Produktionsbereich konzipiert. Man stellt eine Art Tabelle von Ereignissen (Cue-List) auf, denen bestimmte Funktionen zugeordnet werden können. Sämtliche Funktionen des Fairlight lassen sich dadurch hinsichtlich der Zeit sehr präzise steuern: Man kann Klänge abspielen, MIDI-Controller senden, oder beliebige Fairlight-Kommandos aktivieren wie z.B. das Laden von Klängen der Harddisk oder das Starten der anderen Sequencer.

 

3.2.2.6. Disk Recording

 

Unser Fairlight bietet ein 2-Spur-Harddisk-Recording-System. mit einer Kapazität von circa 30 Minuten Monoaufnahme auf der 190 MBytes Harddisk. Über SMPTE kann der Disk-Recorder mit der Tonbandmaschine gekoppelt werden, was für die Bearbeitung von Klängen und musikalischen Strukturen sehr nützlich sein kann. Die Editierungsmöglichkeiten sind allerdings bei unserer Softwareversion begrenzt.

 

4. Akai S1000

 

Der Akai S1000 ist ein digitaler Stereo-Sampler, der mit einer Auflösung von 16 Bit linear arbeitet. Unser Modell ist mit einem 8-MByte-Speicher (Internal RAM), einer 40-MByte-Harddisk und einem Diskettenlaufwerk (1,3 MByte HD Disktetten) ausgestattet. Da bei einer Sampling-Rate von 44,1 kHz 1 MByte circa 11,9 sek. Sampling-Zeit entspricht, ermöglicht der RAM die Bearbeitung von Klängen von maximal 95,2 sek. Länge.

 

Als Sampler dienen der Akai und der Fairlight grundsätzlich demselben Zweck, die Geräte unterscheiden sich aber wesentlich hinsichtlich ihrer Bedienung und Funktion. Der Fairlight ist vorwiegend für die Arbeit im Studio gedacht. Er besitzt eine größere Speicherkapazität (sowohl RAM als auch Harddisk), sodass man mit ihm längere Klänge aufnehmen und bearbeiten kann als mit dem S1000. Ein Nachteil des Fairlight ist die Konzeption seines schon etwas älteren Systems: Man muss sehr viele Kommandos lernen und die Bedienung ist zum Teil sehr mühsam. Außerdem ist der Fairlight wegen seiner Größe nicht geeignet für den Einsatz in der Live-Elektronik.

 

Der Akai S1000 ist ein tragbares und bedienungsfreundliches Gerät. Alle Bedienungselemente sind an der Frontplatte angebracht. Er besitzt ein LC-Display, einen Cursor, numerische Tasten und eine Anzahl sogenannter Softkeys mit verschiedenen Funktionen. Die Software ist sehr übersichtlich aufgebaut, sodass man relativ schnell damit arbeiten kann. Der S1000 ist ein flexibles Gerät, das in Verbindung mit MIDI-Steuerung zahlreiche Möglichkeiten für die Gestaltung von Klängen bietet. Das macht ihn sehr geeignet für den Live-Einsatz, vorausgesetzt man nimmt seine relativ begrenzte Speicherkapazität in Kauf (d.h. man muss mit weniger und/oder kürzeren Klängen arbeiten).

 

4.1. Systemaufbau

 

Wie bei dem Fairlight ist die Software des S1000 in Pages und Sub-Pages strukturiert, die mittels der Softkeys ausgewählt werden können. Es gibt zwei Grundelemente, den Sample, d.h. einen aufgenommenen Klang (entspricht der Fairlight Subvoice) und das Program, das aus einem oder mehreren Samples zusammengesetzt ist und alle Samplenbearbeitungs- und Abspielparameter enthält (das Programm entspricht den Funktionen der Voices und der Instuments bei dem Fairlight).

 

Beliebig viele Programme lassen sich gleichzeitig aktivieren. Der S1000 verfügt über maximal 16 Stimmen, sodass die Polyphonie für jedes Programm individuell zwischen 1 und 16 einstellbar ist. Die Klänge bzw. die Stimmen eines Programms können beliebig einem der acht Monoausgänge oder dem Stereoausgang zugeordnet werden, bei dem Laustärke und Panorama für jedes Programm individuell einstellbar sind.

 

4.2. Sample-Aufnahme und Bearbeitung

 

Samples können über den analogen oder den digitalen Eingang aufgenommen werden. Es stehen zwei verschiedene Sampling-Rates zur Verfügung: 44,1 und 22,05 kHz, was einer Bandbreite von ca. 20 kHz bzw. ca. 10 kHz entspricht. Man kann die Länge des Samples und die Tonhöhe des originalen Klanges festlegen. Nach der Aufnahme erscheint der Sample in dem Wellenform-Display, wo er editiert werden kann.

 

Zur genauen Editierung besitzt der S1000 eine Zoom-Funktion, mit der man Ausschnitte der Wellenform vergrößert darstellen kann. Die TRIM-Funktion dient zur Festlegung der Start- und Endpunkte des Samples. Die LOOP-Funktion ermöglicht die Programmierung von bis zu 8 unabhängigen Loops mit unterschiedlichen Loop-Startpunkten, Loop-Längen und Loop-Times. Der Time-Bereich liegt zwischen 1 und 9998 Millisekunden. Ab 9999 ms wird die Loop abgespielt bis die Taste des MIDI-Keyboards losgelassen wird. Die JOIN-Funktion bietet die Möglichkeit, zwei komplette Samples oder Sample-Ausschnitte aneinanderzuhängen, wobei der Übergang als harter Schnitt oder sanfter Crossfader erfolgen kann. Mit der PITCH-OFFSET-Funktion kann man das Sample in Halbtönen und Cents transponieren. Die REVERSE-Funktion spielt das Sample rückwärts.

 

Eine sehr wichtige Möglichkeit des S1000 ist die TIMESTRETCH-Transposition, mit der man das Sample dehnen oder stauchen kann, ohne seine Tonhöhe zu verändern (das ist mit dem Fairlight nicht möglich). Es gibt zwei verschiedene Strech-Modi: CYCLIC, für einzelnen Klänge, und INTELL, für Sprache und Musikpassagen. Die Samples lassen sich maximal eine Oktave nach oben und nach unten transponieren.

 

4.3. Program-Edit

 

Die Samples lassen sich in Form von sogenannten KEYGROUPS der MIDI-Tastatur zuordnen. In einem Programm können bis zu 99 verschiedene Keygroups aktiv sein, wobei für jede ein Notenbereich (Low- und High-Note), eine Grob- (Halbtonschritte) und eine Feinstimmung (Cents) eingestellt wird. Es gibt auch einen BEAT-Parameter, mit dem man kleine Tonhöhenverstimmungen programmieren kann (Damit kann man z.B. Phasing-Effekte erzeugen). Anders als bei dem Fairlight können sich die Keygroups der S1000 überlappen und man kann sogar ein Crossfade zwischen zwei benachbarten Keygroups programmieren, um Übergänge zwischen Klängen zu schaffen.

 

Zur Bearbeitung der Klänge besitzt der S1000 einen Tiefpassfilter (18dB/Oktave) und zwei ADSR-Hüllkurven-Generatoren (Attack, Decay, Sustain und Release), die sich individuell für jede Keygroup einstellen lassen. Außer der Cutoff-Frequenz kann man auch die Modulationsquellen bestimmen, die die Filterfrequenz dynamisch beeinflussen können, und zwar Key-Follow (Position der Taste auf dem Keyboard), Velocity (Anschlagsdynamik), Aftertouch (Druck nach Anschlag der Taste) und Hüllkurve 2.

 

Die Hüllkurve 1 dient ausschließlich der Steuerung der Lautstärke, während die zweite Hüllkurve außer dem Filter – wie bereits erwähnt – auch die Tonhöhe beeinflussen kann. Die Hüllkurven selbst lassen sich wiederum durch andere Modulationsquellen steuern. So kann z.B. die Anschlagsdynamik, Attack, Release oder sogar die gesamte Hüllkurve beeinflussen. Der Parameter Release-Velocity (wie schnell man die Taste loslässt) kann zur Steuerung der Release-Zeit verwendet werden.

 

Jeder Keygroup können bis zu vier verschiedenen Samples zugeordnet werden. Im Prinzip liegen diese Samples übereinander, sodass man eine Taste spielt und vier verschiedene Klänge gleichzeitig hört. Aber man kann auch per Velocity (Anschlagsdynamik) bestimmen, welches der vier Samples gespielt werden soll. Jedes Sample wird einer Velocity-Zone zugeordnet, in der es klingen soll. Diese Zonen können sich ebenfalls überlappen, wobei CROSSFADES (Überblendungen) zwischen den einzelnen Samples möglich sind.

 

Weitere Parameter, die die Samples innerhalb einer Keygroup beeinflussen können, sind: Stimmung, (Halbtonschritte und Cents), Relative-Lautstärke (die Lautstärke jedes einzelnen Samples gegenüber den anderen), die Relative-Filter-Einstellung (ein Filter-Offset für jedes Sample) Panorama (Stereoausgang oder individuelle Ausgänge) und Playback (wie die Loops gespielt werden sollen).

 

4.4. MIDI-Steuerung

 

Nach der Zusammenfassung der Samples zu Keygroups und Programmen bietet der S1000 zahlreiche Parameter, die über MIDI gesteuert werden können. So lässt sich z.B. die Lautstärke außer durch die Anschlagsdynamik auch durch die Position der Taste auf dem Keyboard (Key-Follow) und den Aftertouch beeinflussen. Das Panorama kann ebenfalls durch die Key-Follow, aber auch durch das Modulationsrad des MIDI-Keyboards oder einen internen LFO (einstellbar in Intensität, Frequenz und Delay) dynamisch verändert werden. Die Tönhöhe ist durch Velocity, Aftertouch oder das Pitchbend-Rad modulierbar. Hierfür gibt es noch einen zweiten LFO (wie LFO 1 einstellbar), dessen Wirkungsweise sich wiederum durch Parameter wie Modulationsrad, Velocity und Aftertouch steuern lässt.

 

Die MIDI-Kanäle können den Programmen beliebig zugeordnet werden. Dies ist sehr nützlich für die Arbeit mit einem Sequencer. Ein MIDI-Input-Monitor zeigt alle empfangenen MIDI-Events. Der S1000 bietet auch die Möglichkeit, die Temperierungen innerhalb der Tastatur zu ändern.

 

5. Yamaha DX7 II

 

Der Yamaha DX 7 II ist ein gutes Beispiel dafür, wie die Musikindustrie von den Erfindungen der experimentellen Musik profitiert hat und wie umgekehrt die experimentelle Musik die Produkte der Unterhaltungsmusikindustrie ausnutzen kann. Der von John Chowning entwickelte Algorithmus der FM-Klangsynthese wurde von Yamaha hauptsächlich für die Nachahmung von instrumentalen und analogsynthesizerähnlichen Klängen ausgearbeitet, die in der Popmusik eine breite Verwendung finden.

 

Die meisten DX7-Benutzer beschränken sich auf den Gebrauch der Stereotyp-Preset-Sounds, was sicher ein Grund dafür ist, dass die typischen FM-Sounds sehr abgenutzt klingen und die Komponisten sie nicht mehr gerne verwenden. Andererseits stellt der Yamaha DX7 II ein sehr vielfältiges und komplexes Klangsynthesesystem dar, dessen Möglichkeiten längst noch nicht erschöpft sind. Durch FM-Synthese kann man komplexe Wellenformen mit zahlreichen Frequenzkomponenten generieren; und wer sich die Mühe macht, sich mit dem System richtig auseinanderzusetzen, wird feststellen, dass die FM-Synthese sehr viel freien Raum bietet, insbesondere für die Herstellung von außergewöhnlichen und experimentellen Klängen.

 

5.1. Zur FM-Klangsynthese5

 

Das grundlegende Element der Yamaha-FM-Synthese ist der Operator. Er besteht aus drei Elementen: einem Sinuskurvenoszillator (Oscillator), einem Verstärker (Amplifier) und einem Hüllkurvengenerator (Envelope Generator). Er hat einen Ausgang und zwei Eingänge, nämlich einen für die Tonhöhen-Daten und den anderen für den Ausgang eines anderen Operators. Die Informationen beider Eingänge werden miteinander kombiniert, bevor sie zum Oszillator gehen.

 

Der DX7 II verfügt über sechs Operatoren, die durch 32 festgelegte Algorithmen miteinander verknüpft werden können. Die Operatoren unterscheiden sich nach ihrer Funktion in zwei Kategorien: Träger (Carrier), wenn der Ausgang direkt zum Audio-Ausgang geleitet wird, und Modulatoren, wenn der Ausgang einem Eingang eines anderen Operators zugeführt wird.

 

Bei der Frequenzmodulation (FM) wird die Frequenz des Trägers durch die Frequenz des Modulators variiert, wobei der Ambitus der Variation der Träger sich proportional zu der Amplitude des Modulatorsignals verhält. Die Parameter eines frequenzmodulierten Signals sind: Trägerfrequenz (oder Durchschnittsfrequenz), Modulationsfrequenz und Frequenzdeviation. Wenn z.B. die Trägerfrequenz 440 Hz und die Modulationsfrequenz 110 Hz sind, ist das Ergebnis eine Sinuswelle, deren Frequenz ständig in 110 Zyklen per Sekunde oberhalb und unterhalb der Durchschnittsfrequenz von 440 Zyklen per Sekunde variiert. Die Anzahl und die Amplitude der Frequenzkomponenten des Spektrums werden durch den Modulationsindex, (Proportion zwischen Frequenzdeviation und Modulationsfrequenz) bestimmt. Je höher die Werte des Modulationsindex, desto breiter und reicher wird das Klangspektrum. Bei dem DX7 II hängt der Modulationsindex von der Amplitude (Outputlevel) des Modulators ab.