Zufall in der Musikproduktion

TLDR: Ein langer technischer Artikel über den einsatz von zufalls generatoren in der musikproduktion mit moderner Musiksoftware. Relativ lang und (deshalb) nicht korrekturgelesen, sorry. Dafür mit bildern.

Wenn man über Zufall in der Musik redet, denken viele an sowas experimentelle Musik a la Cage. Eins seiner bekanntesten Projekte, Organ²/ASLSP, besteht aus Orgeltönen die so langsam wie möglich gespielt werden sollen. Die Töne die darin vorkommen wurden per Zufallsgenerator erzeugt. Also nicht unbedingt Musik die man sich im Wohnzimmer oder in der Kneipe anhört. Darum geht’s hier nicht. Man kann mit Zufallsgeneratoren durchaus gefällige, interessante und experimentelle Sachen machen ohne die Pfade der Konvention völlig zu verlassen. Ich will ein paar Beispiele und Techniken beschreiben.

„Analoge“ Zufälle, produktive Missgeschicke
Zunächst mal spielen Zufälle bei herkömmlichen akustischen Instrumenten Zufälle ja keine Rolle. Es kann natürlich reizvoll für eine improvisierende Pianistin sein, wenn ein Stück der Kerze auf eine Taste fällt und sie in der Lage ist darauf einzugehen. Ein enttäuschter Zuhörer wirft einen Gegenstand auf die Gitarre und sie macht einen interessanten Lärm usw. Eher die Ausnahme.
Interessanter wird’s bei Studioaufnahmen. Mir ist mal folgendes passiert: Nach der Gesangsaufnahme wurde vergessen ein Mikrofon abzudrehen. Es war extrem heiß und der Ventilator lief. Das offene Mikro nahm das wehen des Ventilators und das klicken, wenn er die Richtung wechselte auf. Ein interessanter Sound der mit einiger Nachbearbeitung als Rhythmusgrundlage für einen neuen Track diente. Ich finde den song nicht mehr und er wurde glaub ich auch leider nie online gestellt, deswegen kann ich ihn hier nicht verlinken. Ich glaube das der anfang des songs „one step inside“ von the notwist auf dem album „neon golden“ so ähnlich entstand.

Nichtzufällige Verarbeitung des Zufalls
Man merkt dabei schon: um aus zufälligen Aufnahmen Musik zu machen braucht es nicht-zufällige Nachbearbeitung. Eine zufällige Geräuschfolge wie der Ventilator wird zu einem Rhythmus wenn man ihn loopt, d.h. im Takt und synchron mit dem Tempo des Songs, wiederholt. Weitere Schritte können nötig sein: durch Verstärker, Filter und Equalizer holt man aus dem ursprünglichen Sound das, was sich musikalisch verwerten lässt und reduziert, was stören könnte. Die gleiche Vorgehensweise wendet man aber auf ALLES an was man aufnimmt: Gitarren, Gesang – alles. Wer jetzt sagt: „das ist ja beschiss!“ sollte sich klar machen, dass allein ein Gesangsmikrophon von vornherein auf bestimmte Frequenzen hin ausgelegt ist. Oder auch: dass eben NICHT dinge ausnimmt, die 3m weiter weg stattfinden usw. Die Prozessierung von Klangsignalen ist ja genau das was aus tönen musik macht (bzw. ist eine Bedingung dafür). Die Digitaltechnik bietet natürlich sehr viele Möglichkeiten das in feinheiten zu machen. Und ich würde mal behaupten ohne digitaltechnik kann ein ventilator nie musik werden. Zur Erinnerung: es geht in diesem Text nicht einfach um die aneinanderreihung von Zufälligen klängen sondern darum, wie daraus musik werden kann, damit meine ich musik, die gewissen konventionen folgt, z.B. einer Rhythmik und Harmonik.

Institutionalisierte Zufälle: elektronische Instrumente, Chaosgeneratoren

1. Notwendiges Vorwissen: Midi-Technologie
Zunächst muss man verstehen, wie elektronische Innstrumente funktionieren. Ganz basal: Ich habe ein Keyboard, das via USB an meinen Computer angeschlossen ist. Das war nicht sehr teuer, denn es erzeugt keine Töne. Nur Signale, Midisignale. D.h. wenn ich eine Taste anschlage registriert die musiksoftware den Ton, die Intensität (wie stark habe ich die taste angeschlagen, wie beim Klavier), und wie lang ich den ton gehalten habe. Das kann man aufnehmen und auf ein Software-instrument anwenden. Z.B. einen Klaviersound, eine orgel, software-synthesizer(1). Der Unterschied zu analogen instrumenten wie einem Klavier ist: wenn ich die taste drücke erklingt der ton. Den kann ich so aufnehmen und der ist dann so. die midisignale. Kann ich hinterher noch verändern, ich kann (mit der maus) ihre Platzierung im rhythmischen raster oder die tonhöhe oder die stärke des anschlags ändern, wenn ich mich verspielt habe. Das sind die häufigsten anwendungen aber man kann noch sehr viel mehr machen. Streng genommen braucht man gar kein keyboard weil man alle midinoten mit der Maus „malen“ kann. Das kann sinnvoll sein, denn die gleichen midinoten mit denen man melodieinstrumente ansteuert verwendet man auch für drumcomputer und es braucht ein wenig geschick um drumbeats auf der keyboardtastatur einzuspielen. Da ist es oft leichter z.B. die bassdrum per maus auf 1 und 3 zu setzen. Anfänger_innen denken oft: oh ich kann eh alle noten per maus setzen, ich brauch kein keyboard dafür! Das artet aber schnell zu sisyphosarbeit aus. Ein kleiner melodielauf und ein paar akkorde sind am keyboard 50x schnell aufgenommen als in die notenleiste geklickt.
(Manchmal braucht man auch einfach auch eine 2 minuten gehaltene note, z.B. für eine atmosphärische synthesizer-„landschaft“. Das ist schneller mit der maus gemalt als eingespielt.)
Wichtig zu midi ist einfach, dass ich per Midi notensignale habe, die ich nach der aufnahme noch beliebig manipulieren (oder löschen oder neue hinzufügen) kann, was z.B. nicht geht wenn ich eine Gitarre aufnehme. Ich kann einen mit der gitarre aufgenommenen A-moll akkord nicht nachträglich per klick in einen A-Dur akkord ändern(2). Eins muss ich noch klarstellen: ich kann natürlich nicht midisignale eine Gitarre spielen lassen. Nur elektronische instrumente können Midisignale verarbeiten. (die miditechnologie ist übrigens schon relativ alt. Mit computern kann man ihr aber neue seiten abgewinnen wie wir gleich sehen.)

midinoten mit loop ausschnittVisualisierte Midi-Spur in er Software „Live“: Die orangen Balken repräsentieren die aufgenomennen Noten. Die roten Türmchen die Intensität mit der ich beim aufnehmen auf die tasten gehauen hab. Alles nachträglich manipulierbar. Wie immer läuft alles von links nach rechts.

2. Zufallsoperationen mit Midi

Da kommt der Zufall wieder ins spiel. Die aktuelle Version der Software „Ableton Live“ kann midisignale zufällig variieren (leider nicht ganz autonom zufällig erzeugen). Ich kann z.B. einstellen dass jeder 3. Ton den ich spiele zufällig auf eine andere note als die gespielte verschoben wird. Das ist interessant für variationen von drumbeats die ja auch auf midinoten basieren (können – ausnahme, der interne „step sequencer s.u.). Oder auch jeder, dann ist es egal, welche töne ich anspiele (es gibt noch mehr details die man festlegen kann. Wenn ich z.B. nicht will dass plötzlich ein ganz hoher odeer tiefer ton kommt kann ich den umfang aus dem der zufallston gewählt wird begrenzen was sinnvoll ist wenn ich zufallsmelodien erschaffen will, da will man ja keine riesigen sprünge haben. Jetzt ist es so, dass das erstmal atonale musik ergibt, mein zufällig variierter ton kann ja außerhalb der aktuellen tonleiter liegen. Konventionelle (pop)musik spielt sich innerhalb von Tonskalen ab was eigentlich nur heißt, das von den 12 Tönen, die eine oktave umfasst, 4 oder 5 weggelassen werden. Die übrigen passen dann zusammmen. Wenn man auf einem klavier bspw. Nur auf den weißen tasten rumspielt wird es nie völlig „schräg“ klingen. Bei reinen zufallstönen wird keine tonskala eingehalten, alle noten könen vorkommen. Das ist dann eher so Zwölftonmusik, also nicht für den Hausgebrauch. Aber! Wie wir gelernt haben lassen sich Midinoten noch weiter manipulieren. Ich kann an den zufalls-generator für midinoten direkt einen tonarten-filter anschließen, der die „falschen noten“ auf die nächste passende note umleitet oder ganz ausschaltet. Zusammen kann man so zufällige melodien und akkorde erstellen oder variationen in drumbeats bringen. Es gibt auch plugins die direkt zufallsgenerierte midinoten ausspucken, aber von denen hat mich bis jetzt keins so richtig überzeugt.

midieffekteMidieffektkette in „Live“: das signal läuft von links nach rechts: links wird randomisiert, da wo „accoustic scale“ drüber steht, das ordnet die noten wieder in eine C-Irgendwas (dur,moll, phrygisch, ichweißnicht)-skala. Das dings mit dem schwarzen kasten ist das eigentliche instrument, das „scape-o-matic mit vollzufalls-funktion.

So ähnlich wie Midinoten aber etwas anderes funktionieren Drumcomputer: Es gibt drumcomputer („physische“ wie auch software, macht wenig sinn da zu unterscheiden. Sie tun das gleiche), die mit einem vorgegeben raster arbeiten, unabhängig von midinoten – sie haben z.b. einen eigenen sog. Step-sequencer mit 16 schritten für einen takt (s. bild). D.h. ich wähle z.B. die bassdrum und aktiviere auf dem sequenzer die felder 1, 5, 9 und 13. Das sind die ganzen zählzeiten – das wäre ein klassischer techno beat „4 to the floor“. Die musiksoftware „reason“ hat so einen drumcomputer namens „Redrum“. Man kann dann z.B. einen soliden beat aus Snare- und Bassdrum bauen und die hihats zufällig verteilen lassen. Eine gute sache, wenn man das gefühl hat, dass die beats die man macht irgendwie immer gleich sind. Sehr gut funktioniert das mit Bongos. Hörbeispiel: Desert Follows. Bei 1:05 hört man ein break mit bongos. Das sind 2 verschiedene bongosamples die zufällig auf einen takt verteilt sind. Der vorteil einer aufteilung des taktes in 16tel ist, dass es meist rhytmisch passend ist. Man kann die auflösung auch erhöhen bis 128tel, für so aphex-twin-mäßige drumrolls oder nuancierte shuffle-rhythmen, aber dafür sind andere methoden der beaterzeugung einfacher zu bedienen. Aber ich verändere die auflösung nie. 16tel sind fein. das zischeln am anfang ist auch ein zufallsloops aus crashbecken in verschiedenen tonhöhen. Das ist noch eine etwas komplexere operation weil man einen hihat sound aus dem drumcomputer in einen sampler verfrachten muss, der alles was man in ihn reinstopft, eben auch drumsamples, in verschiedenen tonhöhen abspielt, zugleich sind da auch noch die filterfrequenzen der hihats randomisiert. Konkret habe ich da den sampler NN-XT von „reason“ verwendet. „redrum“ hat auch noch einen step-sequencer den man vollzufällig einstellen kann, den hab ich dann auf den sampler mit dem crashbecken gelenkt. Mehr isses nicht!

zufall für alle

Redrum-Softwaredrumcomputer in der software „Reason“. Das rot eingekastelte ist der step-sequencer (merken was das ist, kommt später nochmal vor in einem kontrastbeispiel). Die sequenz läuft von links nach rechts durch und springt dann nahtlos wieder auf angang. Ein „loop“ eben. Das ganze ist physischen Drumcomputern nachempfunden, die schon seit ca. den 1970ern in dieser weise arbeiten. Im grunde nichts weiter als ein geordnetes abspielen von zuvor aufgenommenen und in den drumcomputer geladenen samples. In dem fall ist das sample eine bassdrum, die auf 1-5-9-13 ausgelöst wird (die wüstensandgelben felder sind aktiviert), also ein tpischer 4-to-the-floor-technobeat. Das kontextmenü rechts bietet mir schon verschiedene Zufallsoptionen an. Super! Reason ist vielleicht eins der am meisten unterschätzten musikprogramme. Es kann auch nichts externes aufnehmen, aber man kann es sehr gut mit anderen programmen kombinieren, die das können.Wenn man sich an das obere bild mit der midi-spur erinnert stellt man fest: das ist im grunde nur eine andere Abbildung für das, was ein step-sequencer macht.

Man kann auch ALLE Spuren (=alle drums) des drumcomputers auf einmal komplett randomisieren. Das klingt erstmal furchtbar wenn es viele spuren sind. Der trick ist dann, dass man alle spuren stummschaltet und dann nach und nach einige anschaltet. Daraus können sich würzige fills ergeben. Oder man nimmt so einen loop, schneidet mit einem filter die bassfrequenzen ab und legt ihn auf einen „geraden“ beat. Ich hab sowas ähnliches in dem track trrust gemacht: da kam die reaktor-groovebox „Gobox“ zum einsatz. Ich hab ungefähr zehn minuten mit der gobox rumgespielt (ich habe wirklich irgendwelche knöpfchen gedrückt und mit der maus an reglern rumgespielt während der aufnahme ohne genau zu verstehen welcher regler was bewirkt), alles aufgenommen und dann einzelne abschnitte über den track gelegt, der bereits einen sehr einfachen, geraden beat aus bassdrum und hihats als grundlage hatte. Die grundlage ist wichtig, sie hält den song zusammen. Außerdem spielt der bass durchgehend die selben 3 akkorde unverändert in einem ganz geraden takt.
An der Stelle muss man vielleicht sagen, dass die „gobox“ nicht wirklich völlig zufällig arbeitet aber die algorithmen sind für mich so undurchschaubar sind dass es einem zufall gleichkommt. Der schlüssel ist hier die Modulation von Paramatern: so einen modulator nennt man LFO – low frequency oscillator, ein langsam oszilierendes signal, das selbst keinen ton erzeugt aber eine anderen paramert moduliert. Solche lfos sind standard in synthesizern und drumcomputern. Man kann sie auf verschiedene wellenformen, intensitäten und tempi einstellen. Ein lfo tut das was ein mensch macht wenn er einen regler regelmäßig hoch und runterschiebt, nur automatisiert und auch in formen die ein mensch nicht machen könnte, zB in form einer rechteckwelle wo der wert sagen mir zwischen 30% auf 60% springt, ohne übergang.
Ich kann also etwa den regler für die filterfrequenz automatisch modulieren lassen, sagen wir dass er innerhalb von 10 sekunden von 0 auf 100%. geht und wieder auf den ausgangswert zurückkehrt (das wäre ein langsamer wahwah-effekt). Einen schritt weiter: ich steuere den LFO der die filterfrquenz hoch und runterdreht mit einem weiteren modulator an: jetzt bewegt sich vielleicht die modulation im 2. Takt doppelt so schnell, im 2,3ten takt 4x so schnell und in die andere richtung usw. Theoretisch sind das alles nachvollziehbare nicht-zufällige variationen. In der häufung aber unkontrollierbar: Modulation von modulatoren die modulatoren modulieren. Als würde man während eines Erdbebens mit zitternder hand eine linie auf einem rotierenden tisch der eine wölbung hat in einem sich drehenden, abgedunkelten raum zeichnen.
Was für den chaotischen charakter der go box noch wichtig ist, dass sie mittendrin die samples wechselt, die sie abspielt. Ein traditioneller drumcomputer geht so: spur 1 macht bumm, spur 2 tss, spur 3 tschack usw. dann ordne ich diese samples zu einem rhythmus an drumcomputer haben meist so 8 bis 16 solcher spuren. Die go box hat nur 4 aber: über algorithmen wechseln die geladenen samples ständig, so dass an der stelle wo vorher ein „bumm“ war im nächsten takt vielleicht ein „tststs“ ist. Hier auch wieder: im prinzip brechenbaren algorithmen folgend. De facto: chaos.
ALLERDINGS: die rhythmik ist (größtenteils) an das raster des songs angepasst, was wichtig ist. Sonst würde es einfach nur chaotisch klingen. Wenn ich von zufall bei drumcomputern spreche, setz ich immer voraus, dass die Rhythmik synchron ist. So viel konvention muss doch sein. (auch das ließe sich umgehen z.B. mit der „shuffle-funktion“ die viele drum machines haben und auch midi-sequencer haben.)

reaktor goboxDie Go Box in reaktor: Die räumliche aufteilung zeigt wo der schwerpunkt liegt: das feld mit den samples ist das rechteck unten links. Alle anderen Sektionen beschäftigen sich in irgendeiner Form mit der Modulation des klangs und der Abfolge der Samples. Einen klassischen Stepsequencer wie im „Redrum“ finden wir hier nicht. Am nächsten kommt dem die sektion „pitch&trigger“. Aber die tut auch eher was sie will. Man muss überhaupt nicht genau wissen, welches Knöpfchen was bewirkt um damit etwas brauchbares zu erzeugen. Nicht einschüchtern lassen!

2. Zufallssounds
Es ging bis jetzt immer um die zufällige Anordnung von Tönen, genauer gesagt Midisignalen. Aber die treffen ja auf Instrumente, die erst den Klang erzeugen. Die meisten Synthesizer haben mehr oder weniger detaillierte steuerbare Zufallsfunktionen. Die Software „Reaktor“ beispielsweise beinhaltet zahlreiche verschiedene Klangerzeuger (synthesizer, sampler, drumcomputer). Hier kann man sich für sämtliche regler (synthesizer haben teilw. mehr als 100 Einstellmöglichkeiten die den klang beeinflussen) Zufallswerte geben lassen. Man kann auch den Grad des zufalls regulieren was sinnvoll ist. Denn unter den vielen Parametern die den klang beeinflussen gibt es einen ganzen Haufen die, wenn sie auf 0 gedreht werden, gar keinen sound mehr erzeugen. D.h. wenn ich einen bereits okayen sound habe aber zufällig variieren möchte stell ich die randomisierung auf 25% oder so. einen Schritt weiter geht „Absynth“ von native instruments. Ein digitales synthesizer tool mit dem man sehr komplexe sounds machen kann die ohne computer kaum realisierbar wären. Ich kann hier bei der randomisierung bestimmte attribute angeben wie „warm“, „kurz/lang“, „akustisch“, „verzerrt“ usw. und dann mit einem klick den sound dahin „mutieren“ lassen unter angabe wie stark die änderung sein soll. Das hat den vorteil, dass sich die schritte nachvollzioehen lassen, man kann auf den vorigen sound zurückspringen und die „mutation“ (so heißt der button dafür im „absynth“) mit einem anderen ergebnis nochmal durchführen lassen.
Der Gratis-Synthesizer Scape-O-Matic ist von vorn herein drauf angelegt, zufällig generierte Sounds zu erzeugen. Leider braucht man als Host-Software „kontakt“, das nicht gratis ist. Es gibt einen „Roll Dice“ button, der einen neuen sound ausspuckt. Die haben mir alle gefallen bis jetzt. Allerdings macht das ding hauptsächlich langgezogene atmosphäre sounds.

Die meisten Zufallsfunktionen verändern übrigens nicht den Lautstärkeregler – was sehr gut ist, sonst fliegen einem aus versehen die ohren weg. (pro tipp: am Ende der signalkette immer einen limiter einschalten!)

3. Chaosmaschinen
Manche Instrumente sind von vornherein nicht darauf angelegt, gezielt einen sound umzusetzen, den ich mir vorstelle. Wenn ich einen synthesizer bedienen kann weiß ich ungefähr was ich tun muss um einen bläser-artigen sound wie auf alten pink floyd-songs zu erzeugen. Ich nenn das hier mal „Chaosmaschinen“, die mir etwas geben, von dem ich vorher höchstens grob weiß, was rausgommt.
Gerade erst gestern entdeckt habe ich den „psychodrumma“. Eigentlich ist das ein Sampler, der aus einer großen anzahl zuvor vom hersteller aufgenommener samples zufällig welche auswählt und nacheinander und gleichzeitig abspielt und außerdem zahlreiche paramater der klangbearbeitung permanent verändert. Ergebnis ist ein absolut chaotischer klangteppich der zwar theoretisch steuerbar wäre (für alle parameter gibt’s auch regler die man von hand einstellen kann), de facto aber nicht kontrollierbar ist. Wenn man sowas in einem stück laufen lässt wird es fast zwangsläufig zum dominanten ereignis und da sich nichts wiederholt ist es musikalisch kaum zu gebrauchen. Trotzdem ist es super – warum? Man will keine minutenlangen nicht-repetitiven klangmuster, klar. Aber: man kann ja ein paar takte aufnehmen und die dann loopen. Ich hab noch nicht viel damit gemacht aber das ist generell die strategie mit solchen krach generatoren: man nimmt ein paar minuten davon auf und baut dann loops von 1-4 takten länge. Auch noch kürzere sequenzen können interessant sein, z.b. im minimal-techno hat man teilw. Loops die nur ¼ takt lang sind und dann sehr langsam variieren indem man z.B. einen filter drüber legt bei dem sehr langsam (über minuten) die frequenz rauf und runter geht, quasi ein wahwah-effekt in zeitlupe.

psychodrummer1

Disorder, Chaos, Randomize, Confusion. Der – oder wieso nicht- die „Psychodrumma“.

Loops
Der beste tipp wie man aus zufällen musik macht ist vielleicht der mit den loops. Mit gängiger Musiksoftware lässt sich das prinzip „loop“ sehr gut und einfach ausbeuten. Nehmen wir an ich habe einen 8 takte langen „chaosbeat“ aufgenommen und will einen ein taktlangen loop. Also probier ich wie die erste takt als loop klingt und der 2. Und der 3… so werden viele vorgehen aber da lässt sich mehr rausholen: wenn ich den loop bei takt 1.3.2. starten und bis 2.3.2. laufen lasse habe ich auch einen ganzen takt – warum die loops immer auf der 1.0.0. beginnen lassen? Das gilt auch für „reguläre“ beats die man nicht-zufällig konstruiert hat. Da lässt sich oft sehr leicht was rausholen, z.B. für ein break, ohne dass man nochmal neu was einspielen muss. Ich weiß nicht ob das noch in die strenge definition von Zufall fällt aber es ergibt jedenfalls etwas was man vorher nicht erwarten konnte.

Nachbemerkung: ich hab keine Ahnung ob es überhaupt eine Zielgruppe für so einen Text gibt. falls ja, lasst es mich wissen. danke.

Nachhbemerkung 2: Das thema Wahrscheinlichkeit/Zufall hat mich schon früher mal im Zusammenhang mit einem der besten Bücher überhaupt beschäftigt.

—– Anmerkungen —–
(1) streng genommen auch auf einen hardware synthesizer, denn ich kann das midi-signal wieder aus dem computer heraus in einen „echten“ synthesizer speisen. Das macht aber keinen unterschied.

(2) Streng genommen gibt es sogar software die das angeblich kann. Dennoch ist diese art aufgenommene sounds nachzubearbeiten allemal aufwändiger als midisignale. Jedenfalls wird das bis jjetzt nicht flächendeckend gemacht. Wenn ich mich bei der gitarrenaufnahme verspiele muss ichs halt nochmal einspielen. Wass man nachträglich ändern kann ist der Grad der Verzerrung usw, sofern diese effekte am computer erzeugt werden. Man kann inzwischen auch akustisch aufgenommene Signale in midisignale umwandeln lassen und dann beispielsweise auf einen synthesizer leiten. Die fehlerquote ist allerdings hoch, was aber auch wieder den zufall ins spiel bringt.

Advertisements

Über TheGurkenkaiser

Das wird man ja wohl noch verteufeln dürfen!
Dieser Beitrag wurde unter Erfahrungen, Musik, Musikproduktion veröffentlicht. Setze ein Lesezeichen auf den Permalink.

2 Antworten zu Zufall in der Musikproduktion

  1. endolex schreibt:

    Sehr sehr schön beschrieben ubd erklärt, wie ich finde. 🙂 Und Absynth schau ich mir definitiv noch mal an – wusste ich gar nicht dass es so eine Funktion hat! Scape-o-matic macht mich auch neugierig.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s