Elektronische Musik mit menschlichem Rhythmus

Neues Produkt namens Human Plugins von Mixed In Key basiert auf Max-Planck- und Harvard-Forschung

5. Februar 2024

Elektronisch erzeugte Rhythmen werden häufig als zu künstlich empfunden. Neue Software ermöglicht es nun Produzenten, Rhythmen in computerproduzierter Musik natürlicher klingen zu lassen. Forschungsergebnisse am Max-Planck-Institut für Dynamik und Selbstorganisation und an der Harvard Universität bilden die Basis für patentierte neue Methoden, elektronisch erzeugte Rhythmen nach Mustern von Musikern, die fraktalen statistischen Gesetzmäßigkeiten folgen, zu verändern. Das Verfahren, das natürlich klingende Rhythmen erzeugt, wurde nun an die Firma Mixed In Key LLC lizenziert, dessen Musik-Software weltweit von führenden Musikproduzenten und international bekannten DJs verwendet wird. Ein Produkt mit dem Namen „Human Plugins“, das diese Technik nutzt, ist jetzt kommerziell verfügbar.

Musik wird heutzutage häufig elektronisch, also ohne akustische Instrumente erzeugt. Der Grund dafür ist einfach: Musikstücke können ohne Tonstudio und teures musikalisches Equipment auf einfache Weise erstellt und nachbearbeitet werden. Hierfür wird lediglich ein Computer und eine Digital Audio Workstation (DAW), das heißt ein elektronisches Gerät oder Software für die Aufnahme, Bearbeitung und Produktion von Musik, benötigt. Der gewünschte Sound für ein beliebiges Software-Instrument von Klavier bis Schlagzeug wird über die DAW erzeugt und nachbearbeitet.

Ein großer Teil der Musik wird jedoch mit quantisierten, künstlich klingenden Loops produziert, die keinen natürlichen Groove haben, und es gibt keinen standardisierten Prozess, um sie zu vermenschlichen. Zu hohe Präzision wirkt künstlich auf das menschliche Ohr. Doch das zufällige Verschieben von Tönen um ein paar Millisekunden, reicht nicht aus – es klingt einfach nicht so, als würde ein Live-Musiker diesen Part auf einem Musikinstrument spielen. Ohne die richtige Korrelation zwischen den zeitlichen Abweichungen der Beats klingen diese für das menschliche Ohr in der Regel als schlecht gespielt, oder sie werden als digitale Timingfehler wahrgenommen. Es blieb also nur die Möglichkeit, ein sehr präzises Timing anzustreben, das den Sound der Musik in den Post-90ern in fast allen Genres geprägt hat.

Das neue am MPI-DS entwickelte Verfahren des „Humanizing“ ermöglicht es nun, elektronische Rhythmen mit natürlichen Varianzen zu versehen und so ein natürlicheres Klangerlebnis zu erzeugen. Ein darauf aufbauendes, an der Harvard Universität entwickeltes Verfahren, der „Group Humanizer“, erweitert den Anwendungsbereich auf mehrere Instrumente und lässt die zeitlichen Abweichungen im Zusammenspiel verschiedener Instrumente menschlich klingen, als würden Musiker im selben Raum zusammenspielen. Mixed In Key hat diese Technik weiterentwickelt und eine Möglichkeit geschaffen, Audiokanäle und MIDI-Noten mit einer Reihe von Plugins mit dem Namen „Human Plugins“ zu vermenschlichen, die mit den meisten gängigen DAWs kompatibel sind.

Methodische Erforschung natürlicher Varianzen

Den Grundstein für das neue Verfahren legte Holger Hennig 2007, damals Wissenschaftler am Max-Planck-Institut für Dynamik und Selbstorganisation in Göttingen unter Leitung von Theo Geisel, emeritierter Direktor des Instituts. Hennig stellte sich die Frage, ob zeitliche Abweichungen von Musikern vom exakten Taktschlag rein zufällig variieren oder einer bestimmten Gesetzmäßigkeit folgen und welchen Effekt dies auf den Höreindruck hat.

Die Abweichungen folgen dabei einem fraktalen Muster. Der Begriff des Fraktals wurde 1975 vom Mathematiker Benoit Mandelbrot geprägt und beschreibt Muster, die einen hohen Grad an Selbstähnlichkeit aufweisen. Das ist der Fall, wenn ein Muster aus mehreren kleinen Kopien seiner selbst besteht. Fraktale treten sowohl als geometrische Figuren als auch als wiederkehrende Strukturen in Zeitreihen auf, wie etwa beim menschlichen Herzschlag. So folgen die rhythmischen Schwankungen des Schlagzeugers statistischen Abhängigkeiten – nicht nur von einem Schlag auf den nächsten, sondern über bis zu tausend Schläge hinweg. Es ergibt sich ein Muster aus über mehrere Minuten wiederkehrender Strukturen und Abhängigkeiten, sogenannten langreichweitigen Korrelationen, die auf verschiedenen Zeitskalen vorliegen.

Wie wirken sich diese zeitlichen Abweichungen auf das Zusammenspiel von Musikern aus? Auch das Zusammenspiel von Musikern ist fraktaler Natur mit sogenannten langreichweitigen Kreuzkorrelationen, zeigen Ergebnisse an der Harvard Universität. „Die nächste zeitliche Abweichung eines Beats eines Musikers hängt von der mehrere Minuten zurückreichenden Vorgeschichte der Abweichungen der anderen Musiker ab. Menschliche Musikrhythmen sind nicht exakt, und die fraktale Natur der zeitlichen Abweichungen ist Teil des natürlichen Grooves menschlicher Musik“, sagt Holger Hennig.

Doch wie klingen diese fraktalen Abweichungen? Ein eigens für diese Forschung komponiertes Musikstück wurde dafür in der Postproduktion vermenschlicht. Das Stück wurde Versuchspersonen in unterschiedlichen nachbearbeiteten Versionen im Rahmen einer psychologischen Studie an der Universität Göttingen vorgespielt: Einmal mit konventionellen zufälligen Abweichungen und einmal mit fraktalen Abweichungen. Die Version mit den menschlichen fraktalen Abweichungen wurde von den meisten Hörern gegenüber konventionellen zufälligen Abweichungen präferiert und am natürlichsten empfunden.

Neues Produkt für lebendige und dynamische Rhythmen

Aufgrund des Artikels „When the beat goes off“ in der Harvard Gazette, der 2012 für großes Aufsehen in der Musikszene sorgte, meldete sich der Londoner Elektronik-Musiker James Holden bei Hennig, der inzwischen an der Harvard Universität forschte. Gemeinsam haben sie die theoretischen Grundlagen zu einem von James Holden geschriebenen Plugin für die weltweit verwendete Ableton Live Software weiterentwickelt. Der Group Humanizer, den James Holden in seinen Live Shows sowie seinen Alben verwendet, fokussiert sich auf das Zusammenspiel mehrerer MIDI-Tonspuren. Verschiedene Tonspuren reagieren mit dem Group Humanizer gegenseitig auf zeitliche Abweichungen und klingen so, als wenn sie von gemeinsam agierenden Musikern gespielt würden. Zudem ist es nun möglich, dass elektronische Instrumente sich auf natürliche Weise in Echtzeit an das Spiel von Musikern anpassen.  „Die Möglichkeit, synthetische und menschliche Klangquellen auf kohärente Weise zu integrieren, wie sie die Humanizer-Software bietet, hat mir den Zugang zu einer neuen Ästhetik in der elektronisch-akustischen Musik ermöglicht“, so James Holden.

Das Group Humanizing Plugin hat schließlich die Aufmerksamkeit der Firma Mixed In Key auf sich gezogen. Die Firma Mixed In Key LLC mit Sitz in Miami, USA, entwickelt und vermarktet Software für DJs und Musikproduzenten, darunter die „Mixed In Key“ Suite. Mixed In Key hat nun das am Max-Planck-Institut entwickelte Humanizing-Patent von Max-Planck-Innovation, der Technologietransfer-Organisation der Max-Planck-Gesellschaft, sowie das an der Harvard Universität entwickelte Group Humanizing-Patent lizenziert und ein Software-Plugin namens Human Plugins entwickelt. „Mit den neuen Human Plugins wird die Vermenschlichung elektronischer Rhythmen auf ein völlig neues Level gebracht. Diese Software hat das Potenzial, zum Standard auf dem Gebiet der Humanisierung von Musik zu werden“, sagt Yakov Vorobyev, President und Gründer von Mixed In Key LLC.

Dieses neuartige Plugin kann in alle gängigen DAWs wie Ableton Live, Logic Pro X, FL Studio, Pro Tools und Cubase integriert werden und nicht nur MIDI-, sondern auch Audio- und Wave-Tonspuren humanisieren. Die User fügen in der DAW lediglich eine oder mehrere neue Tonspuren ein, die das Humanizing mehrerer Instrumente gleichzeitig (z. B. Schlagzeug, Bass, Piano) ermöglicht. Mit Hilfe eines Reglers kann man die Stärke des Humanizing, d. h. die Höhe der Standardabweichung der Verschiebungen festlegen, die die Breite der von den Forschern bestimmten Gaußverteilung angibt. Auf diese Weise lässt sich auch in Abhängigkeit vom Musikstil ein bestimmtes Rhythmusgefühl erzeugen.

„Die Grundlagenforschung zu Fraktalen und ihre Anwendung in der Psychoakustik hat hier ein völlig neues Forschungsgebiet und die Grundlage für ein Produkt mit großem wirtschaftlichem Potenzial geschaffen, das Musikern völlig neue Möglichkeiten an die Hand gibt, ihre Musik in Szene zu setzen. Wir freuen uns, dass wir mit Mixed In Key LLC eine der wichtigsten Firmen im Musik-Business als Partner gewinnen konnten, um für eine weltweite Verbreitung dieses faszinierenden Verfahrens zur Musiknachbearbeitung zu sorgen“, so Bernd Ctortecka, Patent- und Lizenzmanager bei Max-Planck-Innovation.

 

Weitere interessante Beiträge

Zur Redakteursansicht