Die Lautstärke mit Farbe abbilden

09.09.2015

ETC-Software und –Pult ermöglichen am London National Theater eine OSC-basierte, zukunftsweisende Jedermann-Inszenierung.


 

Welche Farbe hat die Stimme eines g? Das war die synästhetische Frage, die sich dem Gestaltungsteam des Londoner National Theaters während der Vorbereitung der Produktion von Everyman – eine neue Bearbeitung des klassischen Moralitätenstücks aus dem 15. Jahrhundert – gestellt hat.

 

Chiwetel Ejiofor in der Titelrolle der von Kritik und Publikum umjubelten Inszenierung (Foto: Richard Hubert Smith)
Chiwetel Ejiofor in der Titelrolle der von Kritik und Publikum bejubelten Inszenierung (Foto: Richard Hubert Smith)



 

Die Bearbeitung von Carol Ann Duffy versteht sich als eine Kritik der verschwenderischen Gegenwart, wo der moderne Jedermann (Chiwetel Ejiofor) gezwungen ist, sich im Angesicht seines drohenden Todes seinem Solipsismus, seinem Materialismus und seiner Verschwendungssucht zu stellen.

Um diese neue Interpretation zu verwirklichen, mussten bei der Produktion des National Theaters unter der Regie von Rufus Norris alle Gewerke zusammenwirken und sich neuester Technologie bedienen:

  • die Lichtgestaltung von Paul Anderson
  • das Bühnenbild von Ian MacNeil
  • die von Tal Rosner gestalteten Videos
  • die Klanggestaltung von Paul Arditti

 

Am Beginn des Stücks hat Gott – der die Gestalt einer Putzfrau angenommen hat – nach einem Zusammenstoß mit dem betrunkenen und ausgelassen feiernden Jedermann die selbstsüchtige Verschwendungssucht der Menschheit satt. Um die göttliche Allmacht dieser anscheinend anspruchslosen Gestalt sichtbar zu machen, hat sich das Kreativteam entschlossen, dass Parameter der bewegten Videoprojektionen dem Klang der Stimme jener "Putzfrau" folgen sollen.

"Zum Beispiel könnte die Tonhöhe der Stimme die Farbe des Videos beeinflussen. Oder die Lautstärke könnte die Geschwindigkeit des Videos verändern" erklärt Dan Murfin, der Verantwortliche für die Lichtsteuerung des National Theaters. "Jedes Mal, wenn sie ein Wort sagten, änderte sich das Video synchron mit der Sprache in Form und Farbe. Das war der Anfang. Aber dann fragten wir uns: Wie können wir das verwirklichen?"

 


Eine ETC Eos Ti Steuerkonsole lieferte die technische Grundlage für die Inszenierung von "Everyman" im Londoner National Theater (Foto: Richard Hubert Smith)



 

Glücklicherweise ist das National Theater eine Betatest-Ort für die Eos -Software von ETC. Mit Hilfe von Funktionen der neuen Software-Version 2.3 und dem Eos Ti-Pult konnte Dan Murfin die interdisziplinäre Aufgabenstellung bewältigen. Die neue Version der Software gestattet es, Daten über OSC (Open Sound Control), einem in den Anfangsjahren des 21. Jahrhunderts in Berkley entwickelten Netzwerk-Protokoll für die Datenübertragung für Aufführungen elektronischer Musik, zu senden und zu empfangen.

Dieses Protokoll wird immer mehr zur interdisziplinären Vorstellungssteuerung eingesetzt, da es – im Gegensatz zu MIDI – die bidirektionale Kommunikation und Steuerung zwischen Geräten gestattet.

"MIDI ist eigentliche ein recht grobes Werkzeug", stellt Dan Murfin fest. "Das einzige, was Sie sagen können, ist 'Starte jetzt'. Der Vorteil von OSC ist, Rückmeldungen empfangen zu können. Sie können Bedingungen abfragen: 'Wenn dies eintritt, dann 'Go To Cue'."

Das Team verwendete ein Ableton Live genanntes Programm, um die Parameter der Stimme der Schauspieler in Echtzeit in OSC-Befehle umzusetzen. Diese Befehle wurden dann zur Eos gesandt. Dort werden sie im Catalyst-Videoserver als Parameter angewendet. "Alles was man im Tonsignal analysieren kann, kann man auf etwas Anderes abbilden. So können Sie beispielsweise die Lautstärke mit Farbe abbilden", bemerkt Dan Murfin.

 


Dank des Eos-Softwareupdates und OSC konnte der Ton die Videoprojektion beeinflussen (Foto: Richard Hubert Smith)



 

Das Hinzufügen der OSC-Fähigkeit zu Eos hat es dem Team gestattet, den Arbeitsfluss zur Steuerung und Erstellung von Inhalten zusammenzufassen. "In der Vergangenheit" erklärt Dan Murfin "mussten wir alles in Catalyst einrichten und dann mit Hilfe von Eos auslösen. Nun wird Catalyst dazu verwendet, den Inhalt in die Projektoren zu bringen. Auf der künstlerischen Seite werden alle diese Dinge – die Stimmung, welcher Inhalt auf welchem Layer gezeigt wird, die Intensität, die Farbe – direkt über Eos gesteuert."

In dem Maße, wie die Technologie weiterentwickelt wird, verändert sich auch der technologische Prozess. "Nun haben wir die Fähigkeit, die Systeme gegenseitig zu steuern. Das ist etwas, was wir bisher nicht zur Verfügung hatten", sagt Dan Murfin. "Während einer Produktion müssen wir nun viel mehr miteinander kommunizieren, denn der Ton beeinflusst nun direkt die Kreativität des Videos. Wenn die Tonabteilung die Lautstärke erhöht, kann es die Farbe des Videos verändern. Wenn Video und Beleuchtung zusammengefasst worden sind", fügt Dan Murfin hinzu, "kann ein einziger Stellwerker beide Teile der Vorstellung betreuen."

Er freut sich darauf, für zukünftige Inszenierungen weitere Anwendungen der neuen OSC-Fähigkeit von Eos zu entdecken, von der Zusammenfassung von Beleuchtung, Video und Ton bis zu der Verwendung von Benutzeranwendungen, die OSC einsetzen, um mit dem Beleuchtungssystem zu interagieren. "Jedem ist es möglich, eine Anwendung zu entwickeln, die alles kann. Wir können nun eine Software einsetzen, welche den Beleuchtungsaufbau beschreibt und direkt mit der Eos kommuniziert. Jedes Mal, wenn Sie das Patch in Eos ändern, wird diese Information in der Dokumentation festgehalten, ohne dafür importieren oder exportieren zu müssen. Die Möglichkeiten sind praktisch unbegrenzt."