Allgemein

Grafik – Von Digital zu Analog

Die Grafikabteilung beschäftigt sich im Endspurt mit der visuellen Vermarktung und Bewerbung unserer Produktion. So wurden neben den T-Shirts für unser Team, die Instagram-Posts für die Danksagungen an unsere Sponsoren kreiert. Hierbei stellte sich die Herausforderung, die Logos der Sponsoren in einen stimmigen Gesamtzusammenhang einzubetten, der nicht zu dominant, jedoch trotzdem in den Rahmen unseres CI‘s passte. Hierbei musste auch berücksichtigt werden wie diese Sponsoren-Posts von Nutzern gesehen werden. So soll das Logo beim durchsehen der Bilder des Instagramprofils immer noch klar erkennbar und nicht abgeschnitten sein. Die Grafikabteilung realisiert aktuell den digitalen und analogen Schriftverkehr im Bezug auf die Einladungen für die Medianight, um das Projekt auf allen Wegen zu bewerben und nach außen zu kommunizieren.

Beitrag von Robert Samuel

Allgemein

Shots und deren Umsetzung

Im letzten Blogbeitrag des Videoteams haben wir die Shots und unsere Planung besprochen. Stand heute sind wir mit der Produktion der Einspielmedien fertig und können über unsere Erfahrungen mit den Aufnahmen reden.

Eine der Herausforderungen war die Kadrage, das Seitenverhältnis von 1×1 hatte uns in der Postproduktion dazu genötigt, in der Postproduktion dieses Format noch einmal festzulegen. Außerdem konnten wir wegen der Spazialen Auflösung einige Videocodecs nicht verwenden.

Die Drohnenaufnahmen aus einer anderen StudioProduktion konnten wir verwenden und neu schneiden, das Ergebnis ist sehr gut geworden. Die Berge sehen sehr gut aus, die ganze Sequenz ist sehr dynamisch.

Der Nächste Shot ist aus der Natur mit Bäumen, das Licht fällt durch die Bäume, die Farbstimmung ist warm der Shot ist Harmonisch.

Die Einstellung in der HdM ist gut geworden, hier war die Herausforderungen die Leeren Gänge zu finden, außerdem ist das Bild durch die Steadcam etwas verwackelt was allerdings auch zur Abtraumhaftigkeit der Sequenz führt.

Die Einstellung mit Bahn und Loop ist in Ordnung. Die Herausforderung war hier die Genehmigung des Drehs durch die SSB. Wir durften nicht an der ursprünglich geplanten Station drehen, außerdem durften wir nicht mit Stativen drehen, sondern mussten uns auf Handheld Kameras beschränken, weshalb das Bild leider etwas wackelt, was wir in der Postproduktion korrigiert haben.

Der Shot mit den Ölschlieren wurde nicht fertig gestellt, da das Öl auf dem Wasser nicht wirklich gut aussah.

Die Mediensteuerung hatte sich, für die Integration in das LivePlayback, für den HAP Codec entschlossen. Die Konvertierung in diesen Codec wird mit ffmpeg umgesetzt.

Beitrag von Jan Hansen

Allgemein

Die auditiven Traumwelten

Nachdem ich meinen letzten Blogeintrag der Aufstellung unseres Beschallungssystems gewidmet habe, soll es nun um die Erstellung der dafür vorgesehenen Audioinhalte gehen.

Die Klangatmosphären in welche unsere Besucher mittels Stecken der entsprechenden Module versetzt werden, reichen von natürlichen Szenarien wie Wäldern, Höhlen, Stränden und Stürmen über urbane Atmosphären im Straßenverkehr, an Bahnstationen sowie in diversen anderen Menschenansammlungen hin zu Klangatmosphären welche rein darauf abzielen, bestimmte Emotionen im Besucher hervorzurufen. Sie sind teilweise rein auditiv, zum Teil aber auch an Videoinhalte gebunden. Manche erzählen ihre eigenen Geschichten, andere dienen nur als Hintergrundgeräuschkulisse. Diese Geräuschkulissen sind so angelegt, dass sich ein Teil daraus, vom Besucher möglichst unbemerkt, in einer Endlosschleife immer wieder wiederholt bis das Modul abgesteckt wird.

Da wir weder die Zeit, noch die logistischen Mittel haben sämtliche Audio-Atmosphären unserer Installation mit Mikrofonen selbst aufzuzeichnen, werden diese im 3D-Audi-Studio an der HdM aufwändig nachgebaut. Hierfür greifen wir auf eine Vielzahl umfangreicher Sound-Libraries zurück, welche wir mit eigens angefertigten Tonaufnahmen erweitern. Da die meisten Sounds dieser Libraries stereophon oder im besten Fall quadrophon aufgezeichnet wurden, lassen sie sich nicht eins zu eins auf unser mehrkanaliges Beschallungssystem übertragen. Die Herausforderung besteht somit darin, mehrere dieser Aufnahmen im Raum so miteinander anzuordnen, dass daraus ein homogenes, dreidimensionales Klangszenario entsteht.

Hierfür gehen wir zumeist so vor, dass wir eine quadrophone Aufnahme auseinanderschneiden und zu einer sechskanaligen, kürzeren Audiospur wieder zusammenfügen. Verteilt auf die im Sechseck auf Ohrhöhe angebrachten Lautsprecher und mit einem mal mehr, mal minder leichten Surround-Hall versehen, ergibt sich daraus das auditive „Grundgerüst“ welches dann um weitere statische und bewegte Schallereignisse ergänzt wird. Hierzu gehören beispielsweise Vögel, welche über die Köpfe hinweg fliegen oder ein Auto welches an einem vorbei fährt.

Zudem gibt es ein auditives Intro und Outro für unsere Installation. Diese sollen einerseits dazu dienen, den Besucher abzuholen und ihn gedanklich auf unsere Traumwelten vorzubereiten, ihn anschließend aber auch wieder in die reale Welt zu entlassen. Anwendungs-Sounds während der Benutzung der Traummodule sind sehr dezent und unaufgeregt gehalten. Sie dienen beispielsweise dazu, dem Anwender die Bestätigung darüber zu geben, dass ein Modul richtig verwendet bzw. richtig angesteckt wurde.

Nun, da unser Lautsprechersetup steht und bereits einige vielversprechende Tests durchgeführt wurden, geht es mit Hochdruck an die Erstellung letzter 3D-Audio-Atmosphären sowie das Sounddesign von Intro und Outro Sequenzen und den Anwendungs-Sounds. Zu guter Letzt wird all dies dann ein weiteres Mal final im Raum abgemischt und in unsere Audio-Processing-Software eingepflegt. Wie Sie sehen, gibt es also noch einiges zu tun, weshalb ich mich jetzt zurück an die Arbeit mache.

Beitrag von Falko Groß

Allgemein

Ein herzliches Dankeschön an die madness GmbH!

Im Unternehmen Madness dreht sich alles rund um die virtuelle Welt.

Vor 22 Jahren startete madness mit 3D Visualisierungen und Animationen. Das Spektrum wurde über die Jahre sukzessive und um diese Kernkompetenz herum erweitert.

So zählen die Konzeption und Umsetzung von Virtual und Augmented Reality Lösungen als Touch-, App- oder VR-Brillen-Anwendungen seit Jahren mit zum Aufgabenbereich.

Allgemein

Geschafft! Die To-Do Liste aus dem Fotografie Gewerk ist abgearbeitet.

Verrückt, wie schnell die Zeit vergeht… Vor ca. 2 Monaten haben wir uns alle den Kopf darüber zerbrochen, was wir erschaffen wollen. Nun sind es nur noch ein paar Wochen zur MediaNight. Wir im Fotografie-Department haben die Zeit sehr genossen und konnten uns kreativ ausleben.

Nach Abnahme der Einspielmedien durch die Regie, war der größte Teil des Fotografiegewerkes erledigt. Unsere letzte Aufgabe bestand darin, alte Fotos für eine Diashow herauszusuchen. Eines der Module wird nämlich die Funktion haben, Träume aus der Vergangenheit zu veranschaulichen. Hierfür haben wir nach alten Bildern in schwarz-weiss oder im Vintage Stil gesucht. Hauptsächlich sollten Familien, schöne Events oder Schnappschüsse zu sehen sein. Dafür hat sich das Team richtig ins Zeug gelegt und zu Hause sämtliche alte Fotoalben durchstöbert. Zusammen mit der Regie gingen wir alle alten Fotografien genau durch und sortierten diese aus. Die engere Auswahl musste nur noch von uns eingescannt werden.

Somit sind unsere Aufgaben im Fotografie-Gewerk erledigt und wir können das Team in den anderen Abteilungen fleißig unterstützen. 

Beitrag von Nicole Grzesiek

Allgemein

Module, Platinen und Nodes

Herausforderungen und Lösungen in der Medientechnik & Programmierung

In der Programmierung und Mediensteuerung gibt es aktuell eine ganze Reihe von Themen, die uns auf Trab halten. 

Da wären zum einen die Module. Die Herausforderung ist hier die schiere Masse. Wir müssen in den Wochen bis zur MediaNight 36 Stück davon produzieren. Dabei besteht jedes Modul aus mehreren Komponenten, die es alle erst zu entwickeln und dann zu produzieren gilt. 
Eine Komponente ist das 3D gedruckte Gehäuse des Moduls. Es muss hauptsächlich zwei Anforderungen erfüllen. Die Module müssen eine angenehme Haptik und Optik haben, damit der Besucher gerne mit ihnen interagiert. Außerdem müssen sie genug Platz im Inneren für die gesamte Technik bieten, gleichzeitig dürfen sie aber auch nicht zu groß werden, damit Produktionszeit und -kosten im Rahmen bleiben. Bis die endgültige Form des Gehäuses gefunden wurde, waren einige Iterationen und Testdrucke nötig. Eine besondere Herausforderung war die Organisation des 3D Drucks. Durch die aktuelle Situation sind die Kapazitäten der HdM ein wenig eingeschränkt und der Druck aller Teile wird, laut Kalkulation, rund 260 Stunden in Anspruch nehmen. 

Die zweite Komponente ist die Kantenbeleuchtung der Module. Da die Module „nur“ eine Kantenlänge von 3,3cm haben, sind die Spalte in den Wänden ebenfalls sehr schmal. Dadurch müssen wir mit sehr schmalen, kleinen Bauteilen arbeiten, aber trotzdem eine gleichmäßig helle Ausleuchtung erreichen. Nach dem Prototyping verschiedener Ansätze haben wir hier zusammen mit dem Lichtteam einen guten Kompromiss zwischen Aufwand und Aussehen gefunden. 

Die letzte Komponente ist die elektronische Verbindung des Moduls mit der Basisstation. Um eine angenehme Benutzererfahrung zu bieten, wollten wir dabei auf das Stecker-Buchse Prinzip verzichten. Deshalb haben wir eine Platine entwickelt und bestellt, über deren großflächige Kontakte wir die Module ohne Steckverbindungen mit Strom und Daten versorgen können. So entstand, in Kombination mit der Software, das Somnium Module Interface (SMI). 
Zur signaltechnischen Verbindung der Module mit der Basisstation nutzen wir den CAN Bus. Für diesen gibt es bereits fertige Konverter, die das CAN Signal in ein SPI Signal umsetzen und es an den Arduino Nano im Modul weitergeben. Um den Aufwand und den Platzbedarf im Modul zu reduzieren, entwickelten wir eine zweite Platine. Diese ersetzt die nötigen Kabelverbindungen durch Leiterbahnen. Von unten wird dann nur noch der CAN-Konverter und von oben der Arduino aufgesteckt.

Zum SMI gehört auch eine Manager beziehungsweise Backend Software. Diese verwaltet die Module, liest die Signale der Moduleinheit aus und kümmert sich um die Verteilung der daraus resultierenden Informationen ans Frontend und den Audioausspieler. Nach längerer Überlegung entschieden wir uns dazu, die Software mit C# und dem .NET Framework umzusetzen, da ich in diesem Bereich schon einige Erfahrung sammeln konnte. 

Um das Frontend, in unserem Fall also die Projektion an der Decke, kümmert sich hauptsächlich Sophie Kergaßner mit der Software TouchDesigner. Dabei gilt es, die eingehenden Signale von der Backend Software, beziehungsweise der Moduleinheit, entsprechend in eine stimmige und funktionierende Projektion umzusetzen. In TouchDesigner können wir mithilfe einer nodebasierten Programmierung die Funktionalität jedes einzelnen Moduls abbilden. Die digitalen Module werden später, unter Berücksichtigung verschiedener Abhängigkeiten, durch die Interaktion des Besuchers mit den realen Modulen „zusammengesteckt“. 
Die Audiosparte wird softwareseitig durch Ableton Live abgedeckt. Falko Groß implementiert die produzierten Audioinhalte so, dass diese wiederum durch Signale aus der Backend Software im richtigen Augenblick eingespielt und live durch Filter verändert werden können.

Beitrag von Moritz Stuhlfauth