Schlagwort-Archive: Medientechnologie

MLD: music & light design GmbH ermöglichen uns „Grenzgebiete“

MLD: music & light design GmbH ermöglichen uns die technische umsetzung der Event Media Produktion „Grenzgebiete“.

Unser Unternehmen wurde 1989 von Michael Müller gegründet. 1992 entstand daraus eine GbR und 1995 bezogen wir unsere ersten eigenen Geschäftsräume. Seither ging es ständig bergauf. 1998 vergrößerten wir uns nochmals und die GmbH wurde gegründet.

Es folgten noch zwei weitere Umzüge bis wir schliesslich 2015 in unseren eigenen Neubau zogen. In Leonberg haben wir jetzt unseren Hauptsitz; Geschäftsräume mit 4.300qm² Lagerfläche, 800qm² Bürofläche, Werkstatt- und Sozialräumen.

Aktuell sind wir fast 40 Mitarbeiter in Festanstellung, 2 Auszubildende und zahlreiche freie Mitarbeiter.

Anfang diesen Jahres haben wir unsere Tochterfirma, die mld digits gmbh, gegründet. mld digits stellt interaktive Technologien wie Augmented Reality, Virtual Reality und CGI in den Mittelpunkt der Geschäftstätigkeit und bietet ein klar definiertes Lösungsportfolio in diesem Bereich.

Was wir mit den Studierenden gemeinsam machen:

Wir setzen Ihre Veranstaltungskonzeption technisch um und ziehen perfekt die multimedialen Register, um Stimmungen zu generieren, Räume für Kommunikation zu schaffen, so wie die Menschen & ihre Marken optimal in Szene zu setzen. Wir geben Ihrem Auftritt das gewünschte Gesicht und seine ganz individuellen Konturen.

Wir freuen uns sehr mit der music & light design GmbH zusammen zu arbeiten und so ein tolles Ergebnis am 25. März im Hafen Stuttgart erzielen zu können!

Mehr Informationen über MLD bekommt ihr auf deren Homepage hier.

Es wir eng

Der Spieler tritt dann auf ein Kuchenstück des Plattentellers und agiert auf 5 interaktiven Modulen. Die Menge aller erbrachten Aktivitäten der einzelnen Spieler auf die jeweiligen Kuchenstücke wird am Ende eines Levels verrechnet und ergibt den Spielstand. Es wird sowohl singulär als auch gemeinschaftlich das Spiel gewonnen oder verloren.

IMG_6420

Morgen wird eine neue dem Publikum präsentiert.  Auf 40 interaktiven Trittmodulen, die zusammengestellt einen Plattenteller ergeben, wird ein Reaktionsspiel im Sinne eines Sportgames realisiert. Der Plattenteller wird als Controller und als Spielfläche gleichzeitig eingesetzt. Es ist ein überdimensioniertes Boardgame.

Die zentrale Spielsteuerung geht über Arduinos Mega, Unmengen einzelner RGB LEDs, 40 Taster, und über 1600 ansteuerbare LD’s. Die Programmiersprache ist die grafische Entwicklungsumgebung mit VVVV. Es werden mehrere tausend LED Lichter angesteuert. Die werden gelötet und in die Spielplattform eingebunden.

IMG_6450

Bei der gestrigen Probe wurden für den Spielspass die Spielzeit und Schnelligkeit reduziert. Denn die Komplexität der 3 Spiellevels wackelt von Seiten der Programmierung. Immer wieder werden Lichtsignale nicht gesendet oder fallen aus. Das beeinträchtigt die Kontrolle des Spielstands und das Feedback für den Spieler und das Spiel wird intransparent. Wenn die eigene Leistung innerhalb einer kompetitiven Situation nicht abgerufen werden kann, bzw. nicht verstanden senkt es die Spielmotivation.

Neuland

Wir sind drei Studenten im Team der Mediensteuerung und stellen uns dieser Herausforderung mit viel Interesse, aber ohne auf einem grundlegenden Vorwissen aufzubauen. Um ein Gespür für das Kommende zu bekommen, studierten wir den Konzeptplan und klärten offene Fragen mit dem Konzeptteam. Mit Mindmaps und schematischen Zeichnungen auf dem White Board stellen wir das Grundprinzip und die Funktionsweise des Spieles in abstrakter, einfacher Form dar. Aus welchen „Bausteinen“  besteht unser Spiel? Welche Kommunikation findet in unserem interaktiven Spiel statt? Und mit welcher Medientechnik lassen sich diese Anforderungen umsetzen?

_MG_54082

Nachdem wir ein grobes Schema hatten, versuchen wir uns an einem Pseudocode. Der Code hilft uns, einige bislang nicht geklärte Fragen aufzudecken und uns tiefer in die Materie hineinzudenken. Nachdem wir eine grundlegende Vorstellung der Aufgabe erlangt haben sprechen wir mit Herr Mühlhöfer, unserem technischen Ansprechpartner bei der Event Media Studioproduktion, über Hardware und auf welche grundlegenden Dinge man bei der Medientechnik achten muss.

Mediensteuerung

Die zentrale Steuerung des Spieles wird mit Arduinos umgesetzt. Robin Schulte, Mitarbeiter bei der Studioproduktion Interaktive Medien, beschäftigt sich in seiner Freizeit mit Mikrocontrollern gab uns Tipps zur Recherche und zur Herangehensweise an einen Prototyp.

Mit welcher Programmiersprache oder Software können wir die Mediensteuerung am einfachsten oder besten umsetzen? Robin Schulte tendiert wegen Flexibilität zu einer „klassischen“ Programmiersprache. Da wir außer den Pflichtveranstaltungen Informatik1 und 2 keinen programmiertechnischen Hintergrund haben gehen wir wegen der grafischen Entwicklungsumgebung mit VVVV an den Start. Zwar hat keiner von uns mit VVVV gearbeitet, aber mit einer grafisch veranschaulichten Oberfläche zu arbeiten ist sympathischer.

IMAG3708

Für den Prototypen bestellen wir zwei Arduino Mega, 40 einzelne RGB LEDs, 40 Taster, und 5 LED PWM Driver mit je 24 Kanälen. Täglich oder zumindest wöchentlich kommen außerdem Neuigkeiten der Teams, wie Konzept, Bühne und Sponsoring, die die Mediensteuerung betreffen und berücksichtigt werden.
In Absprache mit Herr Mühlhöfer, werden wir digital ansteuerbare LED Strips mit Silikonumhüllung ansteuern. Wir von LED Strips, die nicht einzeln adressierbar sind und mehr Anschlüsse zur Ansteuerung benötigen ausgegangen. Damit vereinfachte sich der Verkabelungsaufwand.

Der Plan für den Prototypen wurde an diese Entscheidung angepasst. Die LED PWM Driver und die einzelnen LEDs für den Prototypen wurden hinfällig. Stattdessen verwenden wir Überreste der digitalen LED Strips, der vorhergegangenen Studioproduktionen.

Mit Hilfe des Internets stecken wir die Hardware des Prototypen zusammen. Was die Programmierung und Steuerung der verschiedenen Schnittstellen angeht, fühlen wir uns noch hilflos und ins kalte Wasser geworfen. Vom Berg der ungelösten Aufgaben fühlen wir uns überfordert.

IMG_5463

Deswegen sprechen wir nochmal das Spielkonzept durch, schreiben Fragen auf und erledigen andere Aufgaben, wie Schaltpläne zeichnen. Wir benötigen Starthilfe und bitten Nadja Weber um Hilfe. Wir bekommen Antworten.

Wir besprechen die Vorgehensweise mit VVVV. Jetzt sind wir etwas entspannter, haben uns kleine Ziele gesetzt und endlich sinnvoll untereinander aufgeteilt.

Bis zum neuen Jahr soll die Kommunikation zwischen Tastern und LED Strips über den Prototypen funktionieren. Dazu wird  Code zur Ausführung auf den Arduinos implementiert und die Datenübertragung und Auswertung mit VVVV funktionieren.

 

Beitrag von Lisa-Marie Stückle

Ein Blick, der den Raum verändert

Eine Station unserer Installation bietet dem Besucher die Möglichkeit, die Welt durch die Augen Edgar Allan Poes zu betrachten und zu beeinflussen. Wo sein Blick hinfällt, ändert sich die Farbigkeit des Raumes. Düstere Schatten treten aus dem Nichts, Gegenstände bewegen sich wie von allein.

 

Die Herangehensweise

Um dieses Szenario umzusetzen wollen wir zwei Technologien verbinden:

1. Eye Tracking: Der Besucher blickt durch das Portrait Edgar Allan Poes, Kameras erfassen seine Augen und analysieren die Blickrichtung.

2. Video Mapping: Der Teil des Raums den der Besucher durch das Portrait einsehen kann, ist weiß gehalten. In ihm befinden sich drei neutrale weiße Quader. Mittels einer Projektion wird der Raum gestaltet. Die Wände bekommen Texturen, die Quader werden zu konkreten Gegenständen: ein Bücherregal, ein Tisch, eine Büste.

Entsprechend können wir den Raum und die Gegenstände verändern, je nachdem wohin der Blick des Besuchers fällt.

Das Innenleben des ursprüngliche Eye-Tracking-Prototypen. Vier Infrarot-LEDs beleuchten die Augenregion, eine Playstation Eye Kamera erfasst die Augen.

 © Thomas Steinbach

Eye Tracking

Gängige Einsatzgebiete für Eye-Tracking finden sich in der Marktforschung, der Psychologie oder auch in der Computersteuerung für körperlich beeinträchtigte Menschen. Allen ist gemein, dass sie ein großes Maß an Präzision voraussetzen und daher eine Kalibrierung, eine Anpassung an den einzelnen Nutzer, fordern. Gängige Eye-Tracking Software ist deshalb dementsprechend ausgelegt.

Das ist ein Problem. Wir wollen vermeiden, dass jeder Besucher eine Kalibrierung durchführen muss. Dafür arbeiten wir an einer eigenen Software zur Analyse der Blickrichtung. Der Raum soll direkt dem Blick folgen, so erreichen wir ein hohes Maß an Immersion und Verblüffung. Im Gegenzug verzichten wir auf etwas Präzision. Das Feld, das der Blickende beeinflusst, wird 1-2 Meter breit sein.

Der Besucher blickt durch Poes Portrait und damit ist die Position aus der er den Raum betrachtet vorgegeben. Wir müssen jetzt noch analysieren wohin er blickt. Um die Augen zu erfassen, werden wir in dem Bilderrahmen für jedes Auge einen speziellen Infrarot-Spiegel („Hot Mirror“) einsetzen. Dieser spiegelt nur Infrarotanteile des Lichts und der Besucher kann durchblicken wie durch ein Stück Glas. Eine Kamera erfasst über die Reflektion des Spiegels ein Infrarotbild des Auges.

Funktionsskizze des finalen Eye-Trackers: Jedes Auge wird von einer eigenen Kamera (Playstation Eye) erfasst.

 © Thomas Steinbach

Im Infrarotbild ist die Pupille leicht zu finden da sie dunkler als ihre Umgebung erscheint. Mittels Kantendetektion ermitteln wir die Konturen der Augen und zuletzt die Position der Pupille dazu. Das geht vor allem durch die optimale Position der Kamera. Zur Umsetzung nutzen wir die Computervision Bibliothek OpenCV in der Programmiersprache C++.

 

Video Mapping

Hier setzen wir auf die Programmiersprache VVVV. Darin bauen wir den Raum und seine Objekte virtuell in 3D nach. Im virtuellen Raum platzieren wir Bilder, Grafiken und Videos an die Stellen, an denen sie im realen Raum erscheinen sollen. So können zum Beispiel verschiedene Möbel im Raum entstehen und verschwinden. Die Daten unseres Eye-Trackers werden über das Netzwerk empfangen.

Der Blick des Besuchers soll den Raum verändern, ähnlich einer Taschenlampe die einen dunklen Raum partiell beleuchtet. Um das zu erreichen, bauen wir drei Variationen des virtuellen Raums.

#1 generiert den Raum wie er normal erscheint.

#2 generiert den Raum vollständig durch die Augen des Nutzers beeinflusst.

#3 visualisiert den Blick des Nutzers durch den Raum. Die betrachteten Stellen sind weiß, alles andere ist schwarz. Dieser Raum wird als Maske genutzt und blendet an der vom Besucher fokussierten Stelle Raum 2 ein.

An der Position des realen Beamers wird eine virtuelle Kamera im 3D Raum positioniert. Diese filmt den 3D Raum und erstellt die Ausgabe die wir in den realen Raum projizieren. Stimmen alle Relationen zwischen dem 3D Raum und dem realen Raum, der virtuellen Kamera und dem realen Beamer überein, haben wir einen perfekt gemappten Raum dessen Inhalte wir flexibel und interaktiv benutzen können.

Der Mapping Prototyp in VVVV: Links oben der Output, der in den Raum projiziert wird, darunter eine Übersicht über den 3D Raum mit zwei Quadern und einer virtuellen Kamera. Rechts der Programmcode.

  © Thomas Steinbach

von Thomas Steinabch

Einmal Beamen bitte!

Die Fassade der HDM mit der großen Glasfront des CMC (Convergent Media Center) ist eine eindrucksvolle Leinwand für die Projektion unserer Studioproduktion. Allerdings hat das hübsche Glas einen kleinen Nachteil, wenn man es als Projektionsfläche verwenden möchte. Man muss das Glas dazu bringen, die projizierten Bilder zu reflektieren. Das klappt, wenn man von innen reflektierendes Material anbringt. Wir brauchen also keinen Fassadenkletterer.

Bild © Ingmar Jännsch

Unsere Fassadenfläche ist 13,40m hoch und 17,75m breit. Wie klasse, das entspricht ja fast exakt einem Verhältnis von 4:3, wie Omas alter Röhrenfernseher (oder auch ein simpler alter Beamer). Ein simpler alter Beamer ist aber viel zu lichtschwach, wenn wir schon bei anbrechender Nacht ein brauchbares Bild haben wollen. Wir brauchen was Besseres.

Einen Platz zum Aufstellen des Beamers brauchen wir natürlich auch. Damit keine Zuschauerköpfe im Bild sind, darf er natürlich nicht auf dem Boden stehen. Könnte man nicht das Bauschild als Standgerüst verwenden? Das steht 30m weit von der Fassade weg.

links die Fassade vom CMC  und rechts das Bauschild.   Fotografie © Ingmar Jännsch

Bekommen wir einen Beamer mit 4:3-Chip, müsste das Objektiv des Beamers dann ein Projektionsverhältnis von 1,7:1 darstellen können, denn bei einer Projektionshöhe von 13,40m ergibt sich für 4:3 eine Projektionsbreite von 17,80m. Moderne Beamer haben allerdings meist Chips im Verhältnis 16:10. Die Optik muss natürlich die volle Breite des Chips abdecken. Unsere Fassade bleibt aber gleich. Um deren Höhe abzudecken bräuchten wir dann eine Optik, die ein Projektionsverhältnis von 1,4:1 darstellen kann, denn für 16:10 ergibt sich bei 13,40m Höhe eine Projektionsbreite von 21,40m.

Bekommen wir zu einem Profi-Beamer auch ein solches Objektiv? 1,7 ist die Untergrenze des Zoomobjektivs, das am ehesten in Aussicht steht. Der Beamer hat dummerweise voraussichtlich einen 16:10-Chip. Vielleicht ist ja das Bauschild doch keine so gute Idee.
Bauen wir also doch einen eigenen erhöhten Standort für den Beamer. Bis zur Straße haben wir maximal 46m Abstand zur Verfügung. Das macht ein benötigtes Projektionsverhältnis von 2,6:1 für 4:3 bzw. 2,15:1 für 16:10. Damit bräuchten wir dann auch kein kaum zu bekommendes Spezialobjektiv. Und, juhu, ein passendes Standgerüst steht auch in Aussicht.

Beitrag von Ingmar Jännsch