top of page

Die Hürden der Virtual Production

Schneller, einfacher, günstiger: Seit Jahren versprechen Studios dank LED-Walls eine Arbeitsweise vor digitaler Kulisse, die in Echtzeit den Bedürfnissen der Regie und des DPs angepasst werden kann und die Postproduktion überflüssig macht.

Es ist die Zukunft des Filmemachens, wie es Industrial Light & Magic (ILM) in Zusammenarbeit mit Epic Games mit der Erfolgsstory von „The Mandalorian“ gezeigt haben. Ich bin ein großer Fan der neuen Möglichkeiten und freue mich über jedes Projekt, das mit Virtual Reality arbeitet. Ich habe als Kameramann in den vergangenen acht Jahren mit dieser und vergleichbaren Techniken gearbeitet und möchte hier meine Erfahrungen mit euch teilen. Denn am Ende des Tages stehen wir Kamerafrauen und -männer im Studio vor dem virtuellen Hintergrund und sollten wissen, wo man mit dieser Technik an Grenzen stößt.


Seit der Veröffentlichung des Blogeintrags am 25.03.22 ist viel passiert. Neue Projekte, aber auch neue Entwicklungen sowie unzählige Gespräche mit Arbeitskollegen, DPs und VPTDs (Virtual Production Technical Directors) haben mich nun dazu veranlasst, Inhalte im Artikel zu ergänzen und manche Stellen zu präzisieren. Viel Spaß beim Lesen.



Was steckt wirklich hinter der Technik?


Die LED-Wall kann der Produktion durchaus viel Geld einsparen, das hängt aber enorm davon ab, was gedreht werden soll und wie groß die Produktion ist. „The Mandalorian“ hatte ein Budget von 100 Millionen Dollar. Da ich nicht weiß, wie viel Geld es gekostet hätte, die Serie herkömmlich zu drehen, ist es schwer zu sagen, ob Disney hier Geld gespart hat. Sicher ist, dass es eine gute Investition in die Zukunft darstellt. Mehrere Seasons und andere Filme nutzen dieses LED-Studio, entwickeln die Technik weiter und das Know-How wächst. Auf lange Sicht lässt sich so sicherlich viel Geld sparen.



Ist Virtual Reality die Zukunft des Filmemachens?


Nein, ich glaube nicht, dass jemals ein kompletter Tatort vor einer LED-Wall gedreht werden wird. Oder wir den Bauernhof lieber am Computer generieren als aufs Land zu fahren und on Location zu drehen. Aber es gibt viele Gründe, dieser Technik eine Chance zu geben.


Bereits 2015 wurde ich als DP von einer Produktion beauftragt, eine LED-Wall-Lösung für die Umsetzung der Serie "Capelli Code" zu finden. Während zwei Jahren haben ich mit einem Team von kreativen Köpfen getestet, was das Zeug hält. Darunter auch die LED-Wall von AOTO, die Jahre später bei Matt Reeves' "The Batman" zum Einsatz kam. Doch wir kamen zum Schluss, dass die LED-Wall nicht unseren Anforderungen entspricht und haben stattdessen auf eine innovative Rückprojektionslösung mit dem Flex-Glass von Screen Innovations gesetzt.


Links: Filmstill Capelli Code. Rechts: Aufbau im Studio mit einer 10m Flex Glass Screen.



Seither ist viel Zeit vergangen. Die Unreal Engine 5 ist erschienen und bietet nun realistischere Echtzeit-Render-Hintergründe als damals und würde heute sicherlich dazu führen, dass wir mehr Sets nur noch digital umsetzen. Es gab aber auch auf Seiten der Tracking-, Rotoscoping- und Greenscreen-Verarbeitung große Entwicklungsschritte in den vergangenen Jahren, welche den Gebrauch von Greenscreen erleichtern.


Diese großen innovativen Schritte vermisse ich bei der LED-Wall. Die LED-Panels wurden ursprünglich für Präsentationen auf Messen und als Werbefläche konzipiert und nicht für den Gebrauch als Screen für virtuelle Hintergründe im Filmstudio. Das merkt man, wenn man länger damit arbeitet, und leider bestehen die Probleme, welche wir bereits 2015 mit der LED-Wall hatten, auch heute noch.



Was für Probleme und Limitierungen hat die Technik?


Ein Hauptproblem – in meinen Augen – ist der unglaubliche Hype um die neue Technik. Es ist tatsächlich ein innovatives Tool für uns Filmemacherinnen und -macher, und ich bin grundsätzlich ein großer Fan der Technik. Gerade weil ich mittlerweile das Know-How habe und mit den Limitierungen umgehen kann, weiß ich aber, dass man der Promotion der LED-Wall durch Studios und Hersteller mit der nötigen Skepsis begegnen sollte.



Die LED-Wall und die Unreal Engine bieten jegliche kreative Freiheit am Set.


Das ist wohl der Wunschtraum der Regie und DPs. Es ist das Versprechen vieler LED-Studios, und auch wenn es theoretisch möglich wäre, durch Real-Time-Rendering Teile oder sogar den ganzen Hintergrund am Drehtag zu ändern, so ist es in der Praxis keine wirkliche Option. Die Unreal Engine ist in erster Linie eine Game Engine und nicht für die Virtual Production konzipiert worden. Sie läuft nur zuverlässig, wenn alle Assets, alle Shader und Parameter für die Rechner im Studio optimiert wurden. Wenn es auf einem Computer in der VFX Firma flüssig läuft, ist es noch lange keine Garantie dafür, dass dies auch im VP Studio der Fall ist. Das von der UE zur Verfügung gestellte Plugin nDisplay sorgt dafür, dass die Datenverarbeitung auf mehrere Computer und ihre Grafikkarten aufgeteilt wird. Meistens müssen die Files für nDisplay optimiert werden und sollten deshalb zwingend lange vor dem Dreh im Studio getestet werden.


Zusammen mit dem Trackingsystem, das sich von Studio zu Studio unterscheidet, dem zwingend notwendigen Genlocken der Kamera um keine bösen Artefakte zu erhalten, der Anpassung des Frustums auf Objektiv und Kamerabewegung,… ist der Reibungslose Betrieb eines VP-Studios eine hoch komplexe Sache, die nicht mit dem öffnen eines UE Files am eigenen Computer verglichen werden kann.


Darum setzt euch bei der Produktionsfirma für das Studio ein und gebt dem Virtual Production Supervisor und seinem Team genügend Zeit für die Vorbereitung und Optimierung des Projekts. Das heißt auch, dass am Drehtag keine neuen 3D Assets gebracht und auch keine neuen Levels oder Projektfiles geöffnet werden dürfen. Hört auf die Studio-Crew, sonst fällt der Dreh am Ende ins Wasser und dann sind die +30.000,00 € (Preis HALOSTAGE 2022) am Tag für das Studio eure geringste Sorge.


Die guten Studios beraten und unterstützen uns DPs meist kostenlos in der Vorbereitungszeit. Scheut nicht davor zurück lieber einmal mehr eine Frage zu stellen, erst recht, wenn ihr zum ersten Mal mit ICVFX (In-Camera Visual Effects) arbeitet. Sie sind genauso wie wir an einem guten Endresultat interessiert.



Die LED-Wall sorgt für realistisches, besseres Licht auf den Schauspielern.


Die LED-Walls bilden nicht nur den Hintergrund. Sie können auch an die Decke montiert werden und so die ganze Szenerie beleuchten. Man kann dann mit einem Klick von einer Tages-Szene zu einer Nacht-Szene wechseln, ohne Lampen umzubauen.


Die einzelnen LED-Panels lassen sich noch nicht biegen (Die Halo Stage arbeitet jedoch an einem biegbaren Panel). So bekommt man einen Treppeneffekt in den Kurven. Der ist zum Glück bei der laufenden LED-Wall kaum zu erkennen, aber er ist immer noch vorhanden.


Halo Stage in Berlin. Foto: Tom Keller






Tatsächlich reflektiert die LED-Wall das Licht auf die Requisiten, Kostüme und die Schauspieler, was unglaublich hilfreich sein kann. Bei der glänzenden, silbernen Rüstung des Mandalorian, die man vor einem Greenscreen nur umständlich hätte drehen können, ist dies ein Must-have. Zudem weiß jeder, der bereits Greenscreen gedreht hat, wie wichtig es ist, die richtige Lichtstimmung herzustellen. Mit den LED-Walls ist das sehr einfach. Vorausgesetzt, das Studio weiß, was es tut, und pflegt die Wand. Denn es kommt immer wieder zu toten oder defekten LEDs. Wie bei jeder anderen LED-Einheit verbrennt jede einzelne Diode im Laufe der Zeit, verliert an Leuchtkraft und verfärbt sich. AOTO justiert die LED-Panels nach 3 Jahren, und die HALO STAGE hat, nach eigenen Angaben, dafür extra Ersatz-LEDs, die denselben Brennstunden ausgesetzt werden, um defekte Einheiten spurlos zu ersetzen. Ein unglaublicher, aber notwendiger Aufwand, um ein homogenes Bild und eine hohe Qualität gewährleisten zu können. Am Ende sind die meisten LED-Panels nach etwa 10 Jahren unbrauchbar und müssen komplett ersetzt werden.



Wie steht es um die Lichtqualität?


Bleiben wir bei den LEDs. Diese sind leider nicht das, was sich ein DP wünscht, um zu leuchten. Es handelt sich um einfache RGB-Lichter mit miserabler Farbqualität. Das resultiert daraus, dass die LED-Panels aus dem Messe- und Werbebereich stammen und für das menschliche Auge produziert wurden. Um hier intensive Farben darstellen zu können, wählt man gezielt LEDs aus, die ein möglichst schmales Spektrum und ein großes Gamut besitzen.



Die fehlende Emission zwischen den Peaks wird jedoch für einen Kamerasensor zum Problem. Professionelle Filmlampen-Hersteller wie ARRI, Kinoflo oder Dedolight bauen zusätzliche White Dioden in ihre RGBWW-Lampen ein, um das Farbspektrum ihrer Lampen zu verbessern. Doch eine LED-Wall auf Kinoflo Mimic VR Qualität könnte sich im Moment niemand leisten.


Deshalb sollte man noch einmal in sich gehen und sich fragen, warum man bei sonstigen Drehs nur auf anerkannte Marken setzt und keine billigen Kopien aus China verwendet, aber jetzt eine Ausnahme im teuren LED-Studio machen soll.


Alle Messungen wurden mit größter Sorgfalt mit dem Sekonic Color-Meter C-800 durchgeführt, abweichende Messungen unter anderen Konditionen sind möglich.





Der Farbwiedergabeindex (CRI) beschreibt die Farbwiedergabe einer künstlichen Lichtquelle – in diesem Fall der LED-Wall – verglichen mit Sonnenlicht. Der Maximalwert liegt bei 100 Ra und bedeutet, dass es für unser Auge keinerlei Farbverfälschungen durch das Licht gibt. Für den Heimgebrauch wird allgemein ein Ra-Wert von 80+ empfohlen. Ein Ra-Wert von unter 50 gilt als ungenügend.


Der Ra-Wert berücksichtigt jedoch nur die Pastellfarben von R1 - R8. Die Volltonfarben von R9 - R15 werden nicht berücksichtigt. Mittlerweile weisen viele Consumer-Lampen gute, gefälschte Ra-Werte auf, weil die Hersteller dafür sorgen, dass genau diese Pastellfarben in der CRI-Messung sauber wiedergegeben werden können. Darum ist es wichtig, auch die Volltonfarben und den Extra für die Kamerasensoren und LED-Lampen entwickelten SSI (Spectral Similarity Index) zu berücksichtigen. Da mich vor allem die R9 (starkes Rot), R13 (helles, gelbliches Pink) und R15 (asiatischer Hautton) Werte interessieren, messe ich auch heute noch den CRI-Wert. Wenn dieser schlecht ist, bringt auch ein hoher SSI-Wert nichts, und wenn dieser gut ist, überprüfe ich die Messung mit dem SSI.


Wenn CRI- oder SSI-Werte schlecht sind, wie das grundsätzlich bei LED-Walls der Fall ist, bekommt man ohne zusätzliches Licht keine farbechten Aufnahmen von Kostümen, Requisiten und Hauttönen hin. Man muss sich also früh mit dieser Limitierung auseinandersetzen und einen entsprechenden Look suchen. Die Palette ist limitiert, und die fehlenden Farben lassen sich auch in der Postproduktion nicht wiederherstellen. Auch beim Abfilmen der LED-Wall selbst kommt man um eine Farbkorrektur nicht herum. So müssen die LEDs an den jeweiligen Kamerasensor angepasst werden, dies ist grundsätzlich ohne große Probleme möglich, und gute Studios schaffen es, dies für jeden Kameratypen zu realisieren, solange die Farbverschiebung durch den Blickwinkel nicht zu groß ist.


Die Farbverschiebung durch den Blickwinkel wird bei den Panels an der Decke am stärksten Sichtbar. Diese meist sogar weniger hochwertigen Panels lassen sich nicht an die LED-Wall angleichen. Ich behaupte, dass es deshalb kein Zufall ist, dass in den Making-of-Aufnahmen aus "The Mandalorian" bei den Decken-Panels kein Himmel eingeblendet ist. Die Farbdifferenz und die falsche Perspektive würden das Ganze einfach schlecht aussehen lassen.



Screenshots aus: Why 'The Mandalorian' Uses Virtual Sets Over Green Screen | Movies Insider https://www.youtube.com/watch?v=Ufp8weYYDE8



Kommt ein LED-Studio-Dreh ohne Filmlicht aus?


Wie wir ja bereits festgestellt haben, ist die Farbqualität zu schlecht. Ich hatte aber auch schon ein Regisseur, der er könnte jede Situation einfach über die Unreal Engine und die LED-Wall beleuchten. Er hat nicht verstanden, dass diese nur weiches Licht abgeben kann. Also selbst wenn sich im Hintergrund eine Sonne auf der Leinwand befindet, braucht es eine zusätzliche, harte Lichtquelle, die den Vordergrund beleuchtet um ein realistisches Resultat zu bekommen.


Bei den meisten LED-Walls lassen sich die einzelnen Panels ausbauen, sodass man sogar mit einer Lampe durch die Wand hindurchleuchten kann, und das dauert beim System der HALO STAGE tatsächlich nur ein paar Sekunden.



Wie steht es um den Weiß- / Schwarzwert?


Anfangs wurde argumentiert, dass sich die einzelnen Dioden der LED-Wall komplett ausschalten lassen und somit an diesem Ort ein reines Schwarz zu sehen ist. Doch da jedes LED mit einem weißen Diffusor überzogen ist, um das Licht zu streuen, besteht die ansonsten schwarze Wand aus lauter weißen Punkten, die das Umgebungslicht reflektieren. Tatsächlich besitzt eine moderne Rückprojektionswand einen viel besseren Schwarzwert.


Halo Stage in Berlin. Foto: Tom Keller






Auf diesen Bildern ist die LED-Wall komplett ausgeschaltet. Die Decken-Panels beleuchten das Set und leider auch die LED-Wall. Im Vergleich zum Schwarz des Autos wirkt die LED-Wall hellgrau. Ein Argument für die LED-Wall gegenüber einer Rückprojektion ist, dass sie dafür einen helleren Weiß-Wert aufweist. Um Artefakte wie Scanlines zu verringern, sollte man die LEDs auch möglichst auf voller Helligkeit laufen lassen. Man bemerkt dann aber schnell, dass entgegen der allgemeinen Annahme auch LEDs Hitze erzeugen können und in der Menge ist die nicht ohne.


Wann immer möglich, sollte man auf dunkelschwarze Kostüme und Requisiten verzichten und Schatten im Vordergrund aufhellen, um sie später in der Postproduktion wieder herunter zu ziehen.


Das scheint für eine große Disney-Produktion kein Problem zu sein, da sie sowieso jedes Kostüm und alle Requisiten extra herstellen lassen oder mit Masken gezielt die Schwärzen im Hintergrund in der Postproduktion wieder abdunkeln können. In den meisten Fällen wird der problematische Hintergrund in der Postproduktion sowieso einfach komplett ersetzt. Neben dem Schwarzwert ist auch der Pixel Pitch oft ein Grund.



Was ist ein PIXEL PITCH?


Der Pixel Pitch ist der Abstand zwischen den einzelnen Pixeln auf der Leinwand. Nehmen wir den Abstand von 2,86 mm zwischen den Dioden, wie es bei "The Mandalorian" der Fall war. Dann sind die Pixel mehr als 50-mal weiter auseinander als bei einem iPhone 13 Pro. Wieso spielt das eine Rolle? Tatsächlich kann es je nachdem, was man vorhat, vernachlässigt werden. Zum Beispiel, wenn man die Leinwand durchgehend unscharf abfilmt. Wenn man die Schärfe jedoch von der realen Ebene in die virtuelle Projektionsebene ziehen will, bekommt man unweigerlich Moiré-Effekte.


Das passiert dann, wenn weniger Dioden abgefilmt werden, als die Kamera Pixel hat. Das Problem wird mit höherer Auflösung der Kamera also noch schlimmer. Wir haben bereits 2015 einen 1,2-mm-Pixel Pitch getestet, dabei trat der Moiré-Effekt deutlich später und schwächer auf. Diese Panels waren schon damals und sind noch heute unglaublich teuer. Das dürfte auch der Grund sein, weshalb viele LED-Walls einen viel größeren Pixel Pitch aufweisen, als es heute möglich wäre.


Links: LED-Wall mit 7mm Pixel Pitch. Rechts LED-Wall mit 1.2mm Pixel Pitch / Bilder: Tom Keller





Am Ende reicht selbst ein 1,2-mm-Pixel Pitch nicht aus. Ich vermute, dass sich aus diesem Grund das Problem des Pixel Pitches noch lange halten wird.


Ein kleiner Hinweis am Rande: Selbst wenn man den Hintergrund komplett unscharf lässt, kann der Moiré-Effekt in einer Spiegelung auftreten. Da die Studios meist aus Kostengründen LED-Walls mit einem höheren Pixel Pitch verwenden, trat bei mir ein Moiré-Effekt in der Spiegelung auf der Autoscheibe aufgrund der Decken-Panels auf. Dies lässt sich beheben, indem man entweder die LED-Wall weiter vom Objekt entfernt oder die LED-Wall an der Decke mit einem Diffusor (z. B. WD-Folie oder Grid) bespannt, damit die einzelnen Pixel nicht mehr sichtbar sind.



Wie lässt sich die Realität mit der virtuellen Welt verbinden?


Egal, ob man nun die teure LED-Wall oder eine günstigere moderne Rückprojektion verwendet, sobald man die Schauspieler vom Hintergrund trennt, indem sie sich zum Beispiel in einem Haus, einem Auto oder auf einem Boot befinden und kein Übergang zum virtuellen Raum im Frame sichtbar ist, ermöglicht die Technik tatsächlich eine unglaublich schnelle Arbeitsweise. Kleine Details wie eine Spiegelung auf dem Autolack oder Spill von der Leinwand auf den Schauspieler bringen zusätzlichen Realismus, und für die meisten dieser Aufnahmen ist tatsächlich keine Postproduktion mehr nötig.


Links: Filmstill mit Spiegelung der Leinwand. Rechts: Aufbau im Studio mit einem 4m Flex Glass Screen.



Zudem bietet die Technik mehr kreative Freiheit als beispielsweise eine Fahrt mit einem Tieflader auf der Straße. Man ist auch komplett wetterunabhängig und kann einen ganzen Tag mit einer Dämmerungsszene verbringen.


Es ist jedoch eine zeitintensive Herausforderung, Kulissen und Requisiten an die virtuelle Welt auf der LED-Wall anzugleichen. Dank des besseren Farbraums fällt dies bei der Rückprojektion etwas leichter, aber auch hier muss genügend Vorbereitungszeit eingeplant werden. Das Problem wird größer, wenn das virtuelle Set als Lichtquelle genutzt wird.


Da die LED-Wall das Studio-Set beleuchtet, kann man nicht einfach die Farbe des virtuellen Bodens ändern, um ihn an den realen Boden im Studio anzupassen. Der virtuelle Boden ist genauso eine Lichtquelle wie der Rest der Wand, und wenn man die Farbe an der Wand ändert, ändert sich auch die Farbe auf dem Set. Man muss also ununterbrochen daran arbeiten, diese Übergänge anzugleichen. Eine Verlaufsmaske in der UE kann meistens helfen, sollte aber eher die letzte Maßnahme sein. Im schlimmsten Fall muss der Shot in der Postproduktion korrigiert werden. Es überrascht nicht, dass dies häufig gemacht wird. Vergleicht man den Boden auf den BTS-Aufnahmen von "The Mandalorian" und den LED-Wall-Motorradspots weiter unten, erkennt man, dass weder die Schneefläche noch der Waldboden mit dem Hintergrund verschmelzen. Solche Anpassungen müssen in der Postproduktion vorgenommen werden.



Was ist der Virtual Greenscreen?


Die Idee besteht darin, dass nur der Bildausschnitt der Kamera oder sogar nur ein kleiner Bereich hinter den Schauspielern grün ist. Die Aufnahme ist mit Tracking-Markern versehen und dank der homogenen Beleuchtung der Wand. Auf dem Rest der LED-Wall ist in der Regel die Umgebung aus der Unreal Engine in einer niedrigeren Auflösung zu sehen. Das ist tatsächlich eine Möglichkeit, die ich großartig finde. Jeder, der mit Greenscreen gearbeitet hat, weiß, wie wichtig es ist, die grüne Fläche auf das absolute Minimum zu beschränken, um so wenig wie möglich Green Spill zu erhalten.


Links: BTS aus "The Mandalorian" von fxguide.com Rechts: Still aus BTS Video aus "The Mandalorian" Movie Insider.




Durch das Tracking-System der Kamera hat man bereits alle erforderlichen Daten und kann mit nur einem Klick den Hintergrund wieder einfügen. Das könnte man zumindest denken, doch hier kommt schon das nächste Problem und der Grund, weshalb Tracking-Marker projiziert werden müssen.



Wieso funktioniert Live-Tracking nicht wirklich?


Das Problem besteht bei jedem Tracking System, selbst dem teuersten, zumindest im Moment. Denn das Tracking-System, die Unreal Engine und weitere Komponenten sorgen für eine Verzögerung, die von wenigen Frames bis zu einer halben Sekunde dauern kann. Wenn ich also einen Schwenk mit der getrackten Kamera beginne, dauert es eine halbe Sekunde, bis sich auch der Hintergrund auf der LED-Wall entsprechend bewegt. Die Parallaxe funktioniert also nicht, und man kann - wenn überhaupt - nur in eine Bewegung hinein schneiden. Das ist ein ernsthaftes Problem, das zwar in der Postproduktion behoben werden kann, wie übrigens auch der Moiré-Effekt, aber es verdeutlicht genau eine Sache:


Mit der LED-Wall spart man sich nicht zwingend die Postproduktion. Und wenn man sich anschaut, was in den letzten Jahren im Bereich des Trackings und Keyings passiert ist, stellt sich natürlich die Frage, ob eine LED-Wall einem herkömmlichen Greenscreen vorzuziehen ist. Auf den ersten Blick mag ein Greenscreen-Shot vielleicht günstiger erscheinen, aber um in der Postproduktion auch nur annähernd ein so gutes Ergebnis zu erzielen wie mit der LED-Wall, muss man tief in die Tasche greifen.



Hat man im Studio nicht den besseren, reinen Ton?


Als Kameramann gerate ich oft selbst in die Falle und denke zu wenig über den Ton nach. Daher ist hier zum Schluss ein sehr wichtiger Punkt, über den selten gesprochen wird: Echter Ton im LED-Studio ist ein Problem. Die Lüfter der LED-Panels sind deutlich zu hören. Aber noch schlimmer ist die durch die Wand vorhandene Akustik. In manchen Fällen wird man also um eine Nachsynchronisierung nicht herumkommen. Das Problem wird weniger schlimm, je kleiner die LED-Wall ist, aber man sollte sich unbedingt vorher mit dem Tontechniker die Situation anschauen.



Fazit:

Die neue LED-Wall-Technik und die Virtual Production als solche stecken noch in den Kinderschuhen und werden es noch eine ganze Weile bleiben. Wer jedoch wie ich einen Drang verspürt, neue Wege zu gehen und sich von diesen "Problemen" nicht abschrecken lässt, wird eine neue Welt unglaublicher Möglichkeiten und vielleicht sogar einer neuen Filmsprache entdecken.


Links: Aufbau im Studio mit einem kleinen 4m Flex Glass Screen. Rechts: Das Resultat in der Kamera.






Die schlechten LED-Studios, die nur am schnellen Geld interessiert sind, werden sich in den kommenden Jahren nicht halten können und wieder von der Bildfläche verschwinden. Dagegen werden diejenigen bleiben, die nicht nur die besten Preise machen, sondern auch ehrlich mit ihren Kunden umgehen. Hier sind einige Studios, die ich empfehlen kann:



England:

ARRI STAGE LONDON https://www.arri.com/

MARS VOLUME https://marsvolume.com/ (keine persönliche Erfahrung aber viel Gutes gehört)


Deutschland:

HALO STAGE https://www.halostage.studio/

LEDCAVE https://www.ledcave.de/ (keine persönliche Erfahrung aber viel Gutes gehört)



DANKE FÜRS LESEN und besonderen Dank für die Zusammenarbeit: Adrian Weber (VPTD), Lauritz Raisch(VPTD), Marlon Candeloro(VPTD),


NEWS:

In einem nächsten Blogeintrag werde ich über meine Rolle als Kameramann in der Vorproduktion des Kinospielfilms "Lili (A.T)" von Thomas Imbach schreiben. Es wird der erste Schweizer Kinofilm sein, der komplett mit ICVFX (In-Camera Visual Effects) gedreht wird. Es wird um die Tools und Plugins gehen, die wir bereits in der Unreal Engine nutzen können, um eine Bildsprache zu entwickeln, den Film detailliert aufzulösen und die Szenen einzuleuchten, sowie die unzähligen Tests, Höhen und Tiefen, die wir während der Produktion erlebt haben.


bottom of page