Siggraph 2019: Frisch gebackenes Brot, Algo-Würfelköpfe, realistische CGI-Pasta und Style Transfer für Rauch

Hier der Trailer zu den Papers, die auf der CGI/FX-Konferenz Siggraph eingereicht wurden, auf der Wissenschaftler aus den Computer-Sciences jährlich die neuesten Technologien für die Simulation von Zeugs vorstellen. Die Algos und Technologien aus den Papers hier sieht man dann in den kommenden Monaten und Jahren als Effekte in Filmen und Games oder als Filter in gängigen Bildbearbeitungs-Softwares. Kleine Beobachtung am Rande: Mindestens die Hälfte aller Papers beinhaltet mittlerweile den Einsatz künstlicher Intelligenz, die Technologie rollt das Feld der professionellen Animation komplett auf.

Einen Überblick über die eingereichten Papers findet man auf der Website von Ke-Sen Huang, hier ein paar Favs inklusive realistischerer Physik für das Rendering von gebackenem Brot, Interaktion von Spaghetti mit Pasta-Soße, Style Transfer für seltsameren Rauch und algorithmische Würfelköpfe:

⬛️ Cubic Stylization:

We present a 3D stylization algorithm that can turn an input shape into the style of a cube while maintaining the content of the original shape.

The key insight is that cubic style sculptures can be captured by the as-rigid- as-possible energy with an l1-regularization on rotated surface normals. Minimizing this energy naturally leads to a detail-preserving, cubic geometry. Our optimization can be solved efficiently without any mesh surgery. Our method serves as a non-realistic modeling tool where one can incorporate many artistic controls to create stylized geometries.

🍪 A Thermomechanical Material Point Method for Baking and Cooking: „We present a Material Point Method for visual simulation of baking breads, cookies, pancakes and similar materials that consist of dough or batter (mixtures of water, flour, eggs, fat, sugar and leavening agents).“

🌅 Animating Landscape: Self-Supervised Learning of Decoupled Motion and Appearance for Single-Image Video Synthesis

🦠 A Multi-Scale Model for Coupling Strands with Shear-Dependent Liquid: „We propose a framework for simulating the complex dynamics of strands interacting with compressible, shear-dependent liquids, such as oil paint, mud, cream, melted chocolate, and pasta sauce.“

🎬 Algorithmus zur automatischen Restaurierung alter Filme und deren Colorierung: DeepRemaster: Temporal Source-Reference Attention Networks for Comprehensive Video Enhancement.

👨 Computational LEGO Technic Design: „We introduce a fully automatic method to compute LEGO Technic designs (c & d) that resemble user input sketches, which may be annotated with joint rotations (bottom-left). The designs are built by coherently-connected LEGO Technic bricks (b) that respect the symmetry and structural integrity of the models, as well as the dynamics implied at the specified joints, while aiming for minimalistic layouts.“

🌋 Transport-Based Neural Style Transfer for Smoke Simulations: „In this paper, we propose the first Transport-based Neural Style Transfer (TNST) algorithm for volumetric smoke data. Our method is able to transfer features from natural images to smoke simulations, enabling general content-aware manipulations ranging from simple patterns to intricate motifs.“

👩 Disney mit einer neuen Methode für realistischere Lippenbewegungen bei Synchronisationen. Demnächst also Mandalorian auf Disney+ in 130 Sprachen in sich minimal in den Lippenbewegungen unterscheidenden Versionen. Goodnight, Purists. Neural Style-Preserving Visual Dubbing.

Dubbing is a technique for translating video content from one language to another. However, state-of-the-art visual dubbing techniques directly copy facial expressions from source to target actors without considering identity-specifc idiosyncrasies such as a unique type of smile. We present a style-preserving visual dubbing approach from single video inputs, which maintains the signature style of target actors when modifying facial expressions, including mouth motions, to match foreign languages.

🦑 SoftCon: Simulation and Control of Soft-Bodied Animals with Biomimetic Actuators

👁 Realistischere Augenbewegungen inklusive Simulation der Kontraktion der Iris durch einen Raytracer (!): Biomimetic Eye Modeling & Deep Neuromuscular Oculomotor Control.

We present a novel, biomimetic model of the eye for realistic virtual human animation.We also introduce a deep learning approach to oculomotor control that is compatible with our biomechanical eye model. Our eye model consists of the following functional components: (i) submodels of the 6 extraocular muscles that actuate realistic eye movements, (ii) an iris submodel, actuated by pupillary muscles, that accommodates to incoming light intensity, (iii) a corneal submodel and a deformable, ciliary-muscle-actuated lens submodel, which refract incoming light rays for focal accommodation, and (iv) a retina with a multitude of photoreceptors arranged in a biomimetic, foveated distribution.

Jetzt Nerdcore unterstützen!

Nerdcore veröffentlicht seit mehr als 12 Jahren Analysen und Dokumentationen zu Memetik, Netz-Soziologie und digitalen Subkulturen, garniert mit jeder Menge Kunst, Entertainment und Unfug. Nerdcore prägte die deutsche Netzkultur maßgeblich, initiierte die erste deutsche Meme, ging Frau Merkel mit Flashmobs auf die Nerven und manche Menschen behaupten, ich würde ab und zu gute Arbeit abliefern.

Die Website ist seit 2017 werbefrei und wird aus Spenden und Abonnements finanziert. Um den Betrieb der Seite und meine Vollzeitstelle zu sichern, könnt ihr gerne ein Abonnement auf Patreon oder Steady abschließen oder mir eine einmalige Spende oder einen Dauerauftrag per Paypal oder auf mein Konto (IBAN DE05100100100921631121) zukommen lassen.

Vielen Dank an alle Leser und Unterstützer dieses Blogs.

Neu auf Nerdcore:

Nerdcore auf Twitter

We suck poor Blood

AI-Lego-Sortier-Maschine aus 10000 Lego-Steinen

Banksys Streetart for the Homeless of Birmingham

Ghostbusters: Afterlife – Trailer

JETZT NERDCORE UNTERSTÜTZEN!