Kann eine 3D Animation durch KI neu texturiert zu etwas neuem umgewandeltwerden?

Werkzeuge

Blender Runway ML Adobe After Effects

Prozess

01 Modellieren der Glyphe als 3D Modell
02 Erstellen der Animation per Cloth Simulation
03 Export der Animation mit simpler farbiger Textur sowie als farbloses Clay-Rendering
04 Upload in RunwayML
05 Verschiedene Looks entwickeln durch Testing mit Imageprompts, Textprompts und Presets
06 Export & Upscale

Prompt & Settings

Siehe links: v1 - Text Prompt v2 - Image Prompt v3 - Image Prompt v4 - Image Prompt

Learnings

Die Stilisierung mit RunwayML funktioniert überrraschen gut und liefert flackerfreie und ausreichend konsistene Ergebnisse. Die Vorarbeit im 3D Programm erfordert zwar einiges an manueller Arbeit, die schnelle Umwandlung und Retexturierung in verschiedenen Stilen ist jedoch um einiges schneller als das manuelle Texturieren im 3D Programm. Je nach Einstellung können die Frames auch soweit abweichen, dass hier in diesem Fall ein etwas andere Look der Simulation selbst entsteht. Spannend ist auch hier wieder der explorative Faktor, der beispielsweise durch verschiedene Input Bilder oder Prompts entsteht. Die Ergebnisse sind nicht immer vorhersehbar, jedoch bringen sie das Ergebnis doch merklich in das Farbschema oder die Anmutung des Inputs.

back