Wie präzise kann ich das Ergebnis steuern wenn ich Stable Diffusion + Multi-ControlNet nutze?

Werkzeuge

Pen + Paper Adobe Illustrator Stable Diffusion + ControlNet

Prozess

01 Zeichnen des Buchstaben auf Papier
02 Vektorisieren in Illustrator
03 Glyphe als Kachel exportieren für ControlNet
04 Einrichten des Multi-ControlNet mit bis zu drei Ebenen
05 Experimentieren mit ver­schiedenen Preprocessor Kombinationen
06 Export & Upscale

Prompt & Settings

3D rendering of building blocks on (plain blue background:1.5), lego bricks, (colorful:1.5), octane render, 3D render, soft light, soft shadows, studio lighting, clean, crisp, graphic design, graphic art style, (bright colors:1.5), (high contrast:1.2) Negative prompt: (shadows:1.5), (hard light:1.2), underexposed, bad lighting, distorted, jagged lines, (blur:1.5), blurry, worst quality, low quality, normal quality, lowres, ugly, watermark, qr code, cropped, cut of, childish, messy, sketch, amateur, low-res, ugly, deformed, mangled, disproportional, (text:1.5)

Learnings

Je nach Preprocessor Art und Stärke lässt sich der Output zu einem gewissen Grad steuern. Der Canny Preprocessor beispielsweise bildet einen guten Hebel, um die Form und Komposition des Input Images deutlich zu übernehmen. Durch den Depth Preprocessor lässt sich je nach Motiv sowohl die Form gut übernehmen, wie auch Punzen herausarbeiten, da das System durch die errechnete Tiefeninformation weiß, wo Fläche und wo „Leerraum“ bzw. Hintergrund ist. Durch den Scribble, Softedge oder LineArt Preprocessor lassen sich gut Details zu einer Form hinzufügen. Bei einer niedrigen Resolution entstehen diese etwas freier und entfernter, bei einer hohen Resolution schärfer und näher am Input Bild. Grundsätzlich lassen sich Form und Komposition des Bildes gut bestimmen. Das Ergebniss ist grob vorhersehbar, jedoch in vielen Facetten nicht steuerbar. Besonders die Farbigkeit, Schattenwurf und Richtung des Lichtes sind schwer vorherzusagen.

back