Wie wirken sich verschiedene ControlNet Models in Stable Diffusion auf unterschiedliche Glyphenformen aus?

Werkzeuge

Stift + Papier Adobe Illustrator Stable Diffusion + ControlNet

Prozess

01 Sketchen der Buchstaben
02 Vektorisieren
03 Upload in ControlNet (SD img2img)
04 Promptdesign
05 Generierung der Bilder: Hier wurden jeweils drei verschiedene Glyphenformen durch drei unterschiedliche ControlNet Präprozessoren (Canny, Depth, Scribble) analysiert. Die Präprozessoren hatten hierbei vergleichbare Einstellungen
06 Export und Upscale

Prompt & Settings

3D rendering of a (white marble:1.5) sculpture against (simple white background:1.5), intricate marble texture, 3D render, octane render, high quality, ultradetailed, artistic, studio lighting, 8k, high resolution Negative prompt: (color:1.5), colorful, (grey background:1.2), underexposed, bad lighting, distorted, jagged lines, (blur:1.5), blurry, worst quality, low quality, normal quality, lowres, ugly, watermark, qr code, cropped, cut of, childish, messy, sketch, amateur, low-res, ugly, deformed, mangled, disproportional Steps: 45, Sampler: Euler a, CFG scale: 7, Seed: 3457568189, Size: 512x512, Model hash: 5d5ad06cc2, Model: mdjrny-v4, Clip skip: 2, ControlNet 0: „preprocessor: canny, model: controlnet11Models_canny [b18e0966], weight: 1, starting/ending: (0, 1), resize mode: Crop and Resize, pixel perfect: False, control mode: Balanced, preprocessor params: (512, 100, 200)“, Version: v1.3.0

Learnings

Jeder Preprocessor interpretiert die aufgenommenen Formen anders. Je nach Detailgrad und Filigranität des Inputs muss eine passende Kombination aus Preprocessor und zugehöriger Resolution getroffen werden, um ein gewünschten Look zu erreichen. Schwierig war es geschlossene und offene Punzen zuverlässig zu generieren. Außerdem wurden die zweidimensionalen Buchstaben of dreidimensional verwoben, ohne dass man Kontrolle über die Tiefenebene hat.

back