Kann ich KI-generierte Bilder präzise mit weiteren Details füllen für hochaufgelöste Ergebnisse?

Werkzeuge

Midjourney Stable Diffusion + ControlNet + Inpainting

Prozess

01 Export Glyphe als Kachel
02 Promptdesign
03Generation des Basisbildes mit Stable Diffusion + ControlNet
04 Inpaint Generation + Maske Punzen in img2img Inpaint mit verschiedenen Masken mit neuen Details füllen. Experimentieren mit den verschiedenen Inpaint Füllmethoden
05 Export & ControlNet Tile-Upscale für höheren Detailgrad

Prompt & Settings

[…] Negative prompt: body, face, worst quality, low quality, normal quality, lowres, ugly, watermark, qr code, cropped, cut of, childish, messy, sketch, amateur, low-res, ugly, deformed, mangled, (disproportional,:1.1) (text:1.1), (signature:1.1) Steps: 30, Sampler: Euler a, CFG scale: 10, Seed: 4177330020, Size: 1024x1024, Model hash: 4199bcdd14, Model: revAnimated_v122, Denoising strength: 0.75, Clip skip: 2, Mask blur: 2, Version: v1.3.0

Learnings

Durch verschiedene Masken werden dem Ausgangsobjekt im Inpaint (+ Mask) Verfahren in drei Schritten Details hinzugefügt. Die entstandenen Details wären mit einem einzigen Prompt oder über die direkte Bildgenerierung so nicht möglich gewesen. Durch das Zerlegen der Punzen des Buchstaben in Masken und das schrittweise generieren der Details mit unterschiedlichen Prompts konnte der Output sehr gut gesteuert werden. Wie bei fast allen Tests bisher, sind die Settings auch hier nicht intuitiv durchschaubar. Erst durch etliche Experimente entwickelt sich ein Gespür für die Auswirkung der Funktionen. Sobald das Gespür entwickelt ist, gibt einem dieser Workflow jedoch eine gute Kontrolle.

back