Technologische Neuigkeiten, Bewertungen und Tipps!

ControlNet hilft Ihnen, perfekte Hände mit stabiler Diffusion zu schaffen 1.5

Hinweis: Der folgende Artikel hilft Ihnen dabei: ControlNet hilft Ihnen, perfekte Hände mit stabiler Diffusion zu schaffen 1.5

Das Einzige, womit Text-zu-Bild-KI-Generatoren zu kämpfen haben, sind die Hände. Während die Bilder im Allgemeinen beeindruckend sind, sind es die Hände weniger, mit überflüssigen Fingern, seltsam gebogenen Gelenken und einem offensichtlichen Mangel an Verständnis seitens der KI dafür, wie Hände aussehen sollen. Dies muss jedoch nicht der Fall sein, da das neue ControlNet-Produkt Stable Diffusion dabei unterstützen soll, perfekte, realistisch aussehende Hände zu erstellen.

ControlNet ist eine neue Technologie, die es Ihnen ermöglicht, eine Skizze, einen Umriss, eine Tiefenkarte oder eine Normalkarte zur Führung von Neuronen basierend auf Stable Diffusion 1.5 zu verwenden. Das bedeutet, dass Sie jetzt jedes 1,5-Zoll-Custom-Modell nahezu perfekt in den Händen halten können, solange Sie die richtige Anleitung haben. ControlNet kann als revolutionäres Tool betrachtet werden, das Benutzern die ultimative Kontrolle über ihre Designs ermöglicht.

Um makellose Hände zu erzielen, verwenden Sie die A1111-Erweiterung mit ControlNet, insbesondere das Depth-Modul. Machen Sie dann ein paar Nahaufnahmen Ihrer Hände und laden Sie sie auf die Registerkarte „txt2img“ der ControlNet-Benutzeroberfläche hoch. Erstellen Sie dann eine einfache Aufforderung zur Traumformung, z. B. „Fantasiekunstwerk, Wikingermann zeigt Hände in Großaufnahme“, und experimentieren Sie mit der Leistungsfähigkeit von ControlNet. Das Experimentieren mit dem Depth-Modul, der A1111-Erweiterung und der Registerkarte txt2img der ControlNet-Benutzeroberfläche führt zu schönen und realistisch aussehenden Händen.

ControlNet selbst wandelt das Bild, das ihm gegeben wird, in Tiefe, Normalen oder eine Skizze um, damit es später als Modell verwendet werden kann. Aber natürlich können Sie auch direkt Ihre eigene Tiefenkarte oder Skizzen hochladen. Dies ermöglicht maximale Flexibilität beim Erstellen einer 3D-Szene, sodass Sie sich auf den Stil und die Qualität des endgültigen Bildes konzentrieren können.

Wir empfehlen Ihnen dringend, sich das hervorragende ControlNet-Tutorial anzusehen, das Aitrepreneur kürzlich veröffentlicht hat.

ControlNet verbessert die Kontrolle über die Bild-zu-Bild-Funktionen von Stable Diffusion erheblich

Obwohl Stable Diffusion Bilder aus Text erstellen kann, können damit auch Grafiken aus Vorlagen erstellt werden. Diese Bild-zu-Bild-Pipeline wird häufig verwendet, um generierte Fotos zu verbessern oder mithilfe von Vorlagen neue Bilder von Grund auf zu erstellen.

Während Stable Diffusion 2.0 die Möglichkeit bietet, Tiefendaten aus einem Bild als Vorlage zu verwenden, ist die Kontrolle über diesen Prozess recht eingeschränkt. Dieser Ansatz wird von der früheren Version 1.5 nicht unterstützt, die unter anderem aufgrund der enormen Anzahl an benutzerdefinierten Modellen immer noch häufig verwendet wird.

Die Gewichte jedes Blocks aus Stable Diffusion werden von ControlNet in eine trainierbare Variante und eine gesperrte Variante kopiert. Die blockierte Form behält die Fähigkeiten des produktionsbereiten Diffusionsmodells bei, während die trainierbare Variante durch Feinabstimmung mit winzigen Datensätzen neue Bedingungen für die Bildsynthese erlernen kann.

Stable Diffusion funktioniert mit allen ControlNet-Modellen und bietet deutlich mehr Kontrolle über die generative KI. Das Team stellt Beispiele verschiedener Variationen von Menschen in festen Posen sowie verschiedene Innenaufnahmen bereit, die auf der räumlichen Anordnung des Modells und Variationen von Vogelbildern basieren.

Lesen Sie mehr über KI:

Table of Contents