Technologische Neuigkeiten, Bewertungen und Tipps!

Ich habe die neuen KI-Tools von Adobe ausprobiert: Firefly und Generative Fill. Hier sind einige interessante Erkenntnisse

Der folgende Artikel hilft Ihnen dabei: Ich habe die neuen KI-Tools von Adobe ausprobiert: Firefly und Generative Fill. Hier sind einige interessante Erkenntnisse

Wir haben fast die Hälfte des Jahres 2023 erreicht und eines der präsentesten Themen in Marketing- und Technologiediskussionen ist sicherlich der Aufstieg der KI-Tools, die vor weniger als einem Jahr verfügbar wurden.

Die Dinge haben sich so schnell entwickelt, dass es schwierig ist, auch nur ein paar Adjektive auszuwählen, um diesen Moment zu beschreiben, aber ich bin mir ziemlich sicher, dass „aufregend“ und „beängstigend“ dazu gehören würden.

Als Designer und Illustrator gehört es zu meinen Aufgaben, über die neuesten Verbesserungen in diesem Bereich auf dem Laufenden zu bleiben. Deshalb habe ich vor ein paar Monaten Midjourney ausprobiert.

Ich habe es (oder eine andere generative Bildsoftware wie DALL-E 2 usw.) bisher noch nie in meinem Prozess verwendet, insbesondere nachdem die Künstlergemeinschaft Urheberrechtsprobleme mit der Datenbank dieser Tools und die damit verbundene unethische Verwendung angesprochen hat um Bilder zu beleuchten, die nicht nur Kopien eines menschlichen Künstlerstils sind, sondern tatsächlich Bildteile dieser menschlichen Künstler als Grundlage für die Generierung des KI-Bildes verwendeten.

Ende März machte Adobe einen großen Schritt und betrat das Spiel mit der Einführung eines eigenen KI-Modells: Adobe Firefly. Grundsätzlich handelt es sich bei Firefly um ein generatives KI-Modell, das sich auf Bilder und Texte konzentriert und die bestehende Software (und möglicherweise auch die neue) in der Creative Cloud ergänzt.

Da ist ein Standalone-Version mit einer einfachen Benutzeroberfläche, damit Benutzer einige der Möglichkeiten erkunden können. Und Hier Sie können eine Live-Show sehen, in der Eric Snowden, VP of Design bei Adobe, einige der Konzepte hinter Firefly vorstellt und einige Demonstrationen zeigt, welche Tools es bereits gibt und was als nächstes kommt.

Laut Snowden besteht eines der Hauptziele von Firefly darin, dass es die Bilderstellung und -bearbeitung direkt in Adobe-Software wie Photoshop und Illustrator verbessert.

Mit anderen Worten: Firefly wird das Mittel zum Zweck darstellen und den Produktionsablauf optimieren, indem es Aufgaben realisiert, die heutzutage für einen kreativen Designer viel Zeit in Anspruch nehmen. Letzte Woche, am 23. Mai, machte Adobe einen weiteren Schritt in diese Richtung und stellte die „Generative Füllung“ in einem Beta-Update von Photoshop zur Verfügung.

Als nächstes werde ich einige interessante Erkenntnisse, die Höhen und Tiefen und die wichtigsten Erkenntnisse dieses „ersten Dates“ mit Firefly teilen.

Dies war vielleicht das Hauptthema, das meine Aufmerksamkeit im Hinblick auf Adobes Herangehensweise an KI-Tools erregte. Dem Unternehmen scheint die ethische Generierung von KI-Bildern sehr am Herzen zu liegen. Ein Beweis dafür ist die Verwendung von lizenzierten Adobe Stock-Bildern und urheberrechtlich geschützten abgelaufenen Bildern zum Trainieren des Modells. Snowden weist darauf hin:

„“

Diese Positionierung bildet ein Gegengewicht zur Polemik über KI, die mithilfe von Datenbanken mit proprietären Bildern ohne Wissen oder ausdrückliche Zustimmung ihrer Autoren trainiert wird, was bei Tools wie Midjourney und DALLE-2 der Fall ist. Snowden spricht weiter über Transparenz:

„“

Ein weiteres wichtiges Thema, bei dem die Authentizität von Inhalten helfen kann, ist die Identifizierung gefälschter Bilder, sofern alle mit Firefly erstellten Bilder als durch künstliche Intelligenz generierte Assets gekennzeichnet werden.

Dies ist ein wichtiger Ansatz, da sich KI-Tools rasant weiterentwickeln und es in manchen Fällen bereits schwierig ist zu erkennen, ob ein Foto wahr ist oder ob eine Manipulation vorliegt. Daher ist es wichtig, klarzustellen, ob KI im Spiel war oder nicht, und Fake News oder andere unethische Verwendungen dieser Tools zu vermeiden.

Das Werkzeug „Generative Füllung“ selbst

Zunächst wollte ich nur darauf hinweisen, dass KI in Photoshop nichts Neues ist. Wir haben es bei Tools wie „Content Aware“ und „Puppet Warp“ gesehen. Natürlich erreichen die Höhen mit der generativen Füllung ein anderes Niveau. Schauen wir uns also etwas über das Tool selbst an.

Nachdem ich mir einige Demos des Tools angesehen hatte, war es für mich an der Zeit, es zu testen. Also habe ich Photoshop Beta in der Creative Cloud-App heruntergeladen und dort begonnen, einige Experimente mit einigen Bildern durchzuführen, die ich auf einigen Reisen aufgenommen habe. Um es zu verwenden, müssen Sie ein Bild öffnen und eine Auswahl treffen (Sie können das Lasso, den Zauberstab, das Stiftwerkzeug oder was auch immer für Sie geeignet ist) verwenden. Dann erscheint ein Kontextmenü mit der Option „Generative Füllung“.

Ich habe ein Bild, an dem ich gerade arbeite, in 4 Bildern mitgebracht. Das erste ist das Originalbild, so wie es mit der Kamera aufgenommen wurde. Im zweiten habe ich die Generative Füllung gebeten, die Personen und das Auto daraus zu entfernen (und einige Funktionen mit Lightroom verbessert).

Im dritten Bild habe ich das Werkzeug gebeten, eine Wasserpfütze mit Spiegelung auf dem Boden zu erzeugen. Und im vierten Bild habe ich die Grenzen überschritten und die KI gebeten, ein fliegendes Pferd in das Bild zu integrieren. Wie Sie unten sehen können, funktionierten die Dinge in manchen Fällen ganz gut, aber in anderen kam es einfach seltsam heraus, wie bei dem Pferd mit einem geflügelten Kerl auf dem Rücken und der schwebenden weiblichen Figur, die aus dem Nichts auftauchte.

Eine weitere Möglichkeit, die Generative Fill bietet, besteht darin, ein Bild mit Teilen zu erweitern, die zuvor nicht vorhanden waren. Das ist wirklich interessant, vor allem, wenn Sie ein wirklich gutes Foto haben, es aber beispielsweise besser gerahmt oder breiter wäre.

Unten sehen wir diese Ressource in Aktion: 01 ist das mit der Handykamera aufgenommene Originalbild und 02 ist das mit Hilfe von Generative Fill generierte Landschaftsbild. 03 zeigt genau, wo die Dehnungspunkte liegen.

Machen wir noch einen weiteren Test, damit wir diesen Artikel nicht zu sehr in die Länge ziehen. Ich habe eine Illustration mit dem einzigartigen Stil gemacht, den wir hier bei Rock Content verwenden. Also habe ich die Illustration auf eine leere Leinwand gelegt und die KI gebeten, eine zu erstellen. Und es gab mir die folgenden Variationen:

Dem Tool fällt es immer noch schwer, einen Illustrationsstil mit guten Ergebnissen zu reproduzieren. Einige der Variationen mögen als Referenz-Ausgangspunkt dienen, aber es ist noch nicht die Zeit, mit nur einem Klick die besten Ergebnisse zu erzielen. Aber die Zukunft von Firefly verspricht interessante Dinge, wie das Kombinieren von Bildern, das Erstellen einer beliebigen Textur aus einem 3D-Modellierungsobjekt und das Erstellen von Vektorbildern aus Eingabeaufforderungen.

Bei diesen Tests wurde mir klar, dass Generative Fill die Fotobearbeitung und -manipulation zum jetzigen Zeitpunkt viel einfacher und schneller macht. Das Entfernen eines Hintergrunds, das Einfügen, Entfernen oder Ersetzen von Elementen in einem Bild mit guten Ergebnissen waren Aufgaben, die früher viel Zeit, manchmal Stunden, in Anspruch nahmen.

Sie können jetzt in wenigen Sekunden erledigt werden, wenn Sie wissen, wie man fragt, und nicht zu viel vom Tool verlangen. Es sei daran erinnert, dass dieses Tool und alle anderen KI-Lösungen ständig verbessert werden. Die schlechten Ergebnisse von heute werden also morgen (vielleicht im wahrsten Sinne des Wortes morgen) nur „Wachstumsschmerzen“ sein.

Eine Hypothese für die schlechten Ergebnisse ist, dass eine Lerndatenbank, die nur auf Adobe Stock und Bildern mit abgelaufenen Urheberrechten basiert, viel kleiner ist als eine allgemeine. Aber wenn das der Fall ist. Ich würde es immer noch vorziehen, die Dinge richtig zu machen und urheberrechtlich geschützte Bilder zu respektieren.

Wie auch immer, in diesem Moment wird die Bewertung der kreativen Community dazu beitragen, Generative Fill zu verbessern. Es ist möglich, in Photoshop Beta zu jedem generierten Bild ein positives oder negatives Feedback zu geben.

In der Zwischenzeit werde ich damit beginnen, einige der Ressourcen zu nutzen, die wirklich viel Zeit sparen und mir eine menschliche Note verleihen können, um Qualitätsstandards aufrechtzuerhalten. Es war ein durchschnittliches „erstes Date“. Mit einigen Unstimmigkeiten, aber auch einigen guten Überraschungen.

Natürlich muss ich noch öfter mit diesen KI-Tools „herausgehen“, um zu sehen, wohin diese „Beziehung“ führen kann. Im Moment kann man mit Sicherheit sagen, dass Adobe einige bahnbrechende Möglichkeiten auf den Tisch gebracht hat. Lasst uns experimentieren und genau beobachten, was als nächstes kommt.