Adobe hat den KI-Bildgenerator Firefly jetzt direkt in die Beta-Version von Photoshop eingebaut. Das ist ein sensationeller Fortschritt in der Bildbearbeitung. Damit eröffnen sich viele Möglichkeiten wie zum Beispiel das Generieren von Bildern und Bildelementen aus Textvorgaben. Wie so etwas aussehen kann habe ich schon einmal am Beispiel von DALL-E2 gezeigt. Dabei überlässt man die Gestaltung weitgehend der KI. Das ist sicher für viele Zwecke eine nützliche Hilfe, für Fotografen aber eigentlich weniger interessant.
Ein Riesenfortschritt in der Bildbearbeitung ist aber die neue Funktion "Generative Füllung". Dahinter steckt folgendes: Ein mit einem Auswahlwerkzeug definierter Bereich wird aus dem Bild entfernt und mit neuem Inhalt gefüllt. Bei dem bisher gebräuchlichen "Inhaltsbasierten Füllen" wurde die Lücke mit Hilfe der Informationen aus den umgebenden Bildteilen gefüllt. Im Gegensatz dazu ist die Generative Füllung KI-gestützt, d.h. sie erfindet sehr kreativ neue Pixel, die in das Bild passen. Es ist frappierend wie gut das in den meisten Fällen gelingt. Man bekommt immer drei Bearbeitungsversionen zur Auswahl und kann den Vorgang auch beliebig oft wiederholen. Zusammen mit den neuen KI-Masken kommt man sehr viel schneller ans Ziel und man bekommt bessere Ergebnisse als mit den herkömmlichen Methoden.
Ein Testbeispiel:
Die neue Szenerie wurde glaubwürdig hergestellt. Es gibt keine Wiederholungen von Elementen (Gartenzaun-Effekt). Durch einen zweiten Durchgang der Generativen Füllung für das Reet hinter der Figur konnte ich schließlich auch leichte Unschärfen im Übergangsbereich eleminieren. Ein solches Ergebnis wäre mit Stempeln oder Inhaltsbasiertem Füllen nicht zu erreichen gewesen.
RSS-Feed meines Blogs: