Adobe gibt Vorschau auf KI-Videotools, die später in diesem Jahr verfügbar sein werden

Am Mittwoch hat Adobe die KI-Tools für die Videoproduktion Firefly vorgestellt, die später in diesem Jahr als Beta-Version verfügbar sein werden. Wie bei so vielen Dingen, die mit KI zu tun haben, sind die Beispiele gleichermaßen faszinierend und erschreckend, da das Unternehmen nach und nach Werkzeuge integriert, die einen Großteil der kreativen Arbeit automatisieren, für die seine geschätzte Nutzerbasis heute bezahlt. In Anlehnung an die KI-Verkaufsphilosophie anderer Branchen bezeichnet Adobe das Ganze als ergänzende Technologie, die „die Postproduktion weniger langweilig macht“.

Adobe beschreibt seine neuen, von Firefly unterstützten KI-Werkzeuge für die Konvertierung von Text in Video, für Generative Extend (das in Premiere Pro verfügbar sein wird) und für die Konvertierung von Bild in Video als Hilfe für Cutter bei Aufgaben wie dem Navigieren in Lücken im Filmmaterial, dem Entfernen unerwünschter Objekte aus einer Szene, dem Glätten von Jump-Cut-Übergängen und dem Finden der perfekten B-Roll“. Das Unternehmen behauptet, dass die Werkzeuge den Videoeditoren „mehr Zeit für neue kreative Ideen geben, den Teil der Arbeit, den sie lieben“. (Nimmt man Adobe für bare Münze, muss man davon ausgehen, dass die Arbeitgeber ihre Anforderungen an die Cutter nicht einfach erhöhen werden, sobald die Branche diese KI-Tools vollständig übernommen hat. Oder weniger zahlen. Oder weniger Leute einstellen. Aber ich schweife ab.)

Mit Firefly Text-to-Video können Sie – Sie haben es erraten – KI-generierte Videos aus Texten erstellen. Es enthält aber auch Werkzeuge zur Steuerung des Kamerawinkels, der Bewegung und des Zooms. Es kann ein Video mit Lücken in der Zeitleiste aufnehmen und diese Lücken füllen. Es kann sogar ein unbewegtes Referenzbild verwenden und in ein überzeugendes KI-Video umwandeln. Laut Adobe eignen sich die Videomodelle hervorragend für „Videos aus der Natur“ und helfen bei der Erstellung von Einspielern oder B-Rolls ohne großes Budget.

Obwohl es sich um Beispiele handelt, die von einem Unternehmen erstellt wurden, um seine Produkte zu bewerben, ist ihre Qualität unbestritten. Detaillierte Textanweisungen für die Aufnahme eines feurigen Vulkans, eines Hundes, der sich in einem Feld voller Wildblumen ausruht, oder (als Beweis dafür, dass die Technik auch das Fantastische beherrscht) Miniatur-Wollmonster, die eine Tanzparty feiern, erzeugen genau das. Wenn diese Ergebnisse repräsentativ für die typische Leistungsfähigkeit der Werkzeuge sind (was kaum zu garantieren ist), dann werden Fernseh-, Film- und Werbeproduktionen bald über einige leistungsfähige Abkürzungen verfügen – im Guten wie im Schlechten.

Adobes Beispiel für die Umwandlung von Bildern in Videos beginnt mit einem hochgeladenen Bild einer Galaxie. Ein Textbefehl verwandelt es in ein Video, das aus dem Sternensystem herauszoomt und das Innere eines menschlichen Auges zeigt. Die Unternehmensdemo von Generative Extend zeigt ein Paar, das einen Bach überquert; ein von der KI generiertes Segment füllt eine Lücke im Filmmaterial. (Es war so überzeugend, dass ich nicht erkennen konnte, welcher Teil des Outputs von der KI generiert wurde.)

Reuters berichtet, dass das Tool zumindest anfangs nur fünfsekündige Clips generieren wird. Adobe sagt, dass sein Firefly Video Model kommerziell sicher ist und nur mit Inhalten trainiert wird, für die das Unternehmen die Erlaubnis hat, sie zu verwenden. „Wir trainieren sie nur mit der Adobe Stock Datenbank, die 400 Millionen Bilder, Illustrationen und Videos enthält, die kein geistiges Eigentum, Marken oder identifizierbare Charaktere enthalten“, sagte Alexandru Costin, VP Generative AI bei Adobe, gegenüber Reuters. Das Unternehmen betonte auch, dass es niemals die Arbeit seiner Nutzer trainiere. Ob es seine Nutzer arbeitslos macht, ist eine ganz andere Frage.
Laut Adobe werden die neuen Videomodelle im Laufe des Jahres als Beta-Version verfügbar sein. Man kann sich auf eine Warteliste setzen lassen, um sie auszuprobieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert