Mit KI-Videogeneratoren lassen sich aus Texten und Bildern im Handumdrehen atemberaubende Filme erschaffen odervorhandene Videos optimieren und anpassen – von der Schärfe bis zur Reduzierung von Hintergrundgeräuschen. Für Kommunikationsprofis eröffnen die Tools eine Fülle neuer Möglichkeiten.

Markus S. hat schlechte Laune. Der bayrische Ministerpräsident sitzt auf der Rückbank seiner dunklen Limousine auf dem Weg von München nach Nürnberg. Die PR-Abteilung hat ihm gerade die neueste Videogrußbotschaft zur Freigabe zugestellt. Eine eher lästige Veranstaltung irgendwo in Oberbayern – persönliche Teilnahme vom Stab dringend angeraten, aber nicht möglich.
Da kommt der Videoeinspieler recht. Doch die Enttäuschung ist groß: Die Weste sitzt schlecht, die Hose wirkt zerbeult. Zudem funktioniert die Abschlusspointe nicht: Der „FC Bayern München“, sonst Blueprint und sichere Bank für Politiker-Bonmots, hat ausgerechnet heute verloren. Der Chef tobt. In München ist man ratlos.
Solche Probleme könnten sich in Zukunft deutlich entspannter lösen lassen. Durch die Einführung von KI-Videogeneratoren verändert sich das Videoproduktionsgeschäft nämlich gerade erdrutschartig. Die neue Technologie macht es möglich, quasi automatisiert Videos zu erstellen, mit beeindruckenden Features: vom automatisierten Helikopterflug über das Firmengelände bis hin zur 3-D-Komplett-Animation. Aus den Major-Studios von London über San Francisco bis Wellington kennt man solche Spezialeffekte seit Jahren. Allerdings war das bisher teures Spezialwissen von einigen wenigen.
Durch die KI-Explosion sind Videogeneratoren einfach und günstig geworden. Die innovativen Tools nutzen Künstliche Intelligenz, die auf Millionen von Bildern und Filmen trainiert wurde, um auf beeindruckende Weise Videos zu erstellen. Es gibt zwei Hauptanwendungsfelder für solche KI-Videogeneratoren:
-> Videos lassen sich vollständig neu generieren.
-> Videos lassen sich auf Basis vorhandener Sequenzen bearbeiten und anpassen.
Beide Ansätze bieten eine Fülle von Möglichkeiten für die PR und eröffnen ungeahnte kreative Perspektiven. Im ersten Fall können Nutzer Videos erstellen, indem sie Texte oder Bilder als Vorlage verwenden. Die Künstliche Intelligenz analysiert den Inhalt und generiert dann passende visuelle Elemente, um den Text zum Leben zu erwecken („Text-to-Video“).
Im zweiten Fall bieten KI-Videogeneratoren die Möglichkeit, bereits vorhandene Videos zu optimieren und anzupassen („Video-to-Video“). Durch den Einsatz ausgeklügelter Algorithmen können bestimmte Aspekte wie die Bildschärfe, die Farben oder die Stabilität von Aufnahmen korrigiert werden. Mithilfe der Werkzeuge lassen sich auch störende Hintergrundgeräusche reduzieren oder das Seitenverhältnis eines Videos anpassen, um es für verschiedene Plattformen zu optimieren.
Beide Verfahren eröffnen Unternehmen und Kreativen ganz neue Wege, um ihre Ideen visuell zu präsentieren. Zahlreiche Content-Creators experimentieren bereits mit den neuen Möglichkeiten im Web. Aufsehenerregend waren etwa die „Tanzenden Statuen“, die mithilfe der Software Stable Diffusion erstellt wurden: Durch generative KI sieht man, wie sich griechische Statuen zu soften Grooves bewegen oder zu einer Breakdance-Nummer tanzen.
Neue Videogeneratoren schießen wie Pilze aus dem Boden und laden dazu ein, beispielsweise mit Bewegtbild-Übergängen von realen Menschen zu Robotern zu experimentieren. Einiges davon wirkt künstlerisch, manches trashig – und vieles wird sicher den Weg in die PR-Abteilungen finden.
Beispiele gefällig?
>> Unternehmensfilme: Teure Drohnenflüge kann man heute mit wenig Postproduction-Zeit virtuell nachstellen.
>> Erklärfilme: Welchen positiven Effekt ein neues Produkt auf den Klimawandel hat, war bisher nur in simplen Strichanimationen darstellbar. Heute kann man auch bei kleinem Videobudget Möglichkeiten ausschöpfen, die bisher nur den Major-Studios zur Verfügung standen.
>> E-Learning-Tutorials: Natürlich anmutende Avatare moderieren durch ein Schulungsprogramm – und das bei Bedarf in mehreren Sprachen.
>> Nachrichten & Medien: virtuelle Nachrichtensprecher für Nachrichten-Clips, Kurzvideos und Social-Media-Inhalte.
Die Anwendungsfelder sind vielfältig. Ganz so einfach ist es allerdings doch noch nicht: Häufig muss man Plattformen installieren, ein Check-Point-Modell trainieren, mehrere KIs kombinieren – und natürlich kommt es auf das richtige Prompting an.
Auch die Qualität ist noch nicht immer wie im Kino. Bei Frame-Interpolationen – die Technik erzeugt einen flüssigeren Bildlauf durch das Einfügen von Zwischenbildern – können beispielsweise unschöne Unschärfen auftreten. Die KI-Modelle versuchen, in einer Einzelbildsequenz von 25 Bildern pro Sekunde Bewegungen zu extrapolieren.
Die Generierung von Zwischenbildern erfordert eine gewisse Annahme über die Bewegung. Hier machen die KIs mitunter noch Fehler. Das zeigt sich in Form von Flackern und Unschärfe in den generierten Frames und kann dann auch zu fehlenden Details oder zu Artefakten führen: Mal ist die Krawatte da, mal fehlt sie.
Allerdings geht die Entwicklung mit Riesenschritten voran. Schon heute ist es eine Kleinigkeit, eine beliebige Person abzubilden und in der Software in Form eines Frames anzulegen. Der kann dann mit beliebigem Text animiert und zum sprechenden Leben erweckt werden. Ein neuer Sprechtext? Kein Problem: Die Ausgabe erfolgt Text-to-Video. Ein Gang über Felder zur Eröffnung eines Windparks? Die Nutzung eines Video-Frames macht das vergleichsweise einfach.
Einschränkungen gibt es gleichwohl: Fotorealistisch perfekt ist das Ganze noch nicht.
Für diesen Beitrag haben wir drei Gruppen von KIs verglichen: […]

Möchten Sie weiterlesen? Klicken Sie hier, wenn Sie ein Jahres- oder Probeabo abschließen oder ein Einzelheft bestellen möchten.
Dieser Beitrag ist ein Auszug aus der prmagazin-Printausgabe August 2023.