Warum ich keine KI-Tools für die Videoproduktion einsetze

KI bei der Videoerstellung wird oft überschätzt, da sie erhebliche Einschränkungen hinsichtlich emotionaler Tiefe, narrativer Konsistenz und Originalität aufweist.

Künstliche Intelligenz kann zwar bestimmte technische Aufgaben rationalisieren und die Effizienz von Arbeitsabläufen verbessern, doch mangelt es ihren Ergebnissen häufig an der authentischen menschlichen Note, der emotionalen Resonanz und der kreativen Nuance, die für wirkungsvolles Marketing und Storytelling erforderlich sind. Dies führt zu generischen, vorhersehbaren und oft inkonsistenten Ergebnissen.

Zuerst der rechtliche Aspekt – das Urheberrecht

Bei der kommerziellen Verwendung von KI-generierten Werken aus Text, Bild oder Video ist große Achtsamkeit geboten. KI-generierte Inhalte können Urheberrechte an den Ausgangswerken verletzen und den Nutzer bei der Verwendung der KI-Inhalte sodann urheberrechtlich haftbar machen. Derzeit ist die Rechtsprechung in diesem Bezug nicht eindeutig. Eine Ausnahme stellt Adobe Firefly dar, denn diese generative KI verwendet ausschließlich Material aus korrekt lizenzierten Inhalten von Adobe Stock.

Die Realität abseits des Hypes

KI-Tools haben Schwierigkeiten, die Konsistenz der Charaktere, die Kontinuität der Handlung und die Einheitlichkeit der Audioausgabe über mehrere Szenen hinweg aufrechtzuerhalten, da ihnen das Gedächtnis und das Kontextbewusstsein fehlen. Daher sind umfangreiche manuelle Korrekturen erforderlich.

Die emotionale Intelligenz und kreative Intuition, die für überzeugende Videoinhalte unerlässlich sind, übersteigen die Fähigkeiten der KI weit, sodass ihre Ergebnisse mechanisch und unpersönlich wirken, was ein Publikum, das nach Authentizität sucht, abschrecken wird.

KI-generierte Inhalte sind oft abgeleitet und basieren auf Mustern aus vorhandenen Daten, was zu formelhaften und uninspirierten Werken führt, die sich in einem überfüllten Markt nicht von anderen abheben.

Der Prozess der Erstellung eines zusammenhängenden Videos mit KI ist fragmentiert und umfasst mehrere Schritte wie die Charaktererstellung, die Videogenerierung und die endgültige Bearbeitung, was das Versprechen einer nahtlosen Automatisierung untergräbt.

Eine übermäßige Abhängigkeit von KI kann zu unrealistischen Erwartungen, verminderter Kreativität und einer Homogenisierung des kulturellen Ausdrucks führen, da KI-Modelle auf Mainstream-Daten trainiert werden, die möglicherweise nicht alle unterschiedlichen Perspektiven widerspiegeln.

Wie funktionieren KI-Modelle eigentlich – die Entmystifizierung

Jeder kennt wohl mittlerweile ChatGPT der Firma OpenAI. Es ist ein sogenanntes LLM (Large Language Model) und im Grunde nur ein Algorithmus – also ein Computerprogramm –, das mit einer großen Menge an Daten aus dem Internet gefüttert wurde. Dabei wurde massiv gegen das Urheberrecht der Quellen verstoßen. Konkurrenzprodukte wie Gemini von Google, Claude von Anthropic oder Perplexity arbeiten nach dem gleichen Prinzip. Copilot von Microsoft nutzt die LLMs von OpenAI, sprich ChatGPT.

Ein Beispiel

Sie stellen der KI folgende Frage: Was ist ein Video?

Zuerst schaut das Modell auf die Wörter in Ihrer Frage. Es erkennt das Wort Video und versteht, dass Sie Informationen über Videos suchen. Es erinnert sich an all die Informationen über Videos, die es während seines Trainings gelesen hat. Dann beginnt es, eine Antwort zu erstellen. Es fängt wahrscheinlich mit dem Wort „Ein“ an, weil es gelernt hat, dass eine Definition oft mit „Ein“ beginnt. Dann wählt es das nächste Wort, vielleicht „Video“, und dann weitere Wörter wie „ist eine“ und „Darstellung“. Die finale Antwort könnte so aussehen:

Ein Video ist eine digitale oder analoge Darstellung von bewegten Bildern, die oft mit Ton kombiniert ist. Es wird verwendet, um Geschichten, Informationen oder Emotionen visuell zu vermitteln.

Woher „weiß“ die KI das?

Die KI weiß nicht, was ein Video ist. Das Modell gibt eine plausible Antwort auf Basis seiner Trainingsdaten. Sind die Trainingsdaten unwahr oder falsch, ist auch die Antwort unwahr oder falsch. Das ist eine essentielle Tatsache, die man nie vergessen sollte. Es ist ein Programm, kein denkendes Wesen. Es versteht nicht, was Sie fragen, und es versteht auch den Kontext nicht. Nicht umsonst steht in jedem Chatfenster unten ein Hinweis wie dieser: KI-generierte Antwort. Verifizieren Sie die Fakten.

Plausibel bedeutet nicht unbedingt richtig

Die Antworten von KI-Chats werden fast immer logisch und nachvollziehbar klingen. Das bedeutet nicht, dass sie faktisch korrekt sind. Besonders bei Themen, in denen man sich selbst nicht auskennt, kann man dies kaum erkennen.

Das Problem der Halluzination

Wie sehr viele Menschen, ist auch eine KI nicht in der Lage „Ich weiß es nicht“ zu sagen. Nicht immer enthalten die Trainingsdaten eine Antwort auf die Frage des Benutzers. Aktuelle Bewertungsmetriken belohnen KI‑Modelle dafür, überhaupt zu antworten, selbst wenn die Antwort erfunden ist. Eine mögliche Gegenmaßnahme wäre, das Modell zu belohnen, „Ich weiß es nicht“ zu sagen, was jedoch die wahrgenommene Intelligenz mindern könnte.

Mein Buch „AI entmystifiziert“ vermittelt Ihnen ein tiefergehendes Verständnis der Funktionsweise von KI auf einfache und humorvolle Weise:

KI (AI) entmystifiziert

Dieses Ebook erklärt auf einfache und humorvolle Weise, was AI wirklich ist. Lesen Sie über die Anfänge von AI. Erfahren Sie warum die Antworten von AI nicht auf Fakten beruhen können. Lesen Sie warum AI nicht schlussfolgern oder gar denken kann. Erfahren Sie warum der KI-Hype absolut übertrieben ist und was diese Technologie nur leisten kann. Warum Big-Tech voll auf AI setzt und was das zur Folge hat. Dieses Buch entmystifiziert das Thema AI.

Online bestellen:
Amazon Kindle, Apple Books, Google Books, Thalia, Hugendubel, bücher.de, Osiander, ebook.de, genialokal.de, Kobo, Barnes & Noble, Orell Füssli, Morawa, ecobookstore, ecolibri, deutsche-buchhandlung.de


Nach oben scrollen