Youtubes zunehmende Abhängigkeit von KI-gestützter Automatisierung zerstört das Ökosystem für Content-Ersteller. In letzter Zeit wurden vermehrt legitime Technik-Tutorials und sogar ganze Kanäle ohne klare Begründung gelöscht.
Das Wesentliche
Youtubes KI-gestützte Automatisierung ist fehlerbehaftet. Das Moderationssystem löscht massenhaft legitime Inhalte, insbesondere im Tech-Bereich. Da die Menge an Inhalten für menschliche Prüfer zu groß ist, verlässt sich YouTube fast ausschließlich auf Algorithmen, die jedoch oft falsch liegen.
Auch der Prozess für Einsprüche wirkt automatisiert. Ersteller erhalten oft innerhalb von Minuten Ablehnungen für Videos, die mehrere Stunden lang sind, was eine menschliche Prüfung faktisch ausschließt.
Die Gesetzgebung bietet einen zusätzlichen Anreiz für Löschungen. Plattformen werden härter dafür bestraft, wenn sie schädliche Inhalte online lassen, als wenn sie fälschlicherweise legitime Inhalte löschen. Daher sind die Systeme darauf getrimmt, im Zweifelsfall eher zu löschen.
Die Folgen: Vertrauensverlust und „Enshittification“
Dieser Begriff beschreibt den Prozess, bei dem Online-Plattformen durch Gewinnmaximierung und mangelnde Transparenz für Nutzer und Ersteller immer schlechter werden. Die Intransparenz führt zu Angst und Selbstzensur bei den Creators, denn diese sind machtlos gegenüber einer undurchsichtigen Durchsetzung von Regeln. Wenn YouTube nicht transparenter wird, müssen wir mit vorsichtigeren Creators, weniger hochwertigen Videos und mehr formelhaftem Einheitsbrei (Slop) rechnen. YouTube wird wohl ein weiteres Opfer der Ära der Enshittification werden.
Fazit
YouTube wird durch den undurchdachten Einsatz von KI seine wichtigste Ressource verlieren – die authentischen, hochwertigen Inhalte seiner Ersteller. Creator können nur zu dezentralen Plattformen wie PeerTube wechseln, wo die Kontrolle nicht bei einem undurchsichtigen Algorithmus, sondern bei der Community und den Erstellern selbst liegt. Allerdings haben andere Plattformen (noch) nicht die Reichweite von Youtube.

