Häufig vergisst man, dass YouTube bereits 2005 gegründet worden ist. In der Zeitrechnung der Tech-Branche ist das eine Ewigkeit – viel ist infolgedessen bei der Videoplattform passiert. Bereits ein Jahr nach der Gründung wurde das Unternehmen vom Giganten Google übernommen, der das Start-up zur meistbesuchten Videoplattform ausbaute. Nach YouTube kommt lange nichts, Mitbewerber wie Vimeo sind höchstens für Nischen-Interessen bedeutsam.
Doch innerhalb der Plattform brodelt es gewaltig. Die Community agiert unvorhersehbar, Extremisten missbrauchen YouTube für ihre Zwecke, Skandale, wie der um den Content-Producer Paul Logan, verschrecken die wichtigen Werbetreibenden von der Plattform.
Es wäre ein Einfaches, die Verantwortung für diese Entwicklungen den Usern und Videomachern zuzuschieben, doch oftmals sind die Ursachen haugemacht. Es fehlt an einer klaren Kommunikation zwischen Chefetage und Öffentlichkeit, sogar die Entwickler der Plattform verstehen ihre eigenen Algorithmen nicht mehr.
Langsam scheint auch YouTube zu merken, dass es so nicht weitergeht, und nimmt sich zwei Problemen an, die bereits seit längerem kritisiert werden.
Sichtung von Bildmaterial wird neu geregelt
Jede Minute werden 300 Stunden Videomaterial bei YouTube hochgeladen. Dass ein Großteil dieser Inhalte aus illegalem und verstörendem Material besteht, das nichts auf der Plattform zu suchen hat, ist dabei unvermeidlich. Content, der gegen das Urheberrecht Dritter verstößt, kann YouTube mit dem Content ID System ohne menschliche Hilfe entfernen.
Auch Material mit gewalttätigen oder anstößigen Inhalten kann der Algorithmus in 98 Prozent der Fälle erkennen, Damit die restlichen zwei Prozent trotzdem nicht online gestellt werden, sichten Moderatoren verdächtige Inhalte und löschen sie, falls ein Verstoß gegen die Content-Richtlinien festgestellt wird. Für dieses Vorgehen ist das Unternehmen allzu häufig in die Kritik geraten, da es für die Aufgabe schlecht bezahlte Arbeiter einsetzt, von denen vielen selbständig sind und daher auf Sozialleistungen, die üblicherweise der Arbeitgeber bezahlt, verzichten müssen.
Kein einfacher Job
Stundenlang müssen die Sichter Videos betrachten, die Gewaltexzesse, Selbstmorde und andere verstörenden Content enthalten. Ein Job, der die Psyche nachhaltig beeinträchtigen kann.
Um die Beschäftigung erträglicher zu gestalten, kündigte YouTube-CEO Susan Wojcicki während einer Fragerunde an, dass die Zeit, in der die Moderatoren verstörendes Material sichten müssen, auf vier Stunden pro Tag begrenzt wird. Zudem soll gewährleistet werden, dass die Sichter Zugang zu “Wellness Benefits” erhalten, ohne jedoch genauer zu erläutern, wie sich dieses „Wellness-Programm“ zusammensetzt.
Ob eine zeitliche Begrenzung für das Betrachten von verstörenden Inhalten tatsächlich hilft, ist fraglich, schließlich werden bei einer Fünf-Tage-Woche noch immer 20 Stunden der Arbeitszeit von dieser Aufgabe in Anspruch genommen.
YouTube will Nutzer nicht mehr radikalisieren
Nicht nur bei dem Umgang mit verstörenden Inhalten muss YouTube umdenken. Seit längerem steht der Vorwurf im Raum, dass das Videoportal seine Nutzer radikalisiere. Diese Kritik stützt auch die türkische Schriftstellerin Zeynep Tufekci. In einem Artikel in der New York Times, “YouTube, der große Radikalisierer”, berichtet die Autorin, wie ihr der YouTube-Algorithmus beim Betrachten harmloser Wahlkampfvideos von Donalds Trump, Content von Rassisten und Holocaustleugnern vorschlug.
Nach dieser Entdeckung rief sie mit einem Zweitaccount Videos von Hillary Clinton und Bernie Sanders auf. Als Folge schlug YouTube Verschwörungstheorien vor, diesmal jedoch solche, die dem linken Spektrum zuzuordnen sind. Doch nicht nur politische Inhalte sind von dieser Tendenz zum Extremen betroffen. Klickte Tufekci auf Jogging-Videos, unterbreitete ihr der Algorithmus Ultramarathon-Videos. Bei Vegetarier-Clips verwies YouTube sie auf Veganer-Clips.
Das Verhalten des Algorithmus sei laut der Schriftstellerin besonders gefährlich, wenn man in Betracht ziehe “wie viele Menschen, vor allem junge Menschen, sich an YouTube wenden, um Informationen zu erhalten”.
Wikipedia-Artikel sollen Abhilfe schaffen
Auf der South by Southwest Conference (SXSW) reagierte YouTube-CEO Susan Wojcicki auf die Kritik und kündigte schnelle Gegenmaßnahmen an. In Zukunft wolle man bei Videos über Verschwörungstheorien sogenannte “Information Clues” einbinden. Diese Hinweise bestehen aus Textstellen, entnommen aus der Online-Enzyklopädie Wikipedia. Sie sollen als Gegendarstellung zu einer Verschwörungstheorie dienen. Schaut man sich beispielsweise ein Video an, in dem behauptet wird, dass die Apollo-Missionen von Stanley Kubrick inszeniert wurden, zeigt der Hinweis den Wikipedia-Artikel zur Mondlandung an.
Die “Information Clues” sollen laut Wojcicki bei Videos zu populären Verschwörungstheorien angezeigt werden. Welche das genau sind, sagte sie erst einmal nicht.
Wikipedia reagiert auf YouTubes Ankündigung
Auf Twitter hat die Wikimedia Foundation, die Organisation hinter Wikipedia, zwischenzeitlich Stellung zu YouTubes Ankündigung bezogen. Zwar begrüße die gemeinnützige Gesellschaft, dass Unternehmen Wikipedia als Wissensdatenbank verwenden würden, eine formale Vereinbarung zwischen Wikimedia und YouTube gäbe es jedoch nicht.
YouTube will Werbeindustrie gefallen
Dass YouTube auf die harsche Kritik der letzten Zeit eingeht und versucht seine Herausforderungen und Probleme zu lösen, kann am Ende für Angestellte und Nutzer zugleich gut sein. Wirklich uneigennützig sind die jüngsten Maßnahmen aber nicht, schließlich ist das oberste Ziel der Plattform, ihren Werbetreibenden endlich wieder zu gefallen.