Mozilla-Studie: YouTube-Algorithmus verstößt gegen seinen eigenen Richtlinien

YouTube ist die größte Videoplattform der Welt. Mehr als 1,9 Milliarden Nutzer pro Monat kann die Google-Tochter verzeichnen, wovon rund 47 Millionen aus Deutschland kommen. Wer auf der Plattform aber welche Videos zu sehen bekommt, ist völlig unterschiedlich. Der YouTube-Algorithmus erstellt auf Basis der Such- und Sehverläufe ein Interessenprofil, sodass im Anschluss interessante Vorschläge gemacht werden können. Jetzt hat eine Mozilla Studie aufgezeigt, dass eben dieser Algorithmus gegen YouTubes eigene Richtlinien verstößt. Was schon seit geraumer Zeit angenommen wurde, wird nun mit neuen Erkenntnissen untermauert.

Eine zehnmonatige Crowdsourcing-Untersuchung

Die Mozilla Fundation ist eine gemeinnützige Organisation, welche seit 1998 weltweit im Einsatz ist. Ihr Ziel ist es, die Onlinewelt zu durchleuchten, um die Zukunft des Internets maßgeblich für alle mitzugestalten. Jetzt hat eine 10-monatige Studie sich mit dem YouTube-Empfehlungsalgorithmus beschäftigt und ein großes Problem ans Tageslicht gebracht. Für die Untersuchung wurden tausende Daten von Nutzern zusammengeführt und ausgewertet. Das Ergebnis: Der Empfehlungsalgorithmus der größten Videoplattform der Welt empfiehlt betrügerische, verstörende und gewalttätige Inhalte auf seiner Plattform. Eben dies verstößt gegen die eigens auferlegten Richtlinien. Die Recherche hat außerdem gezeigt, dass die Nutzer aus nicht-englischsprachigen Regionen der Welt noch viel stärker von diesem Problem betroffen sind.

Covid-19 – der Initiator für die Untersuchung

Während der Corona-Pandemie haben Menschen weltweit viel Zeit zu Hause verbringen müssen. Durch eben diese Regelungen, die eine weitere Ausbreitung der Atemwegskrankheit verhindern sollte, wurden die digitalen Medien deutlich mehr genutzt. Einige Menschen sind während dieser Zeit auf unerfreuliche Videoinhalte gestoßen, die der Empfehlungsalgorithmus ihnen zugespielt hat. Darunter waren Videos, die Angst und Falschinformationen über Covid-19 verbreiten, als auch unangemessene Cartoons für Kinder. Mozilla hat eben diese Berichte und dazugehörigen Daten zusammengefasst und ausgewertet.

Jetzt lesen:  Samsung Galaxy S20 Ultra – Angriff auf den (Preis-)Thron

Erste Maßnahmen von YouTube

Die zum Alphabet-Konzern gehörende Videoplattform YouTube hat nach der Veröffentlichung der Untersuchung schnell reagiert und fast 200 vom Algorithmus vorgeschlagenen Videos von der Plattform entfernt. Das sind laut Mozilla rund 9% der unerfreulichen Beiträge, die entdeckt wurden. Diese Reaktion war jedoch schon längt überfällig und ist im Nachhinein mehr eine Kosmetik, als eine langfristige Lösung. Immerhin hatten die gelöschten Videos zuvor mehr als 160 Millionen Aufrufe verzeichnen können. Schon dieser Fakt zeigt auf, welche Probleme es mit dem Empfehlungsalgorithmus gibt.

Anderssprachige Länder sind deutlich stärker betroffen

Die Untersuchung ergab, dass die Wahrscheinlichkeit rechtsextreme, frauenverachtende oder anderweitig verstörende Videos empfohlen zu bekommen um 60 % erhöht war, wenn der Nutzer in einem nicht-englischsprachigen Land zu Hause war. Brandi Geurkink, Senior Managerin der Interessenvertretung von Mozilla stellte die Hypothese auf, dass „der Algorithmus deutlich besser auf die englische Sprache trainiert sein muss, als auf andere“. YouTube habe außerdem bestätigt, dass alle Entwicklungen und Änderungen zuerst in den USA ausgerollt werden würden und erst später in der restlichen Welt zum Einsatz kommen. Aktuell sind Videos mit Falschinformationen über Covid-19 das größte Problem. Rund 14% der Nutzer in einer englischsprachigen Region und 36% in nicht-englischsprachigen Regionen beklagen dieses Problem.

Mozilla fordert mehr Transparenz von YouTube

Die Mozilla Fundation hat mit der Veröffentlichung ihrer Ergebnisse YouTube dazu aufgefordert, den Empfehlungsalgorithmus deutlich transparenter zu gestalten. Konkret gefordert werden regelmäßige Transparentberichte, die Informationen über die Funktionsweise veröffentlichen sollen. Darüber hinaus soll eine Option eingeführt werden, mit der Nutzer die Funktion der persönlichen Empfehlungen deaktivieren können. Weiterführend soll der Empfehlungsalgorithmus aber auch mit Risikomanagementsystemen ausgerüstet werden, sodass derartige Empfehlungen nicht mehr vorkommen. Die Verantwortlichen der Studie fordern außerdem, dass der politische Entscheidungsträger auf das Problem aufmerksam wird und passende Gesetze auf den Weg bringt. So soll die Transparenz von KI-Systemen gesetzlich verankert sein und zugleich investigative Forscher schützen.

Jetzt lesen:  Die Gaming-Hardware Highlights 2017

Die Reaktion von YouTube

Ein Sprecher von YouTube ließ verlauten, „dass der YouTube-Empfehlungsalgorithmus Nutzer mit interessanten Inhalten verbinden soll, da täglich mehr als 200 Millionen Videos auf die Plattform hochgeladen werden. Er gehört damit zu den Eckpfeilern des Dienstes“. Weiterführend würde seit einigen Jahren intensiv am Algorithmus gearbeitet, der mittlerweile 80 Milliarden Informationen für seine Bewertung verwenden soll.

Allein im letzten Jahr habe es 30 Änderungen gegeben, die die Empfehlungen von schädlichen Inhalten reduzieren sollen. YouTube selbst gibt mit seiner „Violative View Rate“ (VVR) an, dass nur 0,16 bis 0,18% aller Aufrufe auf unerwünschte Inhalte verzeichnet wurden. Von 10.000 Aufrufen stammen somit 16 bis 18 Klicks von verletzenden Inhalten auf der Plattform. Seit 2017 wurde dieser Wert um 70% gesenkt, so YouTube weiter.

Wie können sich Nutzer schützen?

Einen Schutz gibt es aktuell nicht. Der Empfehlungsalgorthimus ist eigenständig und seine Funktionsweise verschleiert. Nutzer können unerwünschte Inhalte also nur melden. Weiterführend lässt sich das Risiko nur verringern, indem YouTube mittels VPN genutzt wird. Die notwendige Sicherheit mit Top-VPNs in Österreich, Deutschland und der Schweiz wird dadurch deutlich erhöht. Ansonsten bleibt zu hoffen, dass durch die Studie einige Veränderungen bei YouTube als auch in der Politik eintreten.

 

Foto: Proxima Studio / stock.adobe.com