Die Bemühungen von YouTube, die Verbreitung von Verschwörungstheorien auf der Plattform zu verringern, scheinen Früchte zu tragen.

“Unsere Analyse bestätigt, dass YouTube seine Richtlinien eingehalten und das Gesamtvolumen der empfohlenen verschwörerischen Inhalte erheblich reduziert hat”, schrieben drei Forscher in einer Studie, die die University of California in Berkeley am Montag veröffentlichte.

Da Informationen auf YouTube größtenteils durch Empfehlungen verbreitet werden – 70 Prozent der angesehenen Inhalte sind empfohlene Inhalte – haben die Forscher 15 Monate lang 8 Millionen Empfehlungen des Next-Watch-Algorithmus der Plattform untersucht.

Ab April 2019 – drei Monate nachdem YouTube Maßnahmen zur Begrenzung von Inhalten auf der Plattform angekündigt hatte, die Nutzer auf schädliche Weise falsch informieren könnten – stellte das Forschungsteam einen konsequenten Rückgang der verschwörerischen Empfehlungen fest.

Der Rückgang setzte sich bis Anfang Juni 2019 fort, als die Rohfrequenz kurzzeitig einen Tiefpunkt von 3 Prozent erreichte, stellten die Forscher Marc Faddoul und Hany Farid von der UC Berkeley sowie Guillaume Chaslot von der Mozilla Foundation fest.

Die Rohfrequenz ist das Produkt aus der Häufigkeit, mit der ein Video empfohlen wird, und der Wahrscheinlichkeit, dass jedes Video verschwörerisch ist, sagten die Forscher.

Es scheint jedoch, dass es einige Ausrutscher gegeben hat. Seit dem Tiefpunkt des letzten Jahres haben sich die verschwörerischen Empfehlungen stetig erholt, so die Studie. Sie sind jetzt 40 Prozent seltener als bei der ersten Ankündigung von YouTube.

“Trotz dieses Abwärtstrends im vergangenen Jahr bleibt das von Informationskanälen empfohlene Gesamtvolumen an verschwörerischen Inhalten relativ hoch”, stellten die Forscher fest.

Selektives Targeting

“YouTube sollte Tribut gezollt werden, um einige gefährliche Themen effektiv herauszufiltern, beispielsweise die Behauptung, dass Impfstoffe Autismus verursachen”, schrieben die Forscher.

“Dennoch wurden andere Themen, von denen wir gezeigt haben, dass sie von YouTube aktiv beworben werden, vom FBI als sehr wahrscheinlich beschrieben, um einige inländische Extremisten zu kriminellen, manchmal gewalttätigen Aktivitäten zu motivieren”, betonten sie.

Ein genauerer Blick auf die Daten zeigt, dass YouTube bei der Anwendung seiner Richtlinien für “schädliche Inhalte” selektiv vorgeht, stellte der Forscher Faddoul fest.

“Einige politische und religiöse verschwörerische Inhalte wurden nicht herabgestuft, während bei anderen Themen wie dem Coronavirus keine Form von verschwörerischer Desinformation gefördert wurde”, sagte er gegenüber TechNewsWorld.

Angesichts der überlegenen Daten-, Kennzeichnungs- und Rechenressourcen, die YouTube zur Verfügung stehen, ist es technisch in der Lage, verschwörerische Themen mit hoher Genauigkeit zu erkennen, so die Studie.

“Tatsächlich werden empfohlene Videos für bestimmte Themen, die besonders genau unter die Lupe genommen zu werden scheinen, effektiv von der Desinformation befreit”, heißt es. “Es ist ermutigend zu sehen, dass YouTube bereit ist, bestimmte Themen effektiv und zeitnah anzugehen. Die Entscheidung, was herabgestuft werden soll, ist daher mehr eine Frage der Politik als der Technologie.”

Neutralität bewahren

Die Selektivität von YouTube beruht auf dem Wunsch aller sozialen Medien, möglichst wenig inhaltliche Eingriffe vorzunehmen, erklärte Faddoul.

“Sie wollen so neutral wie möglich bleiben”, sagte er. “Sie wollen nicht als voreingenommen kritisiert werden, wie sie es oft von Konservativen tun, die im Silicon Valley eine liberale Voreingenommenheit sehen.”

Es gibt rechtliche Gründe, die Neutralität aufrechtzuerhalten. Nach Bundesgesetz werden YouTube und andere soziale Medien als Plattformen behandelt. Daher ist ihre rechtliche Haftung für ihren Inhalt geringer als die einer Veröffentlichung mit redaktionellem Inhalt.

“Je mehr Sie anfangen zu bearbeiten und auszuwählen, was beworben werden kann und nicht, desto näher kommen Sie der effektiven Redaktion”, bemerkte Faddoul.

Die Studie fordert mehr Transparenz darüber, wie YouTube seine Empfehlungen für Nutzer abgibt.

“Mit zwei Milliarden aktiven Nutzern pro Monat auf YouTube hat das Design des Empfehlungsalgorithmus mehr Einfluss auf den Informationsfluss als die Redaktionen traditioneller Medien”, schrieben die Forscher.

Die Rolle des Motors sei noch wichtiger, wenn man Folgendes betrachte:

  • Die zunehmende Nutzung von YouTube als primäre Informationsquelle, insbesondere bei Jugendlichen;
  • Die fast monopolistische Position von YouTube auf seinem Markt; und
  • Die ständig wachsende Waffe von YouTube, um Desinformation und Partisaneninhalte auf der ganzen Welt zu verbreiten.

“Und doch sind die Entscheidungen der Empfehlungsmaschine weitgehend unbeaufsichtigt und für die Öffentlichkeit undurchsichtig”, betonten sie.

Algorithmus End Run

Das Hinzufügen von Transparenz zum Empfehlungsprozess würde die Rechenschaftspflicht erhöhen, so Faddoul.

“Diese Entscheidungen – was von der Empfehlungsmaschine gefördert werden sollte und was nicht – sind wichtig. Ein Prozess, der öffentlich zugänglich ist und neben YouTube andere Akteure einbezieht, würde den Prozess verbessern”, sagte er.

“Wenn Sie mehr Transparenz hätten, hätten Sie einen besser informierten Betrachter”, bemerkte Cayce Myers, Assistenzprofessor in der Kommunikationsabteilung der Virginia Tech in Blacksburg.

Die Aufhebung des Plattformschutzes für soziale Medien gemäß dem Federal Communications Decency Act von 1996 könnte strengere Richtlinien für die Überwachung von Inhalten durch Social-Media-Unternehmen fördern, sagte er gegenüber TechNewsWorld.

“Die Unternehmensrichtlinien werden häufig von der Haftung bestimmt”, erklärte Myers. “Wenn Sie also die Haftung für Websites von Drittanbietern wie YouTube ändern, werden Sie möglicherweise aggressiver auf die Bereinigung von Inhalten reagieren.”

Obwohl Transparenz immer eine gute Sache ist und dazu beitragen kann, die Verbreitung schädlicher Inhalte zu verringern, wirft sie einige Probleme auf.

“Wenn Sie Ihre Algorithmen transparent machen, werden Sie Technologien preisgeben, auf die Ihre Konkurrenten keinen Zugriff haben sollen”, sagte Vincent Raynauld, Assistenzprofessor in der Abteilung für Kommunikationsstudien am Emerson College in Boston.

“Immer wenn diese Plattformen ihre Algorithmen anpassen, finden Inhaltsproduzenten immer einen Weg, die Algorithmen zu umgehen oder ihre Inhalte so umzugestalten, dass sie ihren Filtern ausweichen”, sagte er gegenüber TechNewsWorld.

Radikalisierungswerkzeug

Während die Reduzierung der verschwörerischen Empfehlungen durch YouTube ermutigend ist, stellte die Studie fest, dass das Problem der Radikalisierung dadurch nicht gelöst werden konnte.

Berichten zufolge wurden YouTube-Videos verwendet, um Terroristen zu pflegen und einige Konservative von rechts nach ganz rechts zu bewegen.

“Im Allgemeinen ist Radikalisierung ein komplexeres Problem als das, was eine Analyse von Standardempfehlungen umfassen kann, da sie die einzigartige Denkweise und das Betrachtungsmuster eines Benutzers umfasst, der im Laufe der Zeit mit einem undurchsichtigen mehrschichtigen neuronalen Netzwerk interagiert, das die Aufgabe hat, personalisierte Vorschläge aus einem zu wählen dynamischer und praktisch unendlicher Ideenpool “, stellt die Studie fest.

“Verschwörungsinhalte sind ein Aspekt des Radikalisierungsprozesses”, sagte Raynauld. “Um radikalisiert zu werden, muss man auf diese Inhalte zugreifen können, um die Radikalisierung voranzutreiben. Ich vermute jedoch, dass andere Faktoren außerhalb von YouTube-Inhalten im Spiel sind.”

LEAVE A REPLY

Please enter your comment!
Please enter your name here