Das Empfehlungssystem von Youtube lenkt derzeit nur zu verhältnismäßig wenigen irreführenden Inhalten, hat eine Studie der Landesmedienanstalten herausgefunden. Der Algorithmus ist jedoch nur ein Puzzlestein unter vielen, Desinformation bleibt weiter ein Problem. Die Empfehlungsalgorithmen von Youtube verbreiten derzeit relativ wenige irreführende Inhalte, hat eine aktuelle Studie der Landesmedienanstalten ergeben. Ausgehend von Suchergebnissen zu „Covid-19-Pandemie“, „Klimawandel“ oder „Flüchtlinge“ würden Nutzer:innen überwiegend auf seriöse Nachrichtenquellen gelenkt, was sich auch in den späteren Empfehlungen neben den jeweiligen Videos widerspiegele. Jedoch gewährt die Studie nur einen kleinen Einblick in die Funktionsweise der größten Videoplattform der Welt. Beispielsweise hat das eigens entwickelte Webtool personalisierte Empfehlungen nicht untersucht, die sich mit der Zeit an die Vorlieben der jeweiligen Nutzer:in anpassen. Rund 70 Prozent aller Videoaufrufe speisen sich aus dem Empfehlungssystem, sagte der Youtube-Produkt-Chef Neal Mohan vor drei Jahren. (…) Im Februar versandten einige Medienanstalten Hinweisschreiben an die Betreiber mehrerer Online-Postillen, die für das Verbreiten von Desinformation bekannt sind. Darunter sollen sich die Facebook-Seite des AfD-nahen „Deutschland-Kuriers“ befinden, das rechte Jugendportal Flinkfeed und das Angebot des inzwischen bei Youtube rausgeflogenen Ken Jebsen, auch als KenFM bekannt.
Rechte Desinformationsnetzwerke. Als rechtslastig stellten sich nun auch viele der desinformierenden Videos heraus, die sich die Youtube-Studie genauer angesehen hatte. Der Grundton sei dabei fast durchgängig, einen „alternativen“ Blickwinkel auf einen bestimmten Sachverhalt anzubieten. Viele dieser Youtuber würden sich als „rebellische Kämpferinnen und Kämpfer“ sehen, die gegen eine vermeintliche „Meinungsdiktatur“ aufbegehrten – eine inzwischen gut eingeübte Pose reaktionärer Hetzer. Beliebtes Feindbild seien zudem öffentlich-rechtliche Medien sowie „Mainstream- oder Systemmedien“, die meist diskreditiert würden. Obwohl insgesamt nur sechs Prozent der untersuchten empfohlenen Inhalte aus potenziell desinformativen Kanälen stammten, erhöhte sich die Wahrscheinlichkeit, in dieser Blase zu bleiben, wenn ein desinformatives Video als Startpunkt diente. Im Vergleich zu neutralen Startpunkten enthielten die analysierten Empfehlungsbäume deutlich mehr potenziell desinformative Inhalte. Empfehlungsalgorithmus nur ein Puzzlestein Verschwunden sind solche Inhalte nicht, im Gegenteil. Die Empfehlungen sind nicht alleiniger Treiber hoher Aufrufzahlen. Laut der Studie wurden drei der populärsten, potenziell desinformativen Videos insgesamt rund zehn Millionen Mal aufgerufen, bei der Untersuchung jedoch nur 24 Mal empfohlen. Offenbar wurden die Inhalte auf anderen Plattformen und Messenger-Diensten verbreitet, als Links unter anderen einschlägigen Videos manuell gepostet oder stammen aus direkten Zugriffen von Abonnent:innen. Dass der Algorithmus von Youtube nur ein Faktor unter vielen ist, hatte die Forscherin Becca Lewis bereits 2018 in ihrer Studie zu rechten Influencer-Netzwerken festgestellt. Gut vernetzte Youtube-Persönlichkeiten verweisen gegenseitig auf sich, nutzen unterschiedlichste Kanäle, um auf sich aufmerksam zu machen – und speisen sich vor allem aus „parasozialen Beziehungen“ zu ihrer Community, die Intimität versprechen und das Publikum anfällig machen für reaktionäres Gedankengut.

via netzpolitik: Youtube – Desinformation ist nicht nur ein Algorithmen-Problem