Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Geschäftsleute nutzen YouTube-Algorithmen, um Kinder auszunutzen

von WIRED Staff
Eine ganze Industrie produziert YouTube-Videos mit suchmaschinenoptimierten Titeln und Inhalten, die sich gezielt an Kleinkinder richten. Fehlende Kontrollen können aus Sicht des Autors und Journalisten James Bridle zu einem großen Problem werden. Er vergleicht die Lücken bei der Google-Tochter mit den Problemen von Hatespeech und Fake-News auf Facebook und Twitter.

In einem Artikel der New York Times hatte Sapna Maheshwari zuletzt darauf hingewiesen, dass es immer wieder gewalttätige Amateurproduktionen von beliebten Zeichentrickfiguren auch durch die Filter von YouTube Kids schaffen. Die App, die als familienfreundliche Plattform mit kindgerechter Umgebung beworben wird, kann für Kinder dadurch erschreckende Inhalte wiedergeben, ohne dass Eltern damit rechnen würden.

James Bridle bezeichnet dieses Phänomen in seinem Essay jetzt als „Industrialized Nightmare Production“: Auf einfache Weise erschaffen Animatoren große Mengen an Content mit dem Ziel der Monetarisierung. Bridle ist überzeugt: Hier kommen ein digitales System und kapitalistische Anreize zusammen. Ist ein Format erfolgreich, wird es millionenfach kopiert — und dann immer automatisierter aausgespielt. Ergebnisse dieses Prozesses, die Kinder verstören können, nehmen die Macher dabei ebenso billigend in Kauf, wie die Plattform YouTube selbst. Diese ist für ihn als Träger des algorithmusbasierten Systems aus Suchergebnissen und Empfehlungen mit in der Verantwortung.

Kinder mit Videos wie BURIED ALIVE Outdoor Playground Finger Family Song Nursery Rhymes Animation Education Learning Video zu konfrontieren, ist für Bridle Kindesmisshandlung. Immer mehr Kinder verbringen Zeit vor YouTube, auf dem stundenlange einfache Videos für Kinder in die weltweiten Top 10 schaffen können. Einzig eine Lösung hat der Journalist nicht parat: Die Datenmengen sind zu groß, um sie mit menschlicher Sicht zu überwachen. Ähnlich wie Twitter und Facebook im Kampf gegen Terrorismus und Hass muss sich YouTube für ihn aber überhaupt erst einmal des Problems annehmen und Verantwortung übernehmen.

GQ Empfiehlt