Plattformen wie Instagram, Facebook oder TikTok gehören zu den meistgenutzten »Alltagsgegenständen« vieler Menschen: Sie kommunizieren darüber, lassen sich unterhalten, konsumieren Nachrichten und bilden sich auf dieser Basis eine (politische) Meinung. Umso wichtiger ist es, dass Social-Media-Plattformen nicht ausschließlich nach kommerziellen Logiken funktionieren. Aktuell verbreiten sich aufmerksamkeitserregende Inhalte auf Social Media besonders schnell. Beiträge, die starke Gefühle ansprechen, zuspitzen oder polarisieren werden häufiger ausgespielt – darunter digitale Gewalt und Desinformation.
Diese negativen Effekte sind nicht zufällig. Vor allem aber können sie korrigiert werden. Wo Politik und Plattformen hier ansetzen müssten, zeigt HateAid in seiner neuen Publikation »Safety by Design – Pathways to Safer Social Media Platforms«. Die These von HateAid, einer digitalen Menschrechtsorganisation, die wir seit Jahren fördern: Würden Social-Media-Plattformen von Anfang an nach dem Prinzip »Safety by Design« entwickelt, gäbe es dort weniger digitale Gewalt, weniger Desinformation und weniger suchtfördernde Elemente, die zum endlosen Scrollen und Videoschauen verleiten. Denn Social-Media-Plattformen sind von Menschen gestaltete Produkte – ähnlich wie Buntstifte, Betablocker oder E-Bikes. Die technische Architektur, das Design und eingesetzte Algorithmen sind das Ergebnis konkreter Entscheidungen.
Die jetzt vorgestellte Studie basiert auf Gutachten des Digitalrechtsexpertenan der Business & Law School Berlin,Michael Denga, und der Wissenschaftlerin Caroline Sinders. Sie führt 200 konkrete technische und regulatorische Maßnahmen für mehr Schutz auf Social Media auf, die bereits bei der Konzeption von Plattformen umgesetzt werden sollten.
Zwar geben Betreiber:innen von Social-Media-Plattformen in der Regel an, sie würden bereits Risiken reduzieren und verweisen auf den europäischen Digital Services Act. In der Praxis löschen oder schränken sie problematische Inhalte aber erst ein, nachdem diese bereits verbreitet wurden. Viel wirksamer wäre es, diese Mechanismen bereits bei der Gestaltung der Social-Media-Angebote zu vermeiden. So könnten der Studie zufolge beispielsweise Filter für verletzende oder verstörende Inhalte eingebaut oder eine Altersuntergrenze für die Nutzung der Plattformen integriert werden.
Sicherheit müsse deshalb ein zentraler Bestandteil der Plattformarchitektur, der Digital Services Act konsequenter umgesetzt und überprüft werden, so zwei Handlungsempfehlungen der Studie. Zudem fordert HateAid, die Verantwortlichen der Plattformen persönlich haftbar zu machen – derzeit muss sich etwa META-Chef Mark Zuckerberg vor Gericht gegen den Vorwurf einer Nutzerin verantworten, die Social-Media-Plattformen des Konzerns hätten sie durch die eingebauten Funktionen bewusst abhängig gemacht. Noch steht das Urteil aus.