Bei einer internen Studie berichteten Teilnehmer von weniger psychischen Problemen, wenn sie auf Facebook und Instagram verzichteten.
Facebook-KonzernMeta soll Studie zu psychischen Schäden vertuscht haben

Mark Zuckerberg und sein Konzern Meta sind mit neuen Vorwürfen konfrontiert. Celal Gunes
Copyright: picture alliance / Anadolu
Wie schädlich sind soziale Medien für unsere psychische Gesundheit? Über diese Frage wird debattiert, seit es Plattformen wie Facebook, Instagram und Tiktok gibt. Eine interne Studie des Facebook-Mutterkonzerns Meta hätte eine Antwort darauf geben können. Nur: Nach Bekanntwerden erster Ergebnisse hat der Konzern die Forschungsarbeit eingestellt. Das geht aus Dokumenten einer Sammelklage hervor, die US-Schulbezirke am Freitag gegen Meta und andere Social-Media-Unternehmen eingereicht haben.
Pikant ist das vor allem wegen der Erkenntnisse der Untersuchung. Demnach sollen Personen, die „eine Woche lang keine Facebook-Nutzung mehr hatten, von weniger Gefühlen wie Depression, Angst, Einsamkeit und sozialem Vergleichsdruck“ berichtet haben, zitiert die Nachrichtenagentur Reuters aus den Dokumenten, die für die Beweisführung zugänglich gemacht wurden.
Glaubt man Meta selbst, dann soll es keinen Zusammenhang zwischen den Ergebnissen und der Einstellung der Studie geben. Meta-Sprecher Andy Stone beteuerte in einer Stellungnahme, die Studie sei vielmehr beendet worden, weil ihre Methodik fehlerhaft gewesen sei.
Wie bei einem Tabakkonzern
Konkret handelt es sich bei der fraglichen Untersuchung um das sogenannte „Project Mercury“ aus dem Jahr 2020. Damals arbeitete Meta mit dem Umfrageunternehmen Nielsen zusammen, um die Auswirkungen einer vorübergehenden Facebook- oder Instagram-Abstinenz zu untersuchen.
Statt die Ergebnisse zu veröffentlichen oder Lehren daraus zu ziehen, soll Meta die weiteren Arbeiten an der Studie einfach eingestellt haben. Intern soll das Unternehmen laut den Akten auch eine Erklärung dafür kommuniziert haben: Die negativen Studienergebnisse seien durch die „bestehende Medienberichterstattung“ über das Unternehmen verfälscht worden.
Hinter verschlossenen Türen sollen Mitarbeiter jedoch Nick Clegg, dem damaligen Head of Global Public Policy von Meta, versichert haben, dass die Ergebnisse der Studie durchaus haltbar seien. Mitarbeiter sollen das Vorgehen des Konzerns mit dem der Tabakindustrie verglichen haben. Auch hier hatte es immer wieder Fälle gegeben, bei denen unliebsame Studienergebnisse über die Gefahr von Zigaretten verschwiegen wurden.

Die Social-Networks Instagram, WhatsApp und Facebook gehören alle zum Konzern Meta.
Copyright: Jens Büttner/dpa
Kinderorganisationen bestochen
Die Klage gegen den Konzern wird angeführt von der Anwaltskanzlei Motley Rice, die neben Meta auch noch Google, Tiktok und Snapchat im Namen von Schulbezirken in den gesamten Vereinigten Staaten verklagt. Der Vorwurf: Die Plattformen der Konzerne seien schädlich für Minderjährige – und die Unternehmen hätten das trotz intern anerkannter Risiken vor Nutzern, Eltern und Lehrern verschwiegen.
Einige der Vorwürfe: Es werde stillschweigend zugelassen, dass Kinder unter 13 Jahren die Plattformen nutzen könnten – zudem hätten die Plattformen zu wenig gegen Inhalte getan, die Kindesmisshandlungen zeigten. Einige hätten sogar kinderorientierte Organisationen versucht zu bestechen, damit diese die Sicherheit der Dienste in der Öffentlichkeit verteidigten. So soll Tiktok etwa die Eltern- und Lehrerorganisation National PTA gesponsort und anschließend intern damit geprahlt haben. Tiktok, Google und Snapchat haben sich bislang nicht zu den Vorwürfen geäußert.
Meta betonte in seiner Stellungnahme, man arbeite fleißig daran, die Sicherheit seiner Produkte zu verbessern. „Die vollständigen Unterlagen werden zeigen, dass wir seit über einem Jahrzehnt den Eltern zuhören, die wichtigsten Themen untersuchen und echte Veränderungen zum Schutz von Teenagern vornehmen“, wird Meta-Sprecher Stone von Reuters zitiert.
Zuckerberg-Textnachricht veröffentlicht
Während die Vorwürfe gegen die anderen Plattformen in der Klageschrift eher vage seien, werden Meta gleich mehrere konkrete Punkte zur Last gelegt. Unter anderem soll der Konzern Tests von Sicherheitsfunktionen blockiert haben, wenn sie dem Wachstum der Plattform geschadet hätten. Der Konzern behindere auch seit Jahren interne Bemühungen, Sexualstraftäter daran zu hindern, Kontakt zu Minderjährigen aufzunehmen (sogenanntes Grooming), weil er um sein Wachstum fürchte. Sicherheitsmitarbeiter seien unter Druck gesetzt worden, damit sie die Entscheidung öffentlich rechtfertigen.
Sogar eine Textnachricht von Mark Zuckerberg aus dem Jahr 2021 wird in den Dokumenten zitiert. Darin soll der Meta-Chef geschrieben haben, dass die Sicherheit von Kindern nicht sein Hauptanliegen sei, „wenn ich mich auf eine Reihe anderer Bereiche stärker konzentriere, wie zum Beispiel den Aufbau des Metaverse“. Zuckerberg soll auch interne Forderungen nach einer besseren Finanzierung der Kindersicherheitsarbeit abgelehnt haben.
Meta sieht sich in der Klage falsch dargestellt. „Wir widersprechen diesen Vorwürfen, die sich auf selektiv ausgewählte Zitate und falsch informierte Meinungen stützen, entschieden“, so Stone. Die eigene Sicherheitsarbeit sei „weitgehend wirksam“.
Metas lange Geschichte mit dem verfehlten Kinderschutz
Es ist nicht das erste Mal, dass der Konzern mit solchen Vorwürfen konfrontiert ist. 2021 übergab die Whistleblowerin Frances Haugen interne Dokumente an das „Wall Street Journal“, die zeigten, dass der Konzern erhebliche Risiken seiner Plattformen für Jugendliche zwar kannte, aber nicht angemessen offenlegte. Haugen war zuvor Produktmanagerin bei Facebook.
Laut den Dokumenten soll Meta interne Studien durchgeführt haben, in denen Jugendliche berichteten, Instagram verschlimmere Probleme wie Körperunzufriedenheit, sozialen Vergleichsdruck, Angst oder depressive Symptome. Besonders bei jungen Mädchen sei der Effekt stark ausgeprägt gewesen. Zudem soll Meta laut Haugen Funktionen wie Likes, algorithmisch kuratierte Feeds oder Benachrichtigungen bewusst so gestaltet habe, dass sie starke Bindungs- und Wiederkehreffekte erzeugen – mit besonderer Wirksamkeit bei jungen Nutzerinnen und Nutzern.
Interne Forschungsergebnisse hätten auch nahegelegt, dass längere Nutzung von Instagram und Facebook das psychische Wohlbefinden beeinträchtigen könne. Schon damals gab es Vorwürfe, Meta habe die Ergebnisse dieser Untersuchungen bewusst zurückgehalten und auch die Struktur seiner Plattformen absichtlich nicht verändert. Mehrere US-Bundesstaaten leiteten nach Bekanntwerden der Vorwürfe Untersuchungen gegen Meta ein.
Forscher beklagen sich über Meta
Im September behauptete der frühere Meta-Mitarbeiter Jason Sattizahn gegenüber dem NDR und der „Süddeutschen Zeitung“, dass Untersuchungsergebnisse über Gefahren zu Metas VR-Brille ebenfalls der Öffentlichkeit vorenthalten worden seien. So sei ein zehnjähriger Studienteilnehmer in einer virtuellen Welt sexuell belästigt worden und habe das dem Forschungsteam mitgeteilt. Statt weiter nachzufragen, hätte das Team das Gespräch auf Anweisung von Meta abbrechen müssen.
Auch diesen Fall will der Konzern anders verstanden wissen: Daten von Kindern unter 13 ohne elterliche Zustimmung würden gelöscht oder gar nicht erst erhoben, teilte der Konzern gegenüber den Medien mit.
Die frühere Meta-Mitarbeiterin Sarah Wynn-Williams behauptet in ihrem Whistleblower-Buch „Careless People“, Meta habe mit Hilfe seiner Technik sogar identifiziert, wann Teenager-Mädchen Selfies auf Facebook, Instagram und Whatsapp gelöscht hätten. Diese Handlung sei dann für Werbezwecke genutzt worden – etwa, um den Mädchen gezielt Schönheitsprodukte anzubieten.
Länder zwingen Plattformen zu Alternachweisen
Inzwischen kommt dem Konzern beim Kinderschutz immer häufiger das Gesetz zuvor. In mehreren Ländern wird über harte Altersbeschränkungen von sozialen Medien für Kinder diskutiert. Konzerne müssen dann mit technischen Maßnahmen das Alter ihrer Nutzerinnen und Nutzer nachweisen. Der Schritt ist nicht ganz unumstritten, weil er datenschutztechnisch heikel ist und die Anonymität im Netz aushebelt.
Umgesetzt wird so ein Gesetz bereits in Australien. Hier haben die Dienste Facebook und Instagram damit begonnen, junge Nutzer auf ihre bevorstehende Sperrung auf den Social-Media-Portalen vorzubereiten. Per SMS und E-Mail informierten die Plattformen Unter-16-Jährige, dass sie ab dem 4. Dezember keinen Zugang mehr haben werden.
Metas eigenen Schätzungen zufolge nutzen in Australien aktuell 350.000 Australierinnen und Australier zwischen 13 und 15 Jahren Instagram und etwa 150.000 Facebook.
Mit Material von AP


