Facebook hat das heftig kritisierte Psycho-Experiment verteidigt, bei dem der Nachrichtenstrom einiger hunderttausend Nutzer manipuliert wurde. Für das Online-Netzwerk sei es wichtig zu verstehen, wie Mitglieder auf verschiedene Inhalte reagierten, erklärte Facebook in der Nacht zu Montag. "Wir überlegen sorgfältig, welche Forschung wir betreiben, und haben ein striktes internes Aufsichtsverfahren."
Bei dem einwöchigen Experiment im Januar 2012 sollte ermittelt werden, wie sich Emotionen in Netzwerken ausbreiten. Entsprechend wurden für Nutzer die Einträge ihrer Facebook-Freunde vorgefiltert: Den einen wurden mehr positive Nachrichten angezeigt, den anderen mehr negative. Die Studie ergab, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.
Einer der Autoren der Studie erläuterte in einem Facebook-Eintrag, man habe die Vermutung überprüfen wollen, dass Menschen sich ausgeschlossen fühlten, wenn sie positive Nachrichten ihrer Freunde sehen. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von Freunden die Nutzer veranlassen könnten, Facebook zu meiden, schrieb Adam Kramer. Beides sei von dem Experiment widerlegt worden.
Er könne aber verstehen, dass die Studie bei einigen Menschen Sorgen ausgelöst habe, meinte Kramer. Er und seine Mitautoren bedauerten dies. "Wir haben unsere Motive in dem Papier nicht klargemacht", räumte Kramer ein. Rückblickend haben die Erkenntnisse der Studie die ausgelösten Ängste vielleicht nicht gerechtfertigt.
Insgesamt waren bei dem Experiment ohne Vorwarnung die Newsfeeds von knapp 690.000 Nutzern der englischsprachigen Facebook-Version manipuliert worden. Über drei Millionen Einträge wurden von Software ausgewertet, die per Wortanalyse die Emotion zuordnete. Im Internet regten sich viele Nutzer über die heimliche Manipulation von Emotionen auf. Ein Experte zweifelte zugleich die Aussagekraft der Studie an, weil das Programm die Stimmung nicht immer korrekt zuordnen könne.
Facebook betonte, die Daten der Studie könnten nicht einzelnen Nutzern zugeordnet werden. Auch habe es keine "unnötige Datensammlung" gegeben. Kramer erklärte, es sei die mindestmögliche Zahl von Nutzern für statistisch relevante Ergebnisse beteiligt gewesen. Seit dem Experiment Anfang 2012 sei auch die Aufsicht über solche Forschung verbessert worden. In dem Papier wurde darauf hingewiesen, dass die Datenverwendungsregeln von Facebook, denen die Nutzer zustimmen, ein solches Vorgehen zulassen.
Die Newsfeeds der Mitglieder werden von Facebook ohnehin nach Algorithmen gefiltert, um sie nicht mit Informationen zu überfluten. Ziel sei, den Nutzern vor allem für sie relevante Einträge anzuzeigen, erläutert Facebook. Bei der Auswahl wird unter anderem berücksichtigt, wie oft ein Nutzer mit den Facebook-Freunden interagiere und wie populär die einzelnen Einträge seien.
Es ist nicht das erste Mal, dass Facebook wegen Datenschutz in die Kritik gerät – und sein Vorgehen quasi wissenschaftlich begründet. Vor wenigen Monaten wurde zum Beispiel bekannt, dass das soziale Netzwerk auch Texte der Nutzer speichert, während diese sie tippen. Peinlich war das dem sozialen Netzwerk nicht. Im Gegenteil: Die Facebook-Mitarbeiter Sauvik und – auch hier mit an Bord – Adam Kramer veröffentlichten sogar einen wissenschaftlichen Aufsatz über Facebooks neueste Ausspähtalente, "Self-Censorship on Facebook" ("Selbst-Zensur auf Facebook").
Bookmarks