Press "Enter" to skip to content

Das Fehlinformationsproblem von Facebook geht tiefer als Sie denken

Angesichts des Coronavirus-Ausbruchs hat das Fehlinformationsproblem von Facebook eine neue Dringlichkeit erhalten. Am Montag kündigte Facebook zusammen mit sieben anderen Plattformen eine harte Linie zu virenbezogenen Fehlinformationen an, die als direkte Bedrohung für das Gemeinwohl angesehen wurden.

Ein heute Morgen von Ranking Digital Rights veröffentlichter Bericht weist jedoch darauf hin, dass der derzeitige Moderationsansatz von Facebook das Problem möglicherweise nicht sinnvoll angehen kann. Laut den Forschern liegt das Problem im Geschäftsmodell von Facebook: datenbezogene Anzeigen und algorithmisch optimierte Inhalte.

Wir haben mit einer der Mitautoren, der Senior Policy Analystin Nathalie Maréchal, darüber gesprochen, was sie als das eigentliche Problem von Facebook ansieht – und was nötig wäre, um es zu beheben.

In diesem Bericht machen Sie geltend, dass das dringlichste Problem bei Facebook nicht der Datenschutz, die Moderation oder sogar das Kartellrecht ist, sondern die grundlegende Technologie für personalisiertes Targeting. Warum ist es so schädlich?

Irgendwie haben wir ein Online-Medien-Ökosystem entwickelt, das nicht darauf ausgelegt ist, die Öffentlichkeit zu informieren oder genaue, zeitnahe und umsetzbare Informationen zu erhalten, sondern Werbetreibenden – und nicht nur kommerziellen Werbetreibenden, sondern auch politischen Werbetreibenden, Propagandisten und Griftern wie Alex Jones – um so viele Menschen wie möglich reibungslos zu beeinflussen. Das gleiche Ökosystem, das wirklich für Einflussoperationen optimiert ist, wird auch verwendet, um Nachrichten zu verbreiten, Informationen über die öffentliche Gesundheit zu verbreiten, mit unseren Lieben in Kontakt zu treten, Medien auszutauschen und viele verschiedene Dinge. Und das System arbeitet in unterschiedlichem Maße bei all diesen unterschiedlichen Zwecken. Wir können jedoch nicht vergessen, dass für gezielte Werbung wirklich optimiert wurde.

Was ist gegen gezieltes Targeting?

Das Hauptproblem ist, dass das Anzeigen-Targeting selbst jedem mit der Motivation und dem Geld ermöglicht, es auszugeben, was wirklich jeder ist. Sie können fein abgestimmte Teile des Publikums auseinander brechen und jedem Stück unterschiedliche Nachrichten senden. Und das ist möglich, weil so viele Daten über jeden einzelnen von uns gesammelt wurden, um mehr Autos zu kaufen, mehr Konsumgüter zu kaufen, sich für verschiedene Dienste anzumelden und so weiter. Meistens nutzen die Leute das, um Produkte zu verkaufen, aber es gibt keinerlei Mechanismus, um sicherzustellen, dass es nicht dazu verwendet wird, schutzbedürftige Menschen anzusprechen, um Lügen über die Volkszählung zu verbreiten.

Unsere Untersuchungen haben gezeigt, dass Unternehmen zwar relativ genau definierte Inhaltsrichtlinien für Werbung haben, ihre Targeting-Richtlinien jedoch äußerst vage sind. Sie können die Anzeigenausrichtung nicht verwenden, um Personen zu belästigen oder zu diskriminieren, aber es gibt keine Erklärung dafür, was dies bedeutet. Und es gibt überhaupt keine Informationen darüber, wie es durchgesetzt wird.

Da das gesamte Geld aus gezielter Werbung stammt, werden gleichzeitig alle möglichen anderen Designoptionen für die Plattform angeregt, Ihre Interessen berücksichtigt und optimiert, um Sie immer länger online zu halten. Es ist wirklich ein Teufelskreis, in dem die gesamte Plattform so konzipiert ist, dass Sie mehr Anzeigen sehen und dort bleiben, damit sie Sie verfolgen und sehen können, was Sie auf der Plattform tun, und damit die Targeting-Algorithmen und weiter verfeinern können und so weiter und so fort

Es klingt also so, als ob Ihr grundlegendes Ziel darin besteht, mehr Transparenz darüber zu erzielen, wie Anzeigen ausgerichtet werden.

Das ist absolut ein Teil davon. Ja.

Was ist der andere Teil?

Ein weiterer Teil, über den wir im Bericht sprechen, ist eine größere Transparenz und Prüfungsfähigkeit für Inhaltsempfehlungs-Engines. Also der Algorithmus, der bestimmt, was das nächste Video auf YouTube ist oder der Ihren Newsfeed-Inhalt bestimmt. Es geht nicht darum, den genauen Code anzuzeigen, da dies für fast alle bedeutungslos wäre. Es erklärt, was die Logik ist oder wofür sie optimiert ist, wie ein Informatiker es ausdrücken würde.

Ist es auf Qualität optimiert? Ist es für die wissenschaftliche Validität optimiert? Wir müssen wissen, was das Unternehmen versucht. Und dann muss es einen Mechanismus geben, mit dem Forscher, verschiedene Arten von Experten, vielleicht sogar eine Experten-Regierungsbehörde weiter unten, überprüfen können, ob die Unternehmen die Wahrheit über diese Optimierungssysteme sagen.

Sie beschreiben eine ziemlich umfassende Änderung der Funktionsweise von Facebook als Plattform – aber wie führt dies dazu, dass Benutzer weniger Fehlinformationen sehen?

Virale Inhalte weisen im Allgemeinen bestimmte Merkmale auf, die von den Plattformen mathematisch bestimmt werden. Die Algorithmen prüfen unter anderem, ob dieser Inhalt anderen zuvor viralen Inhalten ähnelt – und wenn die Antwort Ja lautet, wird die Theorie, dass dieser Inhalt die Menschen dazu bringt, sich zu engagieren, verstärkt. Vielleicht, weil es beängstigend ist, vielleicht macht es die Leute wütend, vielleicht ist es umstritten. Dies wird jedoch so verstärkt, dass Inhalte, die möglicherweise genau, aber nicht besonders aufregend oder kontrovers sind, nicht verbessert werden.

Diese Dinge müssen also Hand in Hand gehen. Die Steigerung von organischen Inhalten hat dieselbe treibende Logik wie die Algorithmen zur Anzeigenausrichtung. Einer von ihnen verdient Geld, indem die Werbetreibenden die Kreditkarten herausziehen, und der andere verdient Geld, weil er so optimiert ist, dass die Leute länger online sind.

Sie sagen also, dass es weniger Fehlinformationen gibt, wenn weniger algorithmisches Boosten vorhanden ist?

Ich würde das ein wenig verfeinern und sagen, dass Fehlinformationen weniger verbreitet sind, wenn es weniger algorithmische Steigerung gibt, die für die Gewinnmargen und das Endergebnis des Unternehmens optimiert ist. Die Leute werden sich immer noch verrückte Dinge einfallen lassen, die sie ins Internet stellen können. Es gibt jedoch einen großen Unterschied zwischen etwas, das nur von fünf Personen gesehen wird, und etwas, das von 50.000 Personen gesehen wird.

Ich denke, die Unternehmen erkennen das. In den letzten Jahren haben wir gesehen, dass sie Inhalte herabgestuft haben, die nicht ganz gegen ihre Community-Standards verstoßen, aber genau auf den Punkt kommen. Und das ist gut so. Aber sie behalten das System bei und versuchen dann, es an den Rändern zu optimieren. Es ist sehr ähnlich zu dem, was die Moderation von Inhalten bewirkt. Es ist eine Art “Boost First, Moderate Later” -Logik, bei der Sie den gesamten Inhalt gemäß dem Algorithmus steigern und dann das, was jenseits des Blassen liegt, weg moderiert werden. Aber es wird sehr unvollkommen weg moderiert, wie wir wissen.

Dies scheinen keine Änderungen zu sein, die Facebook selbst vornehmen wird. Was würde es also politisch brauchen, um dies zu erreichen? Sprechen wir über ein neues Gesetz oder eine neue Regulierungsbehörde?

Wir fordern seit mehr als fünf Jahren nicht nur die Plattformen auf, über solche Dinge transparent zu sein. Und sie haben jedes Jahr Fortschritte bei der Offenlegung von etwas mehr gemacht. Aber es gibt noch viel mehr Details, die zivilgesellschaftliche Gruppen gerne sehen würden. Wenn Unternehmen dies nicht freiwillig tun, ist es für die US-Regierung als Regierung, die für die mächtigsten Plattformen zuständig ist, diese Art von Transparenz als ersten Schritt in Richtung Rechenschaftspflicht einzubringen und zu fordern. Im Moment wissen wir einfach nicht genug im Detail darüber, wie und wie die verschiedenen algorithmischen Systeme funktionieren, um die Systeme selbst sicher zu regulieren. Sobald wir diese Transparenz haben, können wir über eine intelligente, zielgerichtete Gesetzgebung nachdenken, aber wir sind noch nicht da. Wir wissen nicht … wir wissen einfach nicht genug.

Kurzfristig ist die größte Änderung, die Facebook vornimmt, das neue Aufsichtsgremium, das unabhängig betrieben wird und angeblich einige der schwierigen Entscheidungen angeht, mit denen das Unternehmen Probleme hatte. Sind Sie optimistisch, dass das Board einen Teil davon angehen wird?

Ich bin nicht, weil das Aufsichtsgremium speziell nur auf Benutzerinhalte ausgerichtet ist. Werbung fällt nicht in ihren Zuständigkeitsbereich. Weißt du, ein paar Leute wie Peter Stern haben das gesagt, später die Straße hinunter. Sicher vielleicht. Dies trägt jedoch nicht dazu bei, den Ansatz “Boost First, Moderate Later” anzugehen. Und es werden nur Fälle berücksichtigt, in denen Inhalte entfernt wurden und jemand sie wieder herstellen möchte. Das ist sicherlich ein echtes Problem, ich möchte das nicht im geringsten verringern, aber es wird nichts gegen Fehlinformationen oder sogar gezielte Desinformationen tun, die Facebook noch nicht abfängt.

Korrektur: In einer früheren Version dieses Beitrags wurde angegeben, dass der Bericht von New America’s Open Technology Institute erstellt wurde. Während der Bericht auf der Website des Open Technology Institute veröffentlicht wurde, ist er die einzige Arbeit von Ranking Digital Rights. Der Rand bedauert den Fehler.