29. Juli 2019 1 Likes

Zuckerbergs ölige Lappen

Die Gefahr, die von Facebook & Co. ausgeht, heißt nicht Gedankenkontrolle, sondern Korruption

Lesezeit: 6 min.

Seit zwanzig Jahren schlagen die Datenschützer Alarm und warnen uns vor der kommerziellen Onlineüberwachung, bei der die großen Konzerne Daten über uns sammeln, damit sie uns zielgerichteter mit Werbung bombardieren können. Diese Warnung nahm zunächst niemand ernst, weil keiner die zielgerichtete Werbung für besonders effektiv hielt. Die Anzeigen, die wir vorgesetzt bekamen, waren nicht sehr überzeugend und nur selten für Produkte, die wir auch wirklich haben wollten. Es galt: Wer ein Sofa gekauft hatte, sah eine Zeit lang nur Sofawerbung. Dass man so schnell kein weiteres Sofa brauchen würde – dafür waren die Systeme, die die Anzeigen schalteten, noch nicht schlau genug. Immerhin tat diese Werbung niemandem weh. Im schlimmsten Fall verschwendeten die Auftraggeber ihr Geld mit nutzlosen Anzeigen, im besten Fall wurde der Vorgang des Einkaufens tatsächlich vereinfacht, indem die Algorithmen vorhersagten, was wir erwerben wollten und uns bei der Auswahl halfen.

Doch die Datenschützer gaben zu bedenken, dass dies nur die Spitze des Eisbergs war. Dass die Datenbanken der Kunden lohnende Ziele für Spione und Identitätsdiebe darstellten und dass sich jeder, der Datenspuren hinterließ, die auf anstößige Sexualpraktiken oder bestimmte religiöse oder politische Überzeugungen schließen ließen, erpressbar machte.

Inzwischen hat sich der Wind gedreht, und zunehmend setzt sich die Einsicht durch, dass die Datenschützer von Anfang an recht hatten. Jetzt heißt es, dass uns die Konzerne alles verkaufen können, wenn sie nur genug Daten über uns sammeln: den Brexit, Trump, ethnische Säuberungen in Myanmar und den Wahlerfolg für Dreckskerle wie Erdoğan in der Türkei und Orbán in Ungarn.

Schön, dass das Thema Privatsphäre nun stärker ins öffentliche Bewusstsein rückt. Es wäre wirklich sehr erfreulich, wenn wir den Zenit der Gleichgültigkeit allmählich überschreiten.

Die Erkenntnis, dass Big Tech ein Problem darstellt, kommt also zur rechten Zeit – doch ich fürchte, dass wir die falsche Diagnose gestellt haben. Wir verwechseln automatisierte Beeinflussung mit automatisierter Zielgruppenansprache. Lächerliche Lügen über den Brexit, vergewaltigende Mexikaner oder die heimliche Unterwanderung unseres Rechtssystems durch die Scharia haben vernünftige Menschen nicht davon überzeugen können, dass oben unten oder der Himmel grün ist. Doch mit den raffinierten Algorithmen der Werbeplattformen von Facebook, Google, Twitter und anderer Technologiegiganten lassen sich gezielt die rassistischen, fremdenfeindlichen, ängstlichen und wütenden Menschen ansprechen, die glauben wollen, dass ausländische Horden bereitstehen, um ihr Land zu zerstören.

Man darf nicht vergessen, dass Wahlen in der Regel eher knapp ausgehen, selbst für alteingesessene Politiker. Ein Stimmenanteil von sechzig Prozent gilt in der Politik als deutlicher Sieg. Man darf auch nicht vergessen, dass der Anteil der Nichtwähler traditionell sehr hoch ist. Wem es gelingt, auch nur einen kleinen Teil dieser Nichtwähler zu mobilisieren, der kann selbst den festesten Stuhl ins Wackeln bringen. In einem Kopf-an-Kopf-Rennen kann eine einfache und billige Methode, mit der man die Ku-Klux-Klan-Anhänger still und leise davon überzeugt, dass Trump ihr Mann ist, das Zünglein an der Waage spielen.

Die Leute von Firmen wie Cambridge Analytica sind wie Gedankenleser: Sie tun etwas sehr zeit- und arbeitsaufwendiges und geben es als Zauberei aus. Ein Gedankenleser muss jahrelang trainieren, bis er sich in wenigen Augenblicken die Reihenfolge eines Kartenspiels merken kann. Wenn er dann auf der Bühne steht, behauptet er, die richtige Karte mit übersinnlichen Fähigkeiten gefunden zu haben. Den wenig spektakulären, langweiligen Memorisierungsprozess dagegen bekommt niemand zu Gesicht. Bei Cambridge Analytica war es dasselbe: Sie haben einfach nur allen rassistischen Idioten eingeflüstert, Trump wählen zu gehen. Und danach behaupteten sie, sie hätten es durch eine geheimnisvolle Methode geschafft, sonst völlig vernünftige Menschen davon zu überzeugen, für einen Wahnsinnigen zu stimmen.

Damit will ich nicht sagen, dass Überzeugungsarbeit per se unmöglich ist. Automatisierte Desinformationskampagnen verbreiten auf den ersten Blick plausible Erklärungen für aktuelle Probleme, sodass der oberflächlich interessierte Leser schnell den Überblick verliert. Selbst eine ganz offensichtlich falsche Botschaft kann Zweifel säen und Anhänger finden, wenn man sie nur lange genug wiederholt – denken Sie an die Leugnung des Klimawandels oder die Impfgegner.

Wir haben es hier mit langsamen, langwierigen Prozessen zu tun, die die öffentliche Meinung im Laufe vieler Jahre beinahe unmerklich verändern. Das klappt am besten unter günstigen Bedingungen – so sind eine rigide Sparpolitik und der Rückbau von Sozialleistungen der ideale Nährboden für Faschismus, Fremdenfeindlichkeit und Nativismus. Wer nichts hat, wird für die Behauptung empfänglich, dass ihn der Nachbar um seinen gerechten Anteil gebracht hat. (Selbstverständlich ist es auch ohne die Überwachung der Großkonzerne möglich, die Bevölkerung aufzuwiegeln. Goebbels und Mao konnten das sehr gut mit analogen Techniken.)

Facebook sendet keine Gedankenkontrollstrahlen aus. Es stellt einfach nur die Werkzeuge bereit, nach Menschen mit denselben ungewöhnlichen, schwer zu erfassenden Eigenschaften zu suchen – egal, ob es sich bei diesen Eigenschaften um „denkt darüber nach, sich einen neuen Kühlschrank anzuschaffen“, „leidet an einer seltenen Krankheit“ oder „wäre bereit, an einem Völkermord teilzunehmen“ handelt. Und dann kann man diesen Menschen entweder einen neuen Kühlschrank andrehen – oder man gaukelt ihnen vor, dass das, was sie denken und tun, das Richtige ist, immerhin denken und handeln viele andere Menschen (oder Bots) genauso wie sie.

Obwohl Gedankenkontrollstrahlen vorerst Science-Fiction bleiben, geben Facebook und andere Datensammelkonzerne trotzdem Anlass zur Sorge – und das nicht nur, weil sie Menschen mit extremen Ansichten miteinander vernetzen. Dass für jede Person auf diesem Planeten ein umfassendes Informationsdossier angelegt wird, ist an und für sich schon besorgniserregend: In Kambodscha beispielsweise nutzt die autokratische Regierung Facebook, um Dissidenten aufzuspüren, die sie dann inhaftieren und foltern lässt; der US-amerikanische Grenzschutz macht sich die sozialen Medien zunutze, um gewissen Personen aufgrund ihrer Freunde, Organisationszugehörigkeit oder Interessen die Einreise zu verwehren. Nicht zu vergessen die Identitätsdiebe, Erpresser und Betrüger, die mit den – unrechtmäßig veröffentlichten – Daten von Wirtschaftsauskunfteien und sozialen Medien andere Menschen in den Ruin treiben, und schließlich die Hacker, die ihre Opfer mithilfe persönlicher Informationen dazu bringen, sicherheitsrelevante Daten zu verraten.

Wir lasten die Auswüchse der sozialen Medien der Naivität der Internetpioniere an, die nicht mit solchen Konsequenzen gerechnet haben. Doch in Wahrheit war und ist es technologisch gesehen nicht besonders anspruchsvoll, einen Facebook-ähnlichen Dienst aufzubauen – es verfügten aber nur wenige über die nötige Skrupellosigkeit, dies auch zu tun.

Von Anfang an war klar: Je mehr Daten man über einen User sammelt, desto zielgerichteter kann man ihn mit Werbung bombardieren. Und von Anfang an war auch klar, dass es große Probleme mit sich bringt, Daten über jeden Internetnutzer anzusammeln – Probleme, die in keinem Verhältnis zum mehr als geringen Nutzen stehen, den die Werbetreibenden von diesen Daten haben.

Man muss es sich so vorstellen: Mark Zuckerberg wacht eines Morgens mit der Erkenntnis auf, dass er die ölverschmierten Lappen, die sich in seiner Werkstatt angesammelt haben, zu einem qualitativ minderwertigen Rohöl raffinieren lassen kann. Niemand wird viel für dieses Öl bezahlen, aber er hat jede Menge öliger Lappen, und da nicht er den Schaden bezahlen muss, der entsteht, wenn diese öligen Lappen in Werkstätten überall auf der Welt Feuer fangen, ist es insgesamt ein ganz nettes Geschäft.

Ein Jahrzehnt später steht alles in Flammen, und wir versuchen, Zuck und seine Freunde für die Schäden haftbar zu machen und entsprechende Maßnahmen zu ergreifen, damit sich die Lappen künftig gar nicht erst entzünden. Aber die großen Datenkraken haben daran kein Interesse, weil man mit diesen Informationen über Abermilliarden Menschen ein paar Dollar pro Jahr verdienen kann. Damit die technologische Überwachung rentabel wird, müssen die Risiken auf die Gesamtgesellschaft umgelegt, die Profite aber privatisiert werden.

Für diesen Mechanismus gibt es einen schönen altmodischen Begriff: Korruption. In einem korrupten System kosten einige schwarze Schafe die Allgemeinheit Milliarden, obwohl sie selbst nur Gewinne in Millionenhöhe einfahren – beispielsweise sind die Einsparungen, die eine Fabrik durch das illegale Einleiten von Abwasser in einen Fluss erzielt, nichts im Vergleich zu den Kosten, die uns allen durch diese Umweltvergiftung entstehen. Allerdings werden die Kosten auf die Allgemeinheit umgelegt, die Profite aber nicht – und deshalb werden die Korrupten immer mehr Geld als ihre Opfer haben, um sich freizukaufen.

Die Gefahr, die von Facebook ausgeht, heißt nicht Gedankenkontrolle, sondern Korruption. Cambridge Analytica und Konsorten haben aus anständigen Leuten keine Rassisten gemacht - aber sie haben die Rassisten dazu gebracht, wählen zu gehen.

 

Cory Doctorow ist Schriftsteller, Journalist und Internet-Ikone. Mit seinem Blog, seinen öffentlichen Auftritten und seinen Büchern hat er weltweit Berühmtheit erlangt. Sein Roman „Walkaway“ ist im Shop erhältlich. Im Mai diesen Jahres erschien bei Heyne seine Novelle „Wie man einen Toaster überlistet“ (im Shop).

Kommentare

Zum Verfassen von Kommentaren bitte Anmelden oder Registrieren.
Sie benötigen einen Webbrowser mit aktiviertem JavaScript um alle Features dieser Seite nutzen zu können.