Große IT-Unternehmen wie Google und Facebook haben es sich zur Aufgabe gemacht, uns besser zu kennen als wir selbst, und nutzen das, um das Archiv des Weltwissens sowie unser soziales und politisches Leben zu organisieren. Das klingt groß und anspruchsvoll, aber das Motiv ist altbekannt: Es geht darum, Geld zu verdienen. Dieser Artikel versucht, eine Einschätzung darüber geben, was uns als Linke erwartet und was wir dagegen tun können.
Silas L. Marker
„Was es gibt, gibt es hier“. So der berühmte Werbespruch des [dänischen] Telefonbuchs „Die Gelben Seiten“.
Es hätte jedoch genauso gut das Motto für die Suchmaschine Google oder das soziale Medium Facebook sein können – zwei große Internet-Medienmonopole, die unser soziales und politisches Leben täglich durch eine Vielzahl von Algorithmen formen. Algorithmen in diesem Zusammenhang sind mathematische Codes, die unsere Suchergebnisse (für Google) und unseren Newsfeed (für Facebook) auf der Grundlage der Erfassung von Benutzerdaten zusammenstellen.
Zu „googeln“ ist ein ganz normales Verb geworden und in der Alltagssprache gleichbedeutend mit der Suche nach Informationen im Internet. Jede Sekunde verarbeitet Google dem Online-Medium Internet Live Stats zufolge über 40 000 Suchanfragen, d. h. 3,5 Milliarden Suchanfragen am Tag, und die verschiedenen Webseiten und Dienste von Google sind die am häufigsten besuchten im Internet (Halavais 2018). Eine Suche z. B. nach dem Wort „Algorithmus“ ergibt, während wir dies schreiben, ca. 3 020 000 Ergebnisse, verteilt auf eine unüberschaubare Anzahl von Seiten. Studien zeigen jedoch, dass 80 % der Benutzer über die erste Seite nicht hinauskommen und nur sehr wenige über die dritte Seite hinausblättern (Cassin 2018: 46). Weiterhin zeigen Experimente mit Eye Tracking, dass unsere Augen zum oberen Rand der ersten Seite eines Suchergebnisses gerichtet sind und die weiter unten liegenden Ergebnisse häufig ignoriert werden (Guan & Cutrell 2007). Was oben oder auf der ersten Seite steht, bewerten wir als wahr, als Antwort auf unsere Frage oder als das Produkt, das wir am besten kaufen sollten.
So organisiert Google das Wissen der Welt im Internet. Ein ähnliches Projekt für unser politisches und soziales Leben finden wir bei Facebook, auf das sich der Rest dieses Artikels konzentrieren wird.
Facebook ist unser Fenster zur Welt; eine Linse, durch die wir unser soziales Leben erleben, an der öffentlichen Debatte teilnehmen und als politische Wesen agieren. Hier prüfen wir, „was passiert“, und wenn es auf Facebook nicht floriert, dann passiert es nicht. Fast 80 % der Dän*innen nutzen die sozialen Medien täglich und ein großer Teil der Nachrichtenverteilung und damit der öffentlichen Debatte und Meinungsbildung findet hier statt. Eine Studie der Denkfabrik Kraka ergab im Sommer 2018, dass immer mehr Dän*innen ihre Nachrichten vor allem aus den sozialen Medien beziehen, was insbesondere für junge Menschen gilt (Wandsøe-Isaksen et al. 2018). Die Studie zeigte auch, dass junge Menschen sich mehr als andere auf das verlassen, was sie in den sozialen Medien lesen.
Wer in der Enhedslisten [1] oder in der SUF aktiv ist, weiß, in welchem Umfang die interne Debatte und Mobilisierung in Gruppen stattfindet wie z. B. „Setz auf das rote Ø“ oder „SUF Info&Debatte“ – und wie man abgehängt ist, wenn man in keiner dieser Gruppen oder womöglich überhaupt nicht auf Facebook ist. Oft besteht der erste Schritt beim Starten einer Kampagne darin, eine Facebook-Seite zu erstellen, und ein wichtiger Teil der Mobilisierung für ein Meeting, eine Demonstration oder ein Sommercamp ist die Erstellung eines Facebook-Events mit einem schönen Event-Titelbild. Sogar die Kampagne #DeleteFacebook, die als Reaktion auf den Skandal von Cambridge Analytica im Jahr 2018 gestartet wurde, musste auf Facebook organisiert werden, was ein gutes Bild der Vormachtstellung der sozialen Medien als politischer Arena gibt. Dies hat mit dem Phänomen zu tun, das man in den Informationswissenschaften „Netzwerkeffekt“ nennt: Du musst auf Facebook sein, weil alle anderen da sind. Man spricht auch von der „fear of missing out“, der Angst, Diskussionen, Einladungen, Bilder usw. zu verpassen. So entstehen SoMe-Monopole, was Boykottaktionen gegen Facebook sehr schwierig macht.
All dies bedeutet offensichtlich, dass die Öffentlichkeiten des Internets in hohem Maße Orte der Macht sind. Einerseits gibt es klassische Machtkämpfe zwischen politischen Gegnern, weil unsere öffentlichen Debatten, wie ich bereits sagte, jetzt hier stattfinden, aber es wird auch eine Macht über uns, die Benutzer, ausgeübt, die sich in der Gestaltung unseres Wissens, unserer Erfahrungen, unseres Bewusstseins und unserer Einstellungen zeigt. Mit anderen Worten kann man nicht von einer Macht sprechen, die uns mit Drohungen, Strafen oder Pistolen zu etwas zwingt, sondern eher von einer unsichtbaren Macht, die das verteilt, was für unsere Augen sichtbar ist. Ich habe die Algorithmen an anderer Stelle mit einem Licht verglichen, das bestimmte Bereiche des Informationsdschungels beleuchtet und andere Stellen unsichtbar lässt (Markus 2018). Die Algorithmen zeigen uns, was zu sehen ist und was passiert, während der größte Teil des Restes unsichtbar bleibt.
Ebenso geheim und kompliziert, wie die Algorithmen der IT-Giganten sind (auf die ich noch einmal zurückkehre), genauso einfach ist ihr Geschäftsmodell, egal ob wir von Facebook oder Google sprechen. Zunächst wird den Benutzer*innen ein Medium ohne Bezahlung zur Verfügung gestellt. Anschließend werden die Benutzer*innen überwacht, indem Daten über alles vom Standort bis zu ihren Verhaltensmustern, über ihre Online-Einkäufe, ihre E-Mail- und Chat-Korrespondenz sowie private Gespräche erfasst werden.
LiteraturhinweiseBerger, J. 2013. Contagious. How to build word of mouth in the digital age. London/New York/Sydney/Toronto/ New Delhi: Simon & Schuster. Cassin, B. 2018. Google Me. One-Click Democracy. New York: Fordham University Press. Guan, Z. & Cutrell, E. 2017. „An eye tracking study of the effect of target rank on web search,” i CHI ’07 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, San Jose, Calif. April 28-May 3. New York: ACM Press, pp. 417-20. Habermas, J. 2009. Borgerlig offentlighed. København: Informations Forlag. (Deutsches Original: Strukturwandel der Öffentlichkeit). Halavais, A. 2018. Search Engine Society. Cambridge: Polity Press. Internet Live Stats: Google Search Statistics. http://www.internetlivestats.com/google-search-statistics/ (aufgerufen 26.06.2019) Levin, S. 2017. ”Facebook told advertisers it can identify teens feeling ‘insecure’ and ‘worthless.’”. The Guardian, 01.05.2017. Marker, S. L. 2018. „Det er ikke dig, der styrer dit newsfeed“. Information, 5.10.2018. Negt, O. & Kluge, A. 2016. Public Sphere of Experience. Analysis of the Bourgeois and Proletarian Public Sphere. London: Verso. (Deutsches Original: Öffentlichkeit und Erfahrung). Pariser, E. The Filter Bubble. What the Internet is Hiding from You. London: Penguin Books. Pasquale, F. 2015. Black Box Society. Cambridge: Harvard University Press. Sunstein, C. 2011. Going to extremes. How like minds unite and divide. Oxford: Oxford University Press. Wandsøe-Isaksen, R., Vasiljeva, K. og Pedersen, F. D. 2018. Ingen truende medieudvikling – men bekymringspunkter. Link: http://kraka.org/sites/default/files/public/6.1_bagggrundsnotat_medieanalysen.pdf (aufgerufen 26.06.2019). Warner, M. 2014. Publics and Counterpublics. New York: Zone books. Zuboff, S. 2019. The age of surveillance capitalism. The fight for a human future at the frontier of power. New York: Public Affairs. |
Man schafft mit anderen Worten eine veritable Überwachungsgesellschaft, für die selbst George Orwell die Phantasie gefehlt hätte, sie sich vorzustellen, wo Benutzer*innen sozusagen kostenlos für das Unternehmen arbeiten, indem sie Daten generieren. Drittens werden diese Daten Unternehmen und politischen Organisationen zur Verfügung gestellt, die gegen eine Gebühr die Möglichkeit haben, die gewünschten Gruppen durch psychologisches „Profiling“ und „Microtargeting“ mit den richtigen Botschaften zu erreichen: gezielte Ausrichtung bestimmter Botschaften, die auf bestimmte Gruppen zugeschnitten sind, basierend auf ihren psychologischen und Verhaltensprofilen. Die Zeitung The Guardian berichtete zum Beispiel 2017, dass Facebook seinen Werbetreibenden erzählt, dass der Algorithmus Teenager identifizieren kann, die sich wertlos oder unsicher fühlen, damit Werbetreibende Produkte und Botschaften genau diesen Jugendlichen verkaufen können (Levin 2017).
Es hat sich gelinde gesagt als gutes Geschäft erwiesen: Im Jahr 2018 endete Facebook mit einem Umsatz von 55,8 Mrd. US-Dollar, während Google im selben Jahr nicht weniger als 136,22 Mrd. US-Dollar umsetzte. Facebook und Google werden nicht umsonst als IT-Giganten bezeichnet. Die amerikanische Harvard-Professorin Shoshana Zuboff geht sogar so weit, von einem dezidierten Überwachungskapitalismus als einer völlig neuen Stufe im Kapitalismus zu sprechen (Zuboff 2019). Mit einer Fortschreibung von Marx könnte man hinzufügen, dass sich der Reichtum der kapitalistischen Länder (auch) als immense Ansammlung von Daten zeigt.
Eine der auffälligsten Konsequenzen der Targeting-Tools und der Algorithmen von Facebook im Allgemeinen sind die hoch personalisierten Newsfeeds, die die Benutzer*innen erhalten. Jedes Mal, wenn man sich anmeldet, wird ein Stream mit Suchanfragen, Bildern, Nachrichten usw. aus den eigenen Daten generiert. Wie die Personalisierung vor sich geht, wissen wir nicht im Detail, aber mit unserer Kenntnis des Geschäftsmodells von Facebook wissen wir, wofür der Algorithmus entwickelt wurde: Uns so lange wie möglich auf der Plattform zu halten, damit wir so lange wie möglich Werbung ausgesetzt sind. Daher zeigt uns der Algorithmus das, wovon er glaubt, dass es uns festhält, ob es sich nun um Katzenvideos, politische Debatten oder rechtsgerichtete Fake-News handelt.
Wie gesagt ist Facebook unser Fenster zur Welt. Wenn unsere jeweiligen Fenster zur Welt vom Algorithmus personalisiert werden, muss das auch bedeuten, dass unsere Bilder von der Welt unterschiedlich sind. In diesem Zusammenhang spricht man in der Informationswissenschaft insbesondere von einem Phänomen namens „Filterblasen“, das eben diese Sortierung von Informationen, die der Algorithmus den Benutzer*innen liefert oder nicht liefert, beschreibt (Pariser 2011). Verwandt mit den Filterblasen sind „Echokammern“; das sind Enklaven, typischerweise in Form von (oft geschlossenen) Gruppen oder Netzwerken, in denen die Benutzer ihre Einstellungen einander ständig bestätigen und sich gegenseitig extremisieren (Sunstein 2011).
Das Interessante und Sensationelle an diesen beiden Phänomenen ist ihre Fähigkeit, Weltbilder zu schaffen und Meinungen zu bilden. Wenn man Filterblasen und Echokammern erzeugen oder manipulieren kann, kann man die Sicht der Menschen auf die Welt formen. Darüber hinaus stellt dies eine besondere Herausforderung für sozialistische Aktivisten dar, die „die breite Öffentlichkeit“ ansprechen möchten, wie es oft genannt wird, wenn eine Botschaft herausgegeben und eine Agenda festgelegt werden soll – was soll man tun, wenn es nicht eine einzige Öffentlichkeit gibt, sondern ganz viele verschiedene ohne Verbindung miteinander?
Soziale Medien sind für politisch Aktive besonders interessant, weil sie jedem die Möglichkeit geben, eine Botschaft zu senden. Wichtig ist aber nicht nur, eine Botschaft veröffentlichen zu können, sondern auch, dass sie gehört wird, und möglichst von den Richtigen. So lautet die Frage für sozialistische SoMe-Aktivist*innen: Wie stellen wir sicher, dass wir mit unseren Botschaften andere erreichen als diejenigen, die schon vorher mit uns einig waren?
Wie gesagt, der Algorithmus ist streng geheim. Es gibt viele Faustregeln und Platzierungstipps, von der besten Zeit bis zur besten Art von Inhalten, wenn man eine große Reichweite für seine Veröffentlichung erreichen möchte. Das Problem mit dieser Art von Tipps ist, dass sie schwer zu überprüfen sind, weil Facebook seinen Algorithmus genauso geheim hält wie Coca-Cola das Rezept für seinen Sirup, denn das müssen sie. Darüber hinaus wird Facebook den Algorithmus von Zeit zu Zeit ändern, ohne es zu sagen. Der Algorithmus ist, mit den Worten des amerikanischen Rechtsprofessors und Algorithmenexperten Frank Pasquale, eine „Black Box“ (Pasquale 2015).
Wir wissen jedoch mit einiger Gewissheit, dass Facebooks Algorithmen Engagement belohnen – Teilen, Liken und Kommentare. Dies liegt hauptsächlich daran, dass der Algorithmus so konzipiert ist, dass wir so lange wie möglich auf der Plattform bleiben. Aus der Sozialpsychologie wissen wir, dass Engagement vor allem durch die sogenannten negativen handlungsmobilisierenden Emotionen, insbesondere die Gefühle von Wut, Angst und Hass, erzeugt wird (Berger 2013). Ein Link mit einem Titel wie „ASYLANTENKIND ZÜNDET SCHULBUS AN – HIER DIE BILDER, DIE DIE MEDIEN NICHT ZEIGEN“ schafft daher mehr Engagement als ein idyllisches Bild der eigenen Gartenlaube, egal wie schön es auch sein mag. Dies scheint die Rechte besser verstanden zu haben als die Linke, obwohl der Linken eigentlich nicht die Themen fehlen, die die Menschen auf die Barrikaden treiben könnten.
Die Linke kann natürlich nicht einfach die Rhetorik der Rechten und ihren Einsatz von Ärger und Angst erzeugenden Falschinformationen kopieren. Aber was dann? Im Allgemeinen ist dies relativ unerforschtes Land für die Linke, und es ist alles in allem nicht sicher, was für uns funktionieren wird. Daher muss man als Sozialist*in verschiedene Konzepte und Methoden ausprobieren, um herauszufinden, was funktioniert und Engagement bei denen schafft, die man erreichen möchte. Natürlich sollten wir die Forschungen sowohl in der Sozialpsychologie als auch in der Natur der Algorithmen nutzen, aber wir können uns nicht auf Experten, Fachleute und Tricks verlassen, die irgendwer im Internet gelesen hat. Wir sollten anerkennen, dass es sich nicht um eine exakte Wissenschaft handelt, und ständig unser eigenes Wissen auf diesem Gebiet produzieren, unsere Methoden entwickeln und bewerten und unsere Ergebnisse diskutieren.
|
||||||
Mit Medien wie Solidaritet (und dazugehörenden Plattformen), Konfront, Eftertryk, Socialistisk Information, Friktion und Arbejderen wird ein Bild einer echten linken Gegenöffentlichkeit in Dänemark gezeichnet, die als Sammlung von Privatpersonen verstanden wird, die über öffentliche Angelegenheiten diskutieren (Habermas 2009), in Opposition zu den dominierenden Meinungen und Normen der bürgerlichen Öffentlichkeit (Warner 2014). Eine solche Gegenöffentlichkeit ist wichtig, weil sie eine Sphäre gemeinsamer linker Erfahrungsbildung, Meinungsaustausch, Geschichtsschreibung, Horizontbildung sowie Entwicklung von Sprache und Bewusstsein ist (Negt & Kluge 2016). Die weitere Aufgabe besteht darin, mehr Menschen in diese Sphäre zu bringen, und hier spielen die sozialen Medien eine entscheidende Rolle als Fenster der Menschen zur Welt. Die Frage ist nur, wie sichergestellt werden kann, dass die linke Öffentlichkeit in diesem Fenster auch gesehen wird.
29. Juni 2019 Quelle: http://socinf.dk/venstrefloejen-algoritmerne-og-tech-giganterne Übersetzung aus dem Dänischen und Anmerkungen: Björn Mertens |
Dieser Artikel erschien in die internationale Nr. 5/2019 (September/Oktober 2019). | Startseite | Impressum | Datenschutz