1.6. Gute Filter, böse Filter? (Julian Ausserhofer)

Algorithmen, der persönliche Informationshaushalt und digitale Öffentlichkeiten

1. Eifrig, parteiisch und mächtig: Algorithmen
2. Die Filter Bubble
3. Neue Filter, alter Hut?
4. Die Blase zerplatzen
5. Netzwerke und Informationsguerilla

1. Eifrig, parteiisch und mächtig: Algorithmen

Algorithmen sind die stillen Wegbereiter der Digitalisierung, die unsere Gesellschaft ähnlich deutlich verändert wie es die Industrialisierung im 19. Jahrhundert getan hat[1]. Ohne groß Aufsehen zu erregen, leisten Algorithmen Beachtliches: Sie wetten auf Finanzmärkten, sie schreiben Baseballberichte und helfen uns beim Finden von Spendernieren; sie recherchieren und rezensieren, sie publizieren und archivieren – ganz ohne menschliches Zutun.

Für uns sind Algorithmen Blackboxes. Erst durch ihre Nicht- oder Fehlfunktion wird klar, was ihre Leistung war: Wenn uns Facebook ein relevantes Statusupdate unterschlägt, wenn Google Translate Texte falsch übersetzt oder wenn der E-Mail-Spamfilter versagt, merken wir, welches Handlungspotenzial Algorithmen eingeschrieben ist. Wenn sie funktionieren, agieren sie jedoch fast unbemerkt. Dieser Umstand führt dazu, dass wir die Existenz von Algorithmen allzu oft ausblenden. Nicht verdrängen lässt sich jedoch die Veränderung der Wahrnehmung, die Algorithmen verursachen.

Und diese Wahrnehmungsveränderung ist beträchtlich: Im Netz entscheiden Algorithmen, welche Informationen sie uns präsentieren – und welche nicht. Manchen unserer Aktionen, die sie erfassen können, schreiben sie Relevanz zu – andere werden ignoriert. Algorithmen antizipieren unser Verhalten und wir richten unser Verhalten nach ihren Vorgaben aus[2].

All diese Tätigkeiten passieren mit dem Versprechen von Objektivität: Nicht der fehleranfällige Mensch entscheide, die vorurteilsfreie Maschine bestimme. Doch die Technologie, die das Web antreibt, ist kein neutraler Vermittler zwischen Mensch und Information. Erstens lässt sich Technik nie getrennt von ihrer Benutzung und ihren sozialen Auswirkungen beschreiben[3], zweitens basiert jeder Algorithmus auf einem Code, den eine Person geschrieben hat. Diese Person ist weder objektiv noch ideologiefrei, und ebensowenig ist es ihr Code, der im Web zum Gesetz aufsteigt[4].

2. Die Filter Bubble

Für unseren persönlichen Informationshaushalt, die Öffentlichkeit und (in weiterer Folge) die Demokratie, haben die oben beschriebenen Entwicklungen immense Auswirkungen. Pariser (The Filter Bubble, 2011) erläutert die gesellschaftlichen Konsequenzen von Personalisierungsalgorithmen unter dem Begriff der Filter Bubble[5]. Die Dystopie, die er entwirft, scheint mit jeder unserer Aktionen im Web weiter Realität zu werden. Algorithmen zeichnen fast jeden unserer Schritte im Netz auf: Was wir „googlen“, „liken“, per E-Mail weiterleiten; wo, wann und mit wem wir online verbunden sind. All diese Daten werden gesammelt, um virtuelle „Personae“ von uns zu erstellen, die wiederum als Grundlage für jegliche Informationsfilterung und ‑aufbereitung herangezogen werden. Komplett personalisierte Suchergebnisse, Nachrichtenseiten und Onlineshops sind die Konsequenz davon.

Diese Personalisierung unseres gesamten digitalen Informationsumfelds hat einerseits immense Vorteile: Immer schneller und leichter finden wir genau jene Informationen, Nachrichten und Produkte, die wir suchen; immer besser werden die Empfehlungen, immer angenehmer gestaltet sich das Surfen.

Andererseits bringt sie auch besorgniserregende Nachteile mit sich: Wir verlieren uns in einer Blase, in der uns unsere eigenen Vorlieben und Überzeugungen wieder und wieder vor die Nase gehalten werden. Die Folgen: Entpolitisierung, denn die politischen Menschen predigen zu den ohnehin Überzeugten – und die Unpolitischen bekommen von alledem nichts mit. Wir sehen uns in unseren Ansichten bestätigt, glauben, die Welt da draußen ticke ohnehin schon richtig.

Gegen diese sozialkonstruktivistische Anti-Utopie lassen sich natürlich einige Einwände vorbringen. Etwa, wenn wir in Sozialen Medien zufällig Inhalte entdecken, die wir zuvor nicht gesucht hatten. Wir erleben das immer wieder: In den Social Awareness Stream[6] eines kunstinteressierten Couchpotatos schummelt sich ein Bericht über ein Fußballspiel, weil ihn einer seiner engsten Freunde für teilenswert hielt. Ein nach Restaurantempfehlungen stöbernder Gourmet stolpert über ein gesponsertes Blogpost, in dem das neueste Smartphone beworben wird. Zwei Dinge führen dazu, dass sich diese überraschenden Zufallsentdeckungen („Serendipity“) minimieren. Erstens neigen wir online (ganz so wie auch offline) dazu, mit uns ähnlichen Menschen verbunden zu sein, die ähnliche Inhalte posten, wie wir selbst, zweitens lassen die Personalisierungsalgorithmen zwar Überraschungen zu – aber nur in jenem Ausmaß, das den kleinsten gemeinsamen Nenner aller UserInnen nicht befremden soll. Der Zufall wird so weit wie möglich ausgeschlossen. Dadurch versiegt eine wichtige Quelle für Kreativität, die sich aus Neuem, Fremdem und Unbekanntem speist. Im Extremfall werden uns unsere eigenen Vorstellungen wieder und wieder vorgehalten – nur immer etwas adaptiert und anders formuliert, gerade so, dass wir nicht das Interesse verlieren.

Indem sie UserInnen individualisierte Ergebnisse liefern, befördern Personalisierungsalgorithmen die Zersplitterung von Massenöffentlichkeiten. Das demontiert den Mainstream und ersetzt ihn durch Nischenöffentlichkeiten – mit allen positiven und negativen Folgen: Long Tail und Ausdifferenzierung von Interessen auf der einen Seite, Schwierigkeiten bei der breiten Mobilisierung und gesellschaftliche Zerklüftung auf der anderen.

3. Neue Filter, alter Hut?

Nun ließe sich natürlich einwenden: Diese Kritik an medialen Filtern ist nicht neu. Auch Analogmedien sind mit ähnlichen Argumenten kritisierbar. Schließlich war es immer schon die Aufgabe von Medieninstitutionen, Informationen auszuwählen – und fast nie taten sie das nach transparenten Kriterien. Jede Redaktion, vom Liechtensteiner Vaterland bis hin zu CNN, vom Dagbladet bis zur Antenne Kärnten, sie alle berichten tendenziös. Es werden Nachrichten ausgewählt, die als wichtig erachtet werden, „nach“ denen man sich eben „richten“ sollte.

Der Unterschied zwischen filternden Redaktionen und deren algorithmischen Pendants ist fein, jedoch zentral: Zunächst einmal gab es bis zum Internet niemals individualisierte Massenmedien, bei denen jede NutzerIn etwas anderes zu Gesicht bekam. Weiters haben Redaktionen Redaktionsstatute, ethische Richtlinien und bestehen aus Menschen mit Moral, die bei Regelübertretungen zur Verantwortung gezogen werden können. Algorithmen haben (scheinbar) keine Moral, deren Selektionsregeln wirken vorurteilsfrei und unparteiisch[7]. Die PlattformbetreiberInnen wälzen die Selektionsverantwortung auf UserInnen und InhaltsproduzentInnen ab. Diese würden die Inhalte bereitstellen und verlinken, die Plattformen seien nur das neutrale Werkzeug zur Informationsfilterung. Diese Argumentationsstrategien werden sowohl gegen Zensurvorwürfe als auch gegen Klagen bei Reputationsschädigung eingesetzt – prominente Beispiele sind die Fälle des ehemaligen Formel-1-Präsidenten Max Mosley, der bei Google nicht mehr halbnackt mit Prostituierten und Peitsche gefunden werden wollte[8], und Bettina Wulff, der Ehefrau des früheren deutschen Bundespräsidenten, die ihren Ruf durch die Google-Autovervollständigung gefährdet sah[9]. Die Algorithmen vermitteln hier zwischen Persönlichkeitsschutz auf der einen und Informationsinteresse der Allgemeinheit auf der anderen Seite.

4. Die Blase zerplatzen

Bei aller Kritik an Personalisierungsalgorithmen darf dennoch Folgendes nicht vergessen werden: Der eigene Informationshaushalt könnte im Social Web ohne individuelle Filter nicht bewältigt werden. Stellen Sie sich vor, Sie müssten auf Facebook jeden noch so aufwändig dekorierten Teller ansehen? Oder über jede politische Blähung in China lesen, obwohl Sie doch eigentlich Nachrichten aus Ihrem Heimatort gesucht hatten? Oder Sie bekämen ständig Justin Bieber empfohlen, obgleich Sie doch nichts außer Wagner schätzen. Personalisierungsalgorithmen sind die wichtigsten Informationsvermittler im Web – und als solche müssen wir sie sehen. Dieses Betrachten funktioniert aber nur, wenn die Filter auch wirklich sichtbar sind.

Aus diesem Grund verlangen AktivistInnen seit Jahren eine Offenlegung der Personalisierungsalgorithmen, wie unter anderem Eisenberger (Die Macht der Algorithmen, 2011) und Pariser (The Filter Bubble, 2011) beschreiben. Erste Forderung: Der Quellcode selbst muss einsehbar sein, damit die Auswahlentscheidungen nachvollziehbar werden.

Eine derartige Öffnung bringt indes auch einige Probleme mit sich: Allgemein bekannte einsehbare Selektionskriterien würden Manipulationen Tür und Tor öffnen. Nichts ließe sich leichter manipulieren als ein Ranking, bei dem die Kriterien bis ins letzte Detail bekannt wären.

Das allgemein noch viel gewichtigere Argument gegen die Filtertransparenz allerdings lautet: Algorithmen sind oft das Produkt vieler tausend Stunden Arbeit und die Geschäftsgrundlage zahlreicher Technologieunternehmen. Diese von einem Tag auf den anderen zu veröffentlichen, hätte unabschätzbare wirtschaftliche Folgen.

Zugleich entbehrt es nicht einer gewissen Ironie, dass viele dieser Unternehmen ihr Geschäftsmodell zwar auf dem Sammeln von UserInnendaten aufbauen, selbst aber bei der Herausgabe der eigenen Daten knausern.

Wenn schon nicht die Filter selbst offen gelegt werden, dann sollte also zumindest das Ergebnis ihrer Arbeit einsehbar sein. Standardisierte Kennzeichen könnten UserInnen darauf hinweisen, wenn zuvor ein Personalisierungsfilter am Werk war. Gegen eine Weigerung der Plattformen, derartige Markierungen einzuführen, könnte ein Filter-markierendes Browserplugin Abhilfe schaffen.

Netzwerke wie Twitter und Facebook, bei denen Information vor allem durch Social Awareness Streams aufgenommen werden, sollten (mindestens) zwei Perspektiven auf ihre Daten anbieten: Den ungefilterten Stream, der alle geteilten Inhalte enthält – sowohl den Dreck als auch die Perlen, und einen Stream, der nach nachvollziehbaren Kriterien die Spreu vom Weizen trennt. Schalter, die Personalisierungsalgorithmen an- und abschalten, sind eine weitere Methode zur Filterbubble-Prophylaxe.

Es scheint hingegen illusorisch, an die verantwortliche Verwendung von korrekten Alternativ-Plattformen zu appellieren. Der geringe Erfolg von Diaspora und anderen Plattformen hat gezeigt, dass Kontrolle über die eigenen Daten nur ein Minderheitenmotiv ist, eine Plattform zu verwenden. Weil der Markt die Entwicklung von Informationsoligopolen nicht verhindern kann, wird der Staat mittelfristig regulatorisch eingreifen müssen und die Entwicklung von Alternativ-Plattformen fördern.

5. Netzwerke und Informationsguerilla

Alles andere als weltfremd ist hingegen die Empfehlung, in Social Networks ein großflächiges persönliches Netzwerk aufzubauen – mit möglichst vielen, unterschiedlichen AkteurInnen. Das Aufrechterhalten vieler Verbindungen, zu denen man auch nur schwachen Kontakt hat, hilft dabei, ein vollständigeres Bild von der Welt zu erlangen. Denn wer mit vielen Menschen, Dingen und Institutionen verbunden ist, wird eher Neues erfahren als jene NutzerInnen, die wenige, starke Verbindungen pflegen[10].

Zusätzlich kann man den Personalisierungsfiltern ihre Arbeit erschweren, indem man Taktiken der Informationsguerilla einsetzt: Unterschiedliche BenutzerInnennamen, mehrere Webbrowser und Anonymisierungsdienste zu verwenden und Cookies zu löschen, sind einige der wenigen Methoden, welche die Arbeit der Algorithmen erschweren.

Kennzeichnungen und Offenlegungen, großflächige persönliche Netzwerke und Informationsguerilla, die Strategien zur Filter-Bubble-Vorbeugung müssen auf verschiedenen Ebenen greifen: Einer regulatorischen Ebene, die PlattformbetreiberInnen zu einer NutzerInnenfreundlicheren Informationspolitik zwingt, einer Community-Ebene, die kollektiv gegen Oligopole arbeitet, sowie einer individuellen Ebene, die das persönliche Informationsmanagement verbessert. Die Maßnahmen, die individuell gesetzt werden können, sind unaufwändig – auch wenn sie so manchen Schritt im Netz mühsamer machen. Die positiven Effekte sind es jedenfalls wert.


[1] vgl. Bunz, M. (2012). Die stille Revolution: Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Berlin: Suhrkamp.

[2] vgl. Gillespie, T. (2013, forthcoming). The Relevance of Algorithms. In T. Gillespie, P. Boczkowski, & K. Foot (Eds.), Media Technologies: Paths Forward in Social Research. Cambridge, MA: MIT Press. Retrieved from https://www.tarletongillespie.org/essays/Gillespie%20-%20The%20Relevance%20of%20Algorithms.pdf (Letzter Aufruf: 15.3.2013)

[3] vgl. Latour, B. (2005). Reassembling the Social: An Introduction to Actor-Network-Theory. New York: Oxford University Press.

[4] vgl. Lessig, L. (1999). Code and other laws of cyberspace. New York: Basic Books.

[5] vgl. Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: The Penguin Press.

[6] Naaman, M., Boase, J., & Lai, C.-H. (2010). Is It Really About Me? Message Content in Social Awareness Streams. In Proceedings of the 2010 ACM Conference on Computer Supported Cooperative Work (pp. 189–192). Presented at the CSCW 10, Savannah, Georgia, USA: ACM.

[7] vgl. Eisenberger, I. (2011). Die Macht der Algorithmen: Der Verlust der Öffentlichkeit durch Personalisierung im Netz. Juridikum, (4).

[8] Vgl. Hülsen, I. (2012, August 31). Max Mosley’s Battle against Google Hits the Courts. Spiegel Online. Retrieved from https://www.spiegel.de/international/zeitgeist/max-mosley-sues-google-in-landmark-battle-over-digital-rights-a-853008.html (Letzter Aufruf: 15.3.2013)

[9] vgl. Niggemeier, S. (2012, September 17). Der Verleumdungs-Automat. Der Spiegel, 38. Retrieved from https://www.spiegel.de/spiegel/print/d-88656041.html (Letzter Aufruf: 15.3.2013)

[10] vgl. Granovetter, M. (1973). The Strength of Weak Ties. American Journal of Sociology, 78(6), 1360–1380. / Granovetter, M. (1983). The Strength of Weak Ties: A Network Theory Revisited. Sociological Theory, 1(1), 201–233.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.