Der zweite Index. Suchmaschinen, Personalisierung und Überwachung
Einleitung1
Googles Anspruch ist bekanntermaßen, „die auf der Welt vorhandene Information zu organisieren“. Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 „Andere Religionen“). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten.2 Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen.
Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.
Diese Art der Objektivität hat jedoch ihre inhärenten Schwächen. Der so erstellte Index weiß viel über die Information aus der Sicht der Produzenten, die durch das Setzen von Links die Topologie des Netzwerks schaffen, aber nichts über den Weg eines Suchenden durch die Informationslandschaft. Was auf der aggregierten Ebene der Topologie relevant erscheint, kann auf der Ebene der individuellen Suchinteressen belanglos sein. Dieses Problem wird durch den Umstand verschärft, dass die eigentlichen Kunden der Suchmaschinen, also die Werbetreibenden, ebenfalls wenig Interesse an der Topologie des Netzes haben, sondern vielmehr an den Wegen der Suchenden durch das Netz. Diese zwei Probleme, das eine inhärent in der Aufgabe der Suchmaschinen selbst, das andere die Folge des gewählten Geschäftsmodells, nämlich der Werbung, sind die treibenden Kräfte der Schaffung des zweiten Index. Dieser zweite Index organisiert nicht die Informationen der Welt, sondern die Informationen über die Nutzer. Während der erste Index auf öffentlich verfügbaren Informationen unabhängiger Anbieter beruht, besteht der zweite aus proprietären Informationen, die von den Suchmaschinen selbst erzeugt werden und niemandem sonst zugänglich sind. Durch das Zusammenfügen der beiden Indexe hoffen die Betreiber der Suchmaschinen, ihre Kernaufgaben besser erfüllen zu können: Den Nutzern relevante Ergebnisse zu liefern, und den Werbekunden relevante Nutzer. Im Zuge dieses Bestrebens entwickeln Suchmaschinen ein neues Modell, wie die Information der Welt organisiert wird. Dieses besteht aus zwei Formen der Selbstreferentialität: Einer, die auf der kollektiven Ebene operiert – daraus entsteht ein für alle gleiches Bild der Welt, das (zumindest in seiner Idealversion) aus der Interaktion aller entsteht. Die zweite operiert auf der individuellen Ebene. Daraus entsteht eine einzigartige, persönliche Welt, die aus der eigenen Geschichte gebildet wird. Beide Ebenen sind hochdynamisch und Suchmaschinen versuchen, sie miteinander zu verbinden, um so dem Problem des Informationsüberschusses (zu viele irrelevante Informationen) zu begegnen, mit dem sowohl die Nutzer als auch die Werbekunden ständig konfrontiert sind – erstere, wenn ihnen hunderte von „Treffern“ präsentiert werden, obwohl sie nur an einer Hand voll (oder gar nur einem einzigen) interessiert sind, letztere, wenn sie mit Massen von uninteressierten Menschen zu tun haben, anstatt mit ausgewählten potenziellen Kunden. Zum Problem der Nutzer schreibt Peter Fleischer, der Datenschutzbeauftragte von Google:
Die Entwicklung von personalisierten Suchergebnissen ist unverzichtbar, wenn man in Betracht zieht, wie viel neue Daten täglich online gestellt werden. Die University of California, Berkley, schätzt, dass die Menschheit im Jahr 2002 fünf Exabytes Information erzeugt hat – die doppelte Menge von 1999. Ein Exabyte ist eine Eins mit achtzehn Nullen. In einer Welt der unbegrenzten Information und der begrenzten Zeit können gezielte und persönlichere Ergebnisse durchaus die Lebensqualität der Menschen verbessern.3
Fleischer und andere präsentieren dies meist als einfache Frage der Optimierung – bessere Suchergebnisse und bessere Werbung. Das ist ein Teil der Geschichte, aber nicht die ganze. Diese Entwicklung wirft nämlich eine Reihe schwieriger Fragen auf, die von der allgegenwärtigen Überwachung bis zu einem potenziell weitgehenden Verlust der Autonomie reichen. Wie ist es zu bewerten, wenn ein Nutzer ein Bild der Welt vorgelegt bekommt, das jemand anderer auf der Grundlage von proprietärem Wissen als für ihn geeignet einstuft?
Im Folgenden versuchen wir zuerst eine ungefähre Vorstellung des Umfangs dieses zweiten Index zu erlangen, wie er gerade von Google, dem eifrigsten Sammler solcher Daten, erstellt wird. In Anbetracht der sensiblen und proprietären Art dieses Index liegen dazu keine direkten Angaben vor. Wir können aber die öffentlich sichtbaren Mittel anführen, die eingesetzt werden, um diese Informationen zu sammeln, und damit einen Blick auf die Art dieser Informationen werfen. Auf diesem Überblick aufbauend werden wir einige Aspekte der Überwachung und der Personalisierung diskutieren. Es handelt sich hier nicht um Probleme, die wir einfach durch individuelles Handeln vermeiden können. Der Druck, diesen zweiten Index zu schaffen und zu nutzen, ist real und entspricht auch legitimen Bedürfnissen der Nutzer. Am Ende dieses Beitrags stellen wir daher die Frage, wie diesen Herausforderungen adäquat und angemessen begegnet werden kann.
Daten sammeln
Seit seinen Anfängen hat Google ungeheure Mengen von Daten über seine Nutzer gesammelt. Umfragen haben jedoch gezeigt, dass die meisten Nutzer sich des Umfangs der angehäuften Daten nicht bewusst sind. Manche verstehen Google immer noch als Suchmaschine anstatt als millionenschweres Unternehmen, das mit personalisierter Werbung hohe Profite erwirtschaftet.4
Wir konzentrieren uns hier zwar auf Google, wollen jedoch festhalten, dass es sich im Prinzip nicht von seinen Konkurrenten unterscheidet. Andere Suchmaschinen, etwa Yahoo! und Live verwenden ebenfalls Cookies, um Suchverläufe zu verfolgen, Online-Läden wie Amazon speichern Informationen über die Einkaufsgewohnheiten ihrer Kunden und deren Kreditkartennummern, und soziale Netzwerkplattformen wie Facebook hatten bereits ihre eigenen Datenschutz-Probleme, etwa als die Nutzer bemerkten, dass sie ihre Konten nicht endgültig löschen konnten.5 Cloud-Computing wird auch von Firmen wie Microsoft oder Dell betrieben. Was den Fall Google jedoch zu einem besonderen macht, ist nicht nur die Menge der gesammelten Daten, sondern auch die ungeheure Breite und die hohe Qualität dieser Informationen, sowie die Marktvorherrschaft in den Bereichen Websuche, Werbung und in immer größerem Maße Cloud Computing.
Google setzt eine Vielfalt von Methoden ein, um Daten seiner Nutzer zu sammeln. Das Click-Tracking ermöglicht es Google schon lange, jeden Klick, den irgendjemand auf einem seiner Server macht, aufzuzeichnen. Log-Files speichern jeden Zugriff auf jeden Google-Server, wobei stets Grunddaten wie die IP-Adresse der Nutzer, Ort, Datum, Zeit, Zeitzone, Sprache, Betriebssystem und Browser aufgezeichnet werden (die so genannte „Standard-Loginformation“). Auch darüber hinausgehende Informationen werden an Google übermittelt, und zwar mit Hilfe von Java-Scripts und Web-Beacons, die in die Google-Seiten integriert sind.6 Cookies werden auf allen Google-Seiten verwendet. Ursprünglich sollten diese Cookies mit dem Jahr 2038 ablaufen. 2007 wurde das System jedoch so geändert, dass die derzeit eingesetzten Cookies nur mehr eine Laufzeit von zwei Jahren haben – außer man verwendet Google in dieser Zeit, denn in diesem Fall läuft das Cookie weitere zwei Jahre, womit das Cookie so gut wie kein Ablaufdatum mehr besitzt. Cookies, die Information an Google übermitteln, werden nicht nur auf Googles eigenen Seiten eingesetzt, sondern auch auf scheinbar nicht mit Google verbundenen Seiten, die AdSense, AdWords, Double- Click-Werbung oder das Statistik-Tool Google Analytics verwenden. Die meisten Nutzer, und sogar die meisten Web-Administratoren wissen nichts von den technischen Implikationen dieser Dienste, d.h. dass diese Cookies dem Sammeln von Daten über das Verhalten der Nutzer auf vielen Nicht-Google-Seiten dienen. Neben diesen recht undurchsichtigen Technologien, die nur der technisch versierten Google-Klientel bekannt sind, gibt es auch Datensätze, die die Nutzer selbst anlegen. Die Nutzer füllen freiwillig Formulare aus, um ein Konto zu eröffnen, womit teilweise sehr persönliche Details preisgegeben werden. Genau durch diese Zusammenführung von Informationen von einer Vielzahl von Diensten sowie von Drittparteien ist Google in der Lage, dieses umfangreiche Wissen über seine Nutzer zu sammeln, welches das Unternehmen so mächtig und so attraktiv für Werbekunden macht.
Für analytische Zwecke können wir drei Arten von Profilen unterscheiden, die zusammen ein umfassendes Profil für jeden Nutzer ergeben. Er wird zuerst als „Wissensperson“ beobachtet, mit seinen Interessen und Informationsnutzungsmustern, in einem zweiten Schritt als „soziale Person“, wobei seine realen Identitäten, Kontakte und die Kommunikation mit anderen Nutzern ausgewertet werden. Der letzte Datensatz erfasst den Nutzer schließlich als „physische Person“ im realen Raum.
Die folgende Übersicht ist keineswegs eine vollständige Auflistung der Google-Dienste, allein schon deswegen nicht, weil sich ihre Anzahl ständig vergrößert. Wir gehen jedoch davon aus, dass in der Zukunft hinzugefügte Dienste den Umfang dieser drei Profile noch weiter vergrößern werden.
Profil 1: Die Wissensperson
Der einfache Google-Suchdienst hat von seinen Nutzern nie verlangt, ein Konto zu eröffnen oder von sich aus persönliche Informationen bekannt zu geben. Die Standard-Loginformation wird jedoch immer im Hintergrund aufgenommen. Darüber hinaus erfassen die Google-Server Informationen, die mit der Suchfunktion selbst zu tun haben: Die Suchanfrage, die Sprach-Voreinstellungen, den Ländercode in der Top-Level-Domain (ob also z.B. Google.com oder Google.at genutzt wird), die Ergebnisseiten der Suchmaschine und die Zahl der Suchergebnisse, sowie auch Einstellungen wie safe search (die nicht jugendfreien Content blockieren soll), oder zusätzliche Suchoptionen wie Dateityp und Region.
Mehrere andere Dienste können der gleichen Kategorie zugeordnet werden, erstens weil sie es ihren Nutzern ermöglichen, Web-Content von Drittparteien zu suchen – seien es Webseiten, Zeitschriften, Bücher, Bilder oder Produkte – und zweitens, weil Google sie dafür einsetzt, ähnliche Datensätze über seine Nutzer zu sammeln. Diese Dienste umfassen Google Directory, Image Search, News Search, News Archive Search, Google Scholar, Google Books, Google Video, Blog Search, das von Google gehostete LIFE Foto-Archiv, oder Google Product Search (früher als Froogle bekannt).
Hal Roberts vom Berkman Center for Internet & Society an der Harvard Universität schreibt:
Es ist sogar wahrscheinlich, dass diese Sammlung von Suchbegriffen, IP-Adressen und Cookies die größte und sensibelste existierende Datensammlung ist, sowohl online als auch offline. Egal ob Google sich nun entscheidet, den relativ einfachen Schritt zu tun, der notwendig ist, um aus dieser Sammlung von Suchdaten eine Datenbank mit personenbezogenen Daten herzustellen, es hat jedenfalls die Möglichkeit, personenbezogene Daten aus dieser Sammlung abzurufen, wann immer es will (oder von einer Regierung, einem Eindringling, einem unzufriedenen Mitarbeiter usw. dazu genötigt wird).7
Dienste wie AdSense, AdWords, AdPlanner oder Analytics8 haben Google dabei geholfen, weit über die eigentlichen Google Seiten hinaus zu expandieren: Google Analytics kann auf jeder Webseite kostenlos installiert werden. Google darf aber im Gegenzug Informationen von diesen Seiten sammeln. Schätzungen zufolge ist diese “Software in achtzig Prozent der häufig besuchten deutschsprachigen Internetseiten integriert“.9 Das gleiche Prinzip liegt auch den Werbesystemen Googles zugrunde. Die Besucher von Nicht-Google-Seiten wissen für gewöhnlich nicht, dass ihre Online-Aktivitäten dennoch von Google aufgezeichnet werden können, denn „früher konnten Web-Firmen die Aktivitäten ihrer Kunden nur auf ihren eigenen Seiten überwachen. In den letzten Jahren haben die Internet-Riesen allerdings ihre Reichweite vergrößert, indem sie als Vermittler fungieren, die auf tausenden von Webseiten Anzeigen schalten und damit die Aktivitäten der Menschen auf viel mehr Seiten verfolgen können.“10
Chrome, der neue Web-Browser von Google und ein gutes Beispiel für die Entwicklung der Google-Wolke, muss ebenfalls als Werkzeug zur Herstellung des Wissensprofils von Nutzern gesehen werden, wobei ein zusätzlicher Vorteil darin liegt, dass die Unterscheidung zwischen dem Online- und Offline-Wissen des Nutzers verwischt wird. „Das Design von Chrome schließt die Lücke zwischen dem Desktop und dem so genannten ‚Cloud Computing’. Mit einem einzigen Knopfdruck ermöglicht es Chrome, einen Desktop, ein Menü oder eine Verknüpfung zu jeder beliebigen Webseite oder Web-Applikation anzulegen, womit die Trennung zwischen Online-Information und Information auf dem PC verwischt wird.“11 Die Omnibox-Funktion von Chrome, eine Adressleiste, die wie ein Google-Suchfenster mit automatischer Vorschlagsfunktion funktioniert, zeichnet jedes eingegebene Zeichen auf, auch wenn die Enter-Taste nicht gedrückt wird.12 Auf heftige Kritik antwortete Google, dass die über Tastenanschläge (in Verbindung mit der IP-Adresse) aufgezeichneten Daten innerhalb von 24 Stunden anonymisiert würden.13 Bedenken wurden auch bezüglich der Verlaufs-Suchfunktion von Chrome geäußert, die sensible Nutzerdaten wie persönliche Finanz- und Gesundheitsdaten auf verschlüsselten Seiten (https://) indiziert und speichert.14
Neue Dienste werden eingeführt, um systematisch Daten zu erfassen, die bisher nicht im Nutzerprofil enthalten waren. Dabei können die Grunddaten eines Nutzers mit Informationen über praktisch jeden Aspekt seiner Informationsbedürfnisse angereichert und kombiniert werden: Google-Server überwachen und zeichnen auf, wonach die Nutzer suchen (Google Search, Google Toolbar, Google Web History), welche Webseiten sie besuchen (Google Chrome, Web Accelerator), welche Dateien (Dokumente, E-Mails, Chats, Surf-Verlauf) sie auf ihren Computern haben (Google Desktop), was sie lesen und mit Lesezeichen versehen (Google Books einschließlich personalisierter Bibliothek, Google Notebook, Google Bookmarks, Google Reader), was sie in ihren E-Mails (Gmail) sowie in Arbeitsdateien und persönlichen Dokumenten online (Google Docs) und offline (Google Desktop), in Diskussionsgruppen (Google Groups), Blogs (Blogger) oder Chats (Google Talk) schreiben, was sie übersetzen, und welche Sprachen dabei beteiligt sind (Google Translate).
Profil 2: Die soziale Person
Mit der Entstehung des Web 2.0 wurde klar, dass Nutzer nicht nur einzelne Menschen auf der Suche nach Information sind, sondern auch enge oder lose soziale Bindungen eingehen, sowohl online als offline. Im Zuge des Wachstums der Google-Dienste wurde das Portfolio um personalisierte Programme erweitert, welche die Nutzer als soziale Wesen erfassen.
Das Eröffnen eines Google-Kontos schafft den Nutzern Zugang zu einer Vielzahl von Diensten, von denen die meisten nicht von „außerhalb“ des Kontos verfügbar sind. Wenn man sich entscheidet, das eigene Profil zu bearbeiten, dann umfassen die persönlichen Daten, die Google dem Konto entnimmt, nicht nur die Zahl der Logins, das Passwort und die E-Mail-Adresse, sondern auch den Wohnort, den realen Vor- und Familiennamen, den nick name, die Adresse, weitere E-Mail-Adressen, Telefonnummern, Datum und Ort der Geburt, frühere Wohnorte, den Beruf, gegenwärtige und frühere Beschäftigungsverhältnisse, eine kurze Biografie, Interessen, Fotos, sowie Links zu Online-Fotoalben, Social-Networking-Profilen und persönlichen Webseiten.
Darüber hinaus hat Google früher unabhängige Seiten wie YouTube und Blogger gekauft, womit deren Kontoinformationen automatisch „übersiedelt“ wurden, während überdies weitere soziale Netzwerke wie orkut und Lively, Chat, Calendar, Mobiltelefonie und andere Dienste eingeführt wurden.
Neben dem Monitoring des gesamten Inhalts der Kommunikation (E-Mails, Postings, verschickte und erhaltene Textmitteilungen) speichern Dienste wie Google Groups, Gmail, Google Talk, Friends Connect oder orkut-Store alle externen Texte, Bilder, Fotos, sowie Video- und Audio-Dateien, die hochgeladen werden, aber auch Kontaktlisten und Gruppen, die von einem Nutzer verwaltet werden, Nachrichten oder Themen, die verfolgt wurden, persönliche Seiten, die von einem Nutzer erstellt oder bearbeitet werden, und die vorgenommenen Wertungen. Google-Server zeichnen auch auf, mit wem sich Nutzer vernetzen (orkut), wo, wann und warum sie Freunde und berufliche Kontakte treffen, welche Freunde auf Einladungen reagierten, welche E-Mail-Adressen diese Kontakte haben (Google Calendar), wo sie online einkaufen, welche Produkte sie suchen (Catalog Search, Product Search, Google Store), welche Kreditkarten sie verwenden sowie die Gültigkeitsdauer und Sicherheitsnummern dieser Karten; wo sie einkaufen, ihre Versandadressen, wie viel sie einkaufen und zu welchem Preis, von wem sie etwas kaufen, und auf welche Art die Zahlung erfolgte (Google Checkout, Google Video). Darüber hinaus werden auch Informationen über Aktienportfolios, d.h. die gewählten Aktien, die Anzahl der Aktien eines Nutzers, sowie Datum, Zeit und der Preis des Kaufs aufgenommen (Google Finance).
All diese Dienste senden Information wie Kontoaktivität, Passwörter, Login- Zeiten und –Frequenz, Ort, Volumen und Häufigkeiten von Datenübertragungen, bevorzugte Einstellungen und alle Klicks, einschließlich UI-Elementen, Anzeigen und Links. All diese Information wird in der Folge gesichert und in den Google-Logdateien gespeichert. Das systematische Beobachten der sozialen Interaktionen gibt Google die Möglichkeit, immer genauere persönliche Datenprofile anzulegen. Hier muss festgehalten werden, dass Google anfänglich bestritt, Daten aus seinen verschiedenen Diensten miteinander zu verknüpfen, oder dies zu planen.15 Im Jahr 2004 wurde Google durch ein kalifornisches Gesetz gezwungen, seine Datenschutzpraktiken verständlicher zu machen.16 Seitdem weist Google darauf hin: „Wir kombinieren unter Umständen die von Ihnen eingeholten Informationen mit denen von anderen Google-Services oder Drittanbietern, um die Nutzererfahrung zu optimieren, einschließlich der Anpassung von Inhalten an Ihre Anforderungen.“17
Profil 3: Die physische Person
Um Werbung wirksamer zu machen, wird im Zuge der Konstruktion des Nutzers zunehmend versucht, Informationen über Menschen als körperliche Personen und als Handelnde in der realen Umgebung zu erfassen. Um diese Daten dem wuchernden zweiten Index hinzuzufügen, sammelt Google scheinbar beliebige Informationen wie z.B. Blutgruppe, Körpergewicht, Größe, Allergien, Impfungen, und die gesamte Krankengeschichte von Nutzern, aber auch Unterlagen über ärztliche Behandlungen, Leiden, Verschreibungen, Verfahren und Testergebnisse (Google Health). Außerdem weiß Google bereits, wo seine Nutzer wohnen (Google-Konto, Google Checkout, voreingestellter Ort bei Google Maps), wohin sie unterwegs sind (Google Maps), welche Orte sie mögen (kommentierte Karten mit Fotos und Anmerkungen zu „Lieblingsplätzen“ in Google Maps), wie ihr Haus aussieht (Satellitenfunktion von Google Maps, Google Street View), welchen Mobiltelefon-Provider und welche Mobiltelefone sie haben, und wo sie diese benutzen (Dodgeball, GrandCentral, G1/Android, MyLocation).
Neue datenreiche Quellen werden durch Mobiltelefone erschlossen, die den Surfverlauf ihres Eigentümers ebenso speichern wie sensible persönliche Daten, die eine Identifikation ermöglichen. Android, die neue Mobiltelefonie-Plattform von Google, bietet Applikationen wie Google Latitude und My Location, die eingesetzt werden, um den Standort des Nutzers zu bestimmen. MyTracks wird verwendet, um Nutzer über längere Zeiträume hinweg zu tracken.18 Für Google wird es damit möglich, noch präzisere Konsumentenprofile zu erstellen. Durch geo-spezifische Anzeigen öffnet Google seinen Anzeigekunden eine potentielle Goldmine.19 Der Ausflug in die Mobiltelefonie ermöglicht Google, spezifische Daten zu erheben, die später mit einem Google-Konto oder einer anderen Konto-Identifikation verknüpft werden können. Datenschutzgruppen haben auf das Problem hingewiesen, dass auf nutzerspezifische Ortsdaten ohne das Wissen und das Einverständnis des Nutzers auch von Drittparteien zugegriffen werden kann, sodass er womöglich nie erfährt, dass er getrackt wird,20 und gewöhnliche Mobiltelefone zu nützlichen Werkzeugen der Personenüberwachung werden.21
Die Entwicklung von Android ist vielleicht das anschaulichste Beispiel dafür, wie viel Ressourcen Google zu investieren bereit ist, um sich Zugang zu Daten für seinen zweiten Index zu verschaffen bzw. solche Daten zu generieren. Eine vollständige Kommunikationsinfrastruktur wird auf das Sammeln von Daten und auf persönliche Dienste optimiert, wobei letztere auch eine weitere Form des Datensammelns darstellen.
Google sammelt also systematisch Daten, um Profile anzulegen, welche über die Wissensinteressen, das soziale Verhalten und die physische Existenz von Menschen Aufschluss geben. Außenstehende können die Verfahren, mit denen diese Daten gesammelt werden, nur beobachten, was Rückschlüsse auf den Umfang dieses zweiten Index zulässt. Wir wissen nicht, was genau mit diesen Daten gemacht wird, und noch weniger, was mit ihnen in der Zukunft gemacht werden könnte. Wir können allerdings sehr wohl einige Problemfelder bewerten, die sich allein aus der Existenz dieses Index und den öffentlich bekannten Nutzungsabsichten ergeben.
Überwachung und Personalisierung
In Anbetracht des Umfangs und des Detailreichtums der von Google (und anderen Suchmaschinen) gesammelten persönlichen Informationen ist es klar, dass hier bedeutende Überwachungskapazitäten geschaffen werden, die im Hinblick auf Datenschutz und informationelle Selbstbestimmung zur Sorge Anlass geben. Um dieses Überwachungspotenzial jedoch genauer zu verstehen, ist es wichtig, drei Arten der Überwachung zu unterscheiden. Diese sind zwar alle für Suchmaschinen relevant, allerdings sehr unterschiedlich strukturiert und jeweils anderen Dynamiken unterworfen. Da ist die Überwachung im klassischen Sinne von Orwells „Big Brother“, die von einem Zentralorgan mit direkter Macht über die überwachte Person ausgeübt wird, etwa vom Staat oder dem Arbeitgeber. Dann gibt es eine Überwachung im Sinne der wachsenden Möglichkeiten verschiedener sozialer Akteure, einander zu beobachten. Diese Möglichkeiten beruhen auf einer verteilten Überwachungsinfrastruktur, in der die Rollen der Beobachter und der Beobachteten ständig wechseln. Und schließlich gibt es die Überwachung im Sinne des sozialen Sortierens, d.h. des Codierens von persönlichen Daten in Kategorien, um Einzelpersonen oder Gruppen jeweils unterschiedlich behandeln zu können.22
Im ersten Fall setzen mächtige Institutionen Mittel der Überwachung ein, um ihre Macht auf ungerechtfertigte Weise auszuüben und zu vermehren. Suchmaschinen haben jedoch keine direkte Macht über die Nutzer, die sie missbrauchen könnten. Wenn man davon ausgeht, dass sie ein Interesse an ihrem guten Ruf haben und die Daten des zweiten Index nicht an Drittparteien weitergeben, dann sind ihre Überwachungsmöglichkeiten in diesem ersten Sinn relativ harmlos. Natürlich ist diese Annahme sehr fragwürdig. Komplexe Informationssysteme sind immer für technische und menschliche Fehler anfällig. Große Datenbestände gehen regelmäßig verloren, werden unbeabsichtigt veröffentlicht, oder illegal verwendet. Wie sensibel diese Daten sind, wurde im August 2006 deutlich, als AOL die Suchanfragen von 650.000 Personen veröffentlichte. Obwohl die Suchgeschichten anonymisiert waren, ermöglichte die sehr persönliche Art dieser Daten die Identifikation betroffener Nutzer.23 Wir können davon ausgehen, dass große Suchmaschinenbetreiber umfangreiche Regeln und Verfahren haben, die ihre Daten schützen, womit die Wahrscheinlichkeit von ungewollten Vorfällen und Sicherheitsverstößen sinkt. Die starke Konzentration dieser Daten macht jedoch jeden Vorfall umso folgenreicher. Besonders problematisch ist jedoch die Anziehungskraft, die alleine die Existenz derartig extensiver Überwachungskapazitäten ausübt. Angesichts des unstillbaren Verlangens von Konkurrenten (etwa in Rechtsstreitigkeiten), Exekutive und nationalen Sicherheitsdiensten, wird es unweigerlich zu Forderungen kommen, diese Daten zugänglich zu machen. Solche Forderungen hat es ja auch schon gegeben. Im August 2005 erhielten alle großen Suchmaschinenbetreiber in den USA im Zusammenhang mit der Prüfung eines Gesetzes über Online-Pornografie eine gerichtliche Verfügung, die Aufzeichnungen über Millionen von Nutzeranfragen zu übergeben. Google war damals der einzige Provider, der sich weigerte, diese Daten auszuhändigen. Obwohl dies der einzig öffentlich gewordene Fall dieser Art ist, ist es sehr unwahrscheinlich, dass es sich hier um die einzige solche Anfrage handelte. Die erweiterten Befugnisse der Sicherheitsdienste und die großen Datenbestände von Suchmaschinen werden wohl auf die eine oder andere Art zusammenfinden. Historisch war die Zusammenarbeit zwischen Telekom-Gesellschaften und nationalen Sicherheitsdiensten oft eng und umfangreich. Groß angelegte Überwachungsprogramme, wie zum Beispiel ECHELON, wären ohne die Mitarbeit der Privatwirtschaft unmöglich gewesen.24 Es ist also gut möglich, dass Suchmaschinen bereits mithelfen, die Big-Brother-Überwachungskapazitäten des Staates, besonders der US-Regierung, zu erweitern.
Eine weitere, nicht so offensichtliche Wirkung der Überwachung wurde zuerst von Jeremy Bentham für seinen Entwurf einer Strafanstalt (1785) verwendet, und später von Michel Foucault als eine allgemeine Technik des Regierens theoretisiert. In einem Panoptikon, einem Ort, wo alles von einer unsichtbaren Autorität gesehen werden kann, wirkt sich bereits die Erwartung des Überwacht- Werdens auf das Verhalten der Überwachten aus. Es wird normalisiert. Das heißt, Verhaltensmuster, die als „normal“ gelten, werden befolgt, weil man weiß, dass die Autorität „abnormales Verhalten“ entdecken und bestrafen kann.25 Dieser Effekt wurde etwa im Zusammenhang mit Videoüberwachung auf Straßen und Plätzen nachgewiesen. Im Fall der Suchmaschinen liegen die Dinge allerdings anders, da die Beobachtung nicht von einer zentralen Stelle ausgeht; vielmehr gibt die Suchmaschine allen die Möglichkeit, sich im Zentrum zu positionieren und zu beobachten, ohne beobachtet zu werden (zumindest nicht von der Person, die beobachtet wird). Die Grenze zwischen privat und öffentlich wird im Web verwischt, und es ist anzunehmen, dass dies Verhalten beeinflussen wird. Es ist jedoch viel zu früh, irgendetwas Allgemeines über die Auswirkungen dieser Entwicklung zu sagen, nicht zuletzt deswegen, weil diese Überwachung nicht versucht, einheitliche normative Standards durchzusetzen. Es ist daher nicht klar, was Normalisierung unter diesen Umständen bedeutet. Allerdings hat dies nichts mit der Überwachung zu tun, die von den Suchmaschinen im Hintergrund durchgeführt wird, sondern vielmehr mit ihrer offensichtlichen Funktion, Information aller Art zugänglich zu machen, und mit der Bereitschaft der Menschen, persönliche Informationen zu veröffentlichen.
Was den zweiten Index indessen auszeichnet, ist die letzte der angeführten Dimensionen der Überwachung, nämlich das soziale Sortieren. David Lyon entwickelt diesen Begriff wie folgt:
Codes, meist von Computern verarbeitet, sortieren Transaktionen, Interaktionen, Besuche, Anrufe und andere Aktivitäten. Sie sind unsichtbare Türen, die den Zugang zu einer Myriade verschiedener Ereignisse, Erfahrungen und Vorgängen ermöglichen, oder diesen verschließen. Die so entstehenden Klassifizierungen haben den Zweck, Bevölkerungsgruppen und Einzelpersonen zu beeinflussen und zu verwalten, wodurch sie direkt und indirekt in die Wahlmöglichkeiten und Lebenschancen der Datensubjekte eingreifen.26
Anstatt alle gleich zu behandeln, ermöglicht das soziale Sortieren die Zuordnung von Menschen zu Gruppen, welche jeweils anders behandelt werden, um deren Verhaltensweisen zu unterstützen, zu behindern oder zu verändern. Im Fall der Suchmaschinen zeigt sich dies als Personalisierung. Wie David Lyon betont, darf dabei nicht übersehen werden, dass „Überwachung nicht von sich aus böse ist, genau so wenig wie Diskriminierung an sich schädlich ist.“27 Der Grundgedanke der Personalisierung ist schließlich, die Suchergebnisse zu verbessern. Die Personalisierung ermöglicht eine Reihung der Ergebnisse nach individuellen Präferenzen anstatt nach der Topologie des Netzwerks. Die Personalisierung der Suche ist Teil eines größeren Trends in der Informationsökonomie zur „Massenindividualisierung“, bei der jeder Nutzer den – berechtigten oder unberechtigten – Eindruck erhält, als einzigartige Person innerhalb von Produktionssystemen behandelt zu werden, die immer noch auf Massenproduktion aufbauen.
Technisch handelt es sich um eine sehr schwierige Aufgabe, für die ungeheure Mengen persönlicher Daten benötigt werden, welche, wie wir gesehen haben, in umfassender und systematischer Weise gesammelt werden. In Bezug auf diese Daten wird häufig eine Unterscheidung vorgenommen zwischen jenen, die eine einzelne Person beschreiben, und jenen, die „anonymisiert“ und auf der Grundlage irgendwelcher Kriterien in Gruppen zusammengefasst werden. Diese Unterscheidung spielt in der öffentlichen Debatte eine wichtige Rolle. Im September 2008 etwa kündigte Google an, Daten der Nutzer besser zu schützen, indem sie nach neun anstatt 18 Monaten „gelöscht“ (d.h. anonymisiert) würden. Dies führte zur Frage, wie leicht es für Google oder Drittparteien wäre, diese Anonymisierung rückgängig zu machen.28 Die den Nutzern zur Verfügung stehenden Optionen sind hier wenig hilfreich. In manchen Fällen bietet Google die Option, Cookies zu deaktivieren, oder den „Incognito“-Modus von Chrome zu benutzen (umgangssprachlich als „Porno-Modus“ bezeichnet). Die entsprechenden Anleitungen sind jedoch gut versteckt, schwierig anzuwenden, und in der Praxis nur für technisch versierte Nutzer relevant. Der US-Konsumentenschutzverein Consumer Watchdog hat außerdem darauf hingewiesen, dass „der Incognito-Modus von Chrome nicht den Schutz der Privatsphäre bietet, auf den der Name schließen ließe“, da die Identität des Nutzers nicht wirklich ausgeblendet wird.29 Dabei darf nicht übersehen werden, dass selbst dann, wenn Google wirksame Verfahren zur Anonymisierung einsetzt, dies nur auf die Überwachung im Sinne des personalisierten Trackings Auswirkungen hat. Für den Schutz vor sozialem Sortieren ist dies so gut wie belanglos. Die Möglichkeit, eine praktisch unbegrenzte Zahl „anonymisierter“ Gruppen zu erzeugen und Einzelpersonen mit diesen Gruppen zu verbinden, integriert in der Praxis die anonymisierten und persönlichen Daten. Wenn die Gruppen feinkörnig konstruiert sind, dann ist nicht mehr als die Zuordnung einer Person zu einer Gruppe vonnöten, um wirksames soziales Sortieren zu betreiben. Sean P. Hier weist deshalb darauf hin, dass nicht die „persönliche Identität des verkörperten Individuums das vorrangige Thema ist, sondern vielmehr das statistische oder kategoriale Profil des Kollektivs“. 30 Aus dieser Sicht ist die Behauptung Googles, den Datenschutz durch Anonymisierung zu verbessern, zutiefst irreführend.
Wie praktisch alle Aspekte der zunehmenden Macht der Suchmaschinen ist auch die Personalisierung zutiefst ambivalent in ihren sozialen Auswirkungen. Sie verspricht eine verbesserte Qualität der Suche und eine größere Autonomie der Nutzer durch die Bereitstellung jener Informationen, die tatsächlich benötigt werden. Falls das funktioniert, wäre das keine geringe Leistung. Indem die Abhängigkeit von der Netzwerkstopologie vermindert wird, kann die Personalisierung auch dazu beitragen, einen Kritikpunkt zu entkräften, der häufig gegen die aktuellen Ranking-Verfahren vorgebracht wird, nämlich dass sie populäre Inhalte begünstigen und damit bereits dominante Meinungen auf Kosten marginaler Positionen noch weiter stärken.31 Anstatt sich darauf abzustützen, was die Mehrheit für wichtig hält, können Suchmaschinen die spezifischen Interessen jedes Nutzers berücksichtigen und damit Quellen erschließen, die für ein breiteres Publikum womöglich wenig relevant, für die jeweils spezifische Nutzergruppe aber wichtig sind. Das Ergebnis wäre ein besserer Zugang zu marginalen Quellen für Menschen, von denen ein vertieftes Interesse am jeweiligen Themenbereich angenommen wird.
So weit, so gut. Aber wo verläuft die Grenze zwischen der Unterstützung spezifischer Interessen und der systematischen Beeinflussung des Verhaltens einer Person, wenn ihr eine Sichtweise angetragen wird, die das Ergebnis fremder Kriterien ist? Wie beim sozialen Sortieren im Allgemeinen stellt sich auch hier die Frage, ob Personalisierung die persönliche Autonomie stärkt oder vermindert. Der Rechtswissenschaftler Frank Pasquale stellt das Problem wie folgt dar:
Autonomie, die etwas bedeutet, erfordert mehr als die bloße Abwesenheit von externen Einschränkungen, wenn ein Mensch eine Wahl getroffen hat und entsprechend handelt. Autonomie benötigt zumindest eine sinnvolle Vielfalt von Wahlmöglichkeiten, Information über den relevanten Stand der Welt und diese Alternativen. Sie setzt auch die Möglichkeit, diese Information zu bewerten, und die Fähigkeit, eine Wahl zu treffen, voraus. Wenn A das Fenster kontrolliert, durch welches B die Welt sieht – wenn er systematisch Macht über die relevanten Informationen über die Welt und die verfügbaren Alternativen, die B erreichen, ausübt – dann wird die Autonomie von B dadurch eingeschränkt. Informationsflüsse in einer Art und Weise zu kontrollieren, welche die Wahlmöglichkeiten einschränkt, bedeutet, die Autonomie dieser Person zu begrenzen, ob diese Person nun getäuscht wird oder nicht.32
Sogar im günstigsten Fall wäre die Personalisierung also eine gleichzeitige Stärkung und Schwächung der Autonomie der Nutzer. Sie stärkt die Autonomie, weil sie Information verfügbar macht, die sonst schwer zu finden wäre. Sie verbessert, so die Behauptung, die Qualität der Suche. Sie schwächt aber die Autonomie auch, weil sie die Nutzer sanft in eine Abhängigkeit vom eigenen Suchverlauf bringt, der niemals der persönlichen Lebensgeschichte adäquat entsprechen kann, sondern vielmehr jene Aspekte stärkt, die von einer Suchmaschine erfasst und anhand von Annahmen, die dem Personalisierungs-Algorithmus eingeschrieben sind, interpretiert werden können. Die Differenzen zwischen der personalisierten und der nicht-personalisierten Version der Suchergebnisse sind, wie Google immer wieder betont, am Anfang kaum wahrnehmbar, aber nehmen mit der Zeit zu. Eine zweite Schicht der Intransparenz, jene des Personalisierungs- Algorithmus, wird über die Intransparenz des allgemeinen Suchalgorithmus gelegt. Natürlich soll es jederzeit möglich sein, sich von der Personalisierung abzumelden, indem man sich einfach von seinem Konto abmeldet. Doch die ständig zunehmende Vielfalt an Diensten, die mit einem einheitlichen Log-in zugänglich sind, arbeitet aktiv gegen diese Möglichkeit. Wie in anderen Bereichen wird der Schutz der eigenen Privatsphäre und der informationellen Selbstbestimmung eine mühsame Angelegenheit, die nur wenige auf sich nehmen werden, besonders in Anbetracht der ausbleibenden direkten negativen Konsequenzen, falls man es nicht tut.
Wir leben wohl kaum in der besten aller Welten. Die vorrangige Loyalität der Suchmaschinen, das muss noch einmal festgehalten werden, gilt nicht den Nutzern, sondern den Werbekunden. Gewiss, Suchmaschinen müssen Nutzer anziehen und halten, um für Werbekunden interessant zu werden, doch das Beispiel des kommerziellen Fernsehens zeigt, dass dies nicht bedeutet, dass die Interessen der Nutzer immer im Vordergrund stehen.
Die Grenze zwischen einer aktiven Unterstützung von individuellen Nutzern in ihrer Suche auf der einen Seite, und der Manipulation der Nutzer durch bewusst einseitige Ergebnisse ist undeutlich, nicht zuletzt deshalb, weil wir von Suchmaschinen ja erwarten, dass sie einseitig sind und klar zwischen relevanter und irrelevanter Information unterscheiden. In diesem Zusammenhang gibt es mit der Personalisierung zwei Hauptprobleme. Einerseits haben Personalisierungs- Algorithmen eine beschränkte Vorstellung von unserem Leben. Nur ausgewählte Aspekte unseres Verhaltens werden registriert (nämlich jene, die an zugänglichen Orten Spuren hinterlassen), und die Algorithmen wenden auf diese Daten ihre eigenen Interpretationen an, die auf der vorherrschenden Weltsicht, den technischen Möglichkeiten und den jeweiligen Zielen der Firmen beruhen, welche sie einsetzen. Andererseits macht die Personalisierung Suchmaschinen praktisch immun gegen eine systematische, kritische Bewertung, weil unklar wird, ob das Erscheinen (oder Verschwinden) einer Quelle ein Feature ist (eine richtig durchgeführte Personalisierung) oder ein Bug (Zensur oder Manipulation).
Der Vergleich von Ergebnissen zwischen Nutzern über einen Zeitraum hinweg wird wenig darüber aussagen, wie Suchmaschinen ihre Ranking-Technologien einstellen, da jeder Nutzer verschiedene Ergebnisse haben wird. Dies wird ein bereits bestehendes Problem weiter verschärfen: Dass es unmöglich ist, festzustellen, ob das Ranking von Ergebnissen sich aufgrund von aggregierten Veränderungen in der Netztopologie ändert, oder aufgrund von Veränderungen der Ranking-Algorithmen; im letzteren Fall, ob diese Veränderungen einfach der Qualitätsverbesserungen dienen sollen, oder Versuche sind, ungehöriges Verhalten zu bestrafen.33 Letztlich wird alles zu einer Frage des Vertrauens und der Nützlichkeit. Das Problem mit dem Vertrauen liegt angesichts der Undurchdringlichkeit der Ranking- und Personalisierungsalgorithmen darin, dass es kaum eine Grundlage gibt, ein solches Vertrauen zu bewerten. Zumindest aber ist es etwas, was kollektiv hergestellt wird. Ein Bruch dieses Vertrauens wird, auch wenn er nur eine kleine Gruppe von Nutzern betrifft, das Vertrauen aller in den jeweiligen Dienst vermindern. Nützlichkeit ist andererseits ein praktischer Maßstab. Alle können selbst entscheiden, ob Suchergebnisse relevant sind oder nicht. In einer mit Information übersättigten Umgebung wird allerdings selbst eine stark zensurierte Suche viel mehr Ergebnisse liefern, als irgendjemand verarbeiten könnte. Wenn also ein Nutzer keine Vorkenntnisse des betreffenden Themenbereichs hat, kann er nicht wissen, was nicht enthalten ist. Daher sehen Suchergebnisse immer unglaublich relevant aus, selbst wenn sie viel relevantes Material auslassen.34
Mit der Personalisierung betreten wir Neuland, sowohl im Sinne sich neu eröffnender Möglichkeiten, als auch im Sinne von neuen Einschränkungen. Wir wissen einfach nicht, ob sie zu einer größeren Vielfalt von Informationsanbietern führen wird, die sichtbar werden, oder ob sie kaum wahrnehmbare, aber tiefe Veränderungen in der Welt, die wir sehen können, bewirkt, wenn Suchmaschinen einen Filter anwenden, der nicht unserem eigenen entspricht. Angesichts des extremen Machtgefälles zwischen einzelnen Nutzern und den Suchmaschinen ist es allerdings keine Frage, wer in der Lage ist, die eigenen Ziele durchzusetzen.
Die Reaktionen auf die Debatten um diese drei verschiedenen Formen der Überwachung durch Suchmaschinen dürften sehr verschieden ausfallen. Dazu David Lyon:
Paradoxerweise kann das harte Ende des panoptischen Spektrums Momente der Verweigerung und des Widerstands hervorrufen, die gegen die Produktion gehorsamer Körper gerichtet sind, während das weiche Ende die Betroffenen offenbar zu einem unglaublich angepassten Verhalten verführt, dessen sie sich kaum bewusst sind.35
In unserem Kontext gehört die durch Suchmaschinen erleichterte staatliche Überwachung zum harten Ende und die Personalisierung zum weichen, wo Überwachung und Fürsorge, die ent- und die ermächtigende Funktion des sozialen Sortierens schwer auseinander zu halten sind und daher der Manipulation Tür und Tor öffnen.
Schluss
Suchmaschinen haben sich das äußert ehrgeizige Ziel gesetzt, die Information der Welt zu organisieren. Je tiefer wir uns in dynamische, informationsintensive Umgebungen hinein bewegen, desto mehr nimmt ihre Wichtigkeit zu. Um die Begrenzungen einer allgemeinen topologischen Organisation der Information zu überwinden und einen personalisierten Zugang zu schaffen, wird ein neues Modell der Welt erzeugt, demzufolge nicht nur jedes Individuum einzigartig ist, sondern auch jedes in einer einzigartigen Welt lebt. Um dies umzusetzen, benötigen Suchmaschinen eine praktisch unbegrenzte Menge an Informationen über ihre Nutzer. Wie wir gezeigt haben, werden Daten systematisch gesammelt, um Profile über Nutzer auf drei verschiedenen Ebenen anzulegen: als Wissensperson, als soziale Person, und als verkörperte Person. Neue Dienste werden entwickelt, um noch mehr Daten zu gewinnen und damit die verbleibenden Lücken in diesen Profilen zu schließen. In ihrer Gesamtheit erzeugt all diese Information das, was wir den zweiten Index nennen – einen geschlossenen, proprietären Datenbestand über die Nutzer der „auf der Welt vorhandenen Informationen“.
Während wir das Potenzial personalisierter Dienste anerkennen – in Anbetracht der goldenen Zukunft der perfekten Suche, die von den Anbietern lautstark verkündet wird, wäre dies auch schwer zu übersehen – halten wir es dennoch für nötig, die problematischen Dimensionen dieses zweiten Index hervorzuheben. Erstens erzeugt alleine die Speicherung derartig riesiger Datenmengen eine Nachfrage nach Zugang, sowohl innerhalb als auch außerhalb der sammelnden Institution. Manche dieser Forderungen werden öffentlich über das Gerichtssystem erhoben, andere außerhalb der Öffentlichkeit. Dies ist gewiss keine Problematik, die auf Suchmaschinen beschränkt wäre, sondern sie betrifft alle Organisationen, die große Mengen von persönlicher Information speichern, und die bruchstückhaften Datenschutzbestimmungen, denen sie unterliegen. Diese Expansion von Überwachungstechnologie erfordert eine Stärkung der Datenschutzgesetze, aber auch eine Stärkung der parlamentarischen Kontrolle der Exekutivorgane des Staates.
Zweitens beruht die Personalisierung unweigerlich auf einem verzerrten Bild der individuellen Nutzer. Eine Suchmaschine kann einen Menschen niemals im sozialen Sinn „kennen“. Sie kann nur Daten zusammenstellen, die mit ihren spezifischen Methoden erfasst werden können. Das von der Suchmaschine hergestellte Bild ist nicht umfassend, sondern extrem detailliert in manchen Bereichen und äußerst lückenhaft in anderen. Dies ist besonders problematisch angesichts der Tatsache, dass dieser zweite Index erstellt wird, um den Interessen der Anzeigenkunden zumindest in dem Maße zu dienen wie jenen der Nutzer. Jeder Schluss, der aus diesem unvollständigen Bild gezogen wird, wird immer teilweise unrichtig sein und daher jenen Verhaltensweisen Vorschub leisten, die der Datenerfassung entgegenkommen, während andere Verhaltensweisen unterdrückt werden. Drittens wird das Problem der Einseitigkeit der Daten durch die Einseitigkeit in der Interpretation noch weiter verschärft. Die Fehler können dabei schwerer oder leichter erkennbar sein. Google Reader führte zum Beispiel im Dezember 2007 eine neue Funktion ein, die automatisch alle Inhalte des Readers mit der eigenen Kontaktliste in Google Talk und Gmail verlinkte. Wie der User banzaimonkey in einem Posting erklärte: „Ich glaube der Grundfehler ist hier [...], dass die Menschen auf meiner Kontaktliste nicht notwendigerweise meine ‚Freunde’ sind. Ich habe Geschäftskontakte, Schulkontakte, Familienkontakte, usw., und ich habe nicht nur keinerlei Interesse daran, all ihre Feed-Informationen zu sehen, ich möchte auch nicht, dass sie meine sehen.“36 Die vereinfachende Interpretation der Daten – alle Kontakte sind Freunde und alle Freunde sind gleich – erwies sich also als grundfalsch. Allein die Annahme, Daten seien leicht zu interpretieren, kann zutiefst irreführend sein, und das gilt auch für die simple Annahme, dass Nutzer nur nach Informationen suchen, an denen sie selbst (und nicht jemand anderer) interessiert sind. Wir tun häufig etwas für andere Menschen. Die sozialen Grenzen zwischen den einzelnen Personen sind nicht so klar gezogen.
Schließlich verschärft die Personalisierung das bestehende Kräfteungleichgewicht zwischen Suchmaschinen und individuellen Nutzern noch weiter. Wenn die Suchmaschinen der Zukunft von der Annahme ausgehen, jedermanns Welt sei anders, wird sich das nachteilig auf die Kollektivität unserer Welterfahrung, insbesondere in Bezug auf Suchmaschinen selbst, auswirken. Wir werden alle gezwungen sein, einem System zu trauen, das sich unserem Verständnis immer weiter entzieht, und wir werden dies auf der Grundlage der Zweckmäßigkeit der Suchergebnisse tun müssen, was im Kontext des Informationsüberschusses kein verlässliches Kriterium darstellt.
Es wäre sicherlich ebenso kurzsichtig wie unrealistisch, das Potenzial der Personalisierung gänzlich ungenutzt zu lassen. Doch die Grundlage, auf der wir diesen Diensten trauen können, muss verbreitert werden. Personalisierte, individualisierte Erfahrung ist nicht genug. Wir brauchen kollektive Mittel der Aufsicht. Manche dieser Mittel werden neue Regulierung benötigen. In der Vergangenheit war rechtlicher und gesellschaftlicher Druck nötig, um Firmen dazu zu zwingen, den Verbrauchern Rechte zuzugestehen. Google ist keine Ausnahme. Derzeit ist seine Datenschutzpolitik intransparent und bedeutet für Google selbst keine besonderen Einschränkungen. Der Umstand, dass die verschiedenen Datenschutzerklärungen des Unternehmens schwer zu finden sind, und dass es sehr schwer ist, ihre Entwicklung historisch nachzuverfolgen, dürfte kein Versehen sein – besonders da Googles selbsterklärtes Ziel ja darin besteht, die Information der Welt zu organisieren und den Nutzern leichter zugänglich zu machen.
Doch Regulierung ist oftmals langsam und öffentliche Kritik kann nur auf das reagieren, was bereits geschehen ist. Beides ist angesichts der Dynamik dieses Bereichs unzureichend. Wir brauchen also auch Mittel, die sich an Open- Source-Verfahren orientieren, wo Akteure mit heterogenen Wertesystemen die Mittel haben, die Funktionsgrundlagen eines Systems vollständig zu analysieren. Blindes Vertrauen und der gefällige Slogan Don’t be evil reichen nicht aus, um unsere Freiheit und Autonomie zu gewährleisten.
Anmerkungen
1 Alle Links wurden am 25. März 2009 aufgerufen. Eine ausführlichere Liste der Fußnoten, einschließlich der Links zu Google-Datenschutzseiten, ist auf unserer Webseite unter http://worldinformation. org/wii/deep_search/ zu finden.
2 Shirky, Clay. „Ontology is Overrated: Categories, Links, and Tag“ shirky.com (2005) http://shirky. com/writings/ontology_overrated.html
3 Fleischer, Peter. „Google’s search policy puts the user in charge“ FT.com (25. Mai 2007)
4 Electronic Privacy Information Center. „Search Engine Privacy“ (3. Februar 2009). http://epic. org/privacy/search_engine
5 Aspan, Maria. „How Sticky Is Membership on Facebook? Just Try Breaking Free.“ NYT.com, (11. Februar 2008)
6 Dover, Danny. „The Evil Side of Google? Exploring Google’s User Data Collection“ SEOmoz.org, (24. Juni 2008). http://www.seomoz.org/blog/the-evil-side-of-google-exploring-googles-userdata- collection#list
7 Roberts, Hal. „Google Privacy Videos“ Harvard Law blogs (6. März 2008). http://blogs.law.harvard. edu/hroberts/2008/03/06/google-watching-personal-data-collection/
8 Bogatin, Donna. „Google Analytics: Should Google be minding YOUR Web business?“ ZDNet blogs, (9. Mai 2007). http://blogs.zdnet.com/micro-markets/?p=1324
9 Bonstein, Julia, Marcel Rosenbach und Hilmar Schmundt. „Data Mining You to Death: Does Google Know Too Much?“ Spiegel Online International, (30. Oktober 2008). http://www.spiegel. de/international/germany/0,1518,587546,00.html 10 Story, Louise. „To Aim Ads, Web Is Keeping Closer Eye on You.“ NYT.com, (10. März 2008).
11 Mediati, Nick. „Google’s streamlined and speedy browser offers strong integrated search and an intriguing alternative to Firefox and Internet Explorer.“ PCWorld.com, (12. Dezember 2008). www.pcworld.com/article/150579/google_chrome_web_browser.html
12 Fried, Ina. „Google’s Omnibox could be Pandora’s box“. CNet.com (3. September 2008) http://news.cnet.com/8301-13860_3-10031661-56.html
13 Cheung, Humphrey. „Chrome is a security nightmare, indexes your bank accounts.“ TGDaily. com (4. September 2008) http://www.tgdaily.com/content/view/39176/108
14 Ebd.
15 Electronic Frontier Foundation. „Google’s Gmail and Your Privacy –What’s the Deal?“ EFFector vol.17: 12 (9. April 2004) http://w2.eff.org/effector/17/12.php#I; Liedtke, Michael. „Consumer watchdogs tear into Google’s new e-mail service.“ USAToday.com, (7. April 2004), Hafner, Katie. „In Google We Trust? When the Subject is E-Mail, Maybe Not.“ NYT.com (8. April 2004).
16 Olsen, Stefanie. „California privacy law kicks in.“ CNet.com (6. Juli 2004). http://news.cnet.com/ California-privacy-law-kicks-in/2100-1028_3-5258824.html
17 http://www.google.de/intl/de/privacy_highlights.html
18 Hodgin, Rick C. „Google launches My Tracks for Android.“ TGDaily.com (13. Februar 2009). http://www.tgdaily.com/content/view/41439/140/
19 Greenberg, Andy. „Privacy Groups Target Android, Mobile Marketers“ Forbes.com (13. Januar 2009)
20 Privacy International.Org. „Privacy international identifies major security flaw in Google’s global phone tracking system“ privacyinternational.org (5. Februar 2009). http://www.privacyinternational. org/article.shtml?cmd[347]=x-347-563567
21 Electronic Privacy Information Center; „Personal Surveillance Technologies“ epic.org (24. November 2008). http://epic.org/privacy/dv/personal_surveillance.html 22 Siehe Gandy, Jr., Oscar H. The Panoptic Sort. A Political Economy of Personal Information. (Boulder, Westview Press, 1993); Lyon, David (Hg). Surveillance as Social Sorting: Privacy, Risk and Automated Discrimination. (London, New York: Routledge, 2002)
23 Barbaro, Michael und Tom Zeller jr. A Face Is Exposed for AOL Searcher No. 4417749. NYT.com (9. August 2006)
24 Final Report on the existence of a global system for the interception of private and commercial 131 communications (ECHELON interception system) Nichtständiger Ausschuss des Europäischen Parlaments zum ECHELON Abhörsystem (5. September 2001)
25 Paulo Vaz und Fernanda Bruno. „Types of Self-Surveillance: from abnormality to individuals ‘at risk’“ Surveillance & Society, vol.1:3 (2003).
26 David Lyon, 2002, S.13
27 Ibid.
28 Soghoian, Chris. „Debunking Google’s log anonymization propaganda“ Cnet.com (11. September 2008) http://news.cnet.com/8301-13739_3-10038963-46.html
29 Videos unter http://www.consumerwatchdog.org/corporateering/corpact4/ 30 Sean P. Hier. „Probing the Surveillant Assemblage. On the dialectics of surveillance practices as processes of social control“ Surveillance & Society, vol.1:3 (2003) 399–411
31 Zu den ersten, die diese Kritik äußerten, zählten Lucas Introna und Helen Nissenbaum. „Shaping The Web: Why The Politics of Search Engines Matters“ Information Society vol.16: 3 (2000), 169–185
32 Pasquale, Frank A. and Bracha, Oren. „Federal Search Commission?: Access, Fairness and Accountability in the Law of Search“ Public Law and Legal Theory Research Paper No. 123 (30. Juli 2007) Social Science Research Network at http://ssrn.com/abstract=1002453
33 Greenberg, Andy. „Condemned To Google Hell“ Forbes.com (30. April 2007)
34 Pan, Bing u. a. „In Google We Trust: Users’ Decisions on Rank, Position, and Relevance“ Journal of Computer Mediated Communication, vol.12:3 (2007)
35 Lyon, David. Introduction. In: David Lyon (Hg.) Theorizing Surveillance. The Panopticon and Beyond. (Devon, UK, Willian Publishing, 2006), 8
36 Google Reader Help. „New Feature: Sharing with Friends“. (14. Dezenber 2007) ff. http://groups.google.com/group/google-reader-howdoi/browse_thread/thread/ 318c4559e2ac5bbe/e2a7a7d782571c38 133
Content type | text
|
---|---|
Projects | Deep Search. Politik des Suchens jenseits von Google Deep Search World-Information Institute |
Date | 2009 |