Demokratisierung der Suche? Von der Kritik zum gesellschaftlich orientierten Design
Seit die Techniker der Digital Equipment Company 1995 AltaVista einführten, die erste große Suchmaschine für das World Wide Web, hat sich vieles verändert. 2009 ist das Web die zentrale Plattform für alles, was mit Information und Kommunikation zu tun hat: es bietet Raum für eine Vielfalt von Aktivitäten und Vorgängen, die früher über zahlreiche verschiedene Kanäle verteilt waren. Mit 1,5 Milliarden Nutzern, mehr als einer Trillion Seiten und einer Palette von Services, die von der einfachen Darstellung von Text-basierter Information bis zu hoch entwickelten Applikationen und Multimedia-Technologien reichen, ist das Web der Gegenwart ein Informationsgigant und außerdem zentraler Bestandteil einer kapitalistischen Ökonomie, die sich von einem industriellen zu einem kognitiven Produktionsmodus entwickelt.1 Da das Web kein eigenes Index- oder Katalogsystem mitbringt, liegt es an den Suchmaschinen, die unübersichtliche Struktur des Web den Nutzern zu erschließen. Obwohl Suchmaschinen komplexe Werkzeuge sind, ist ihre Handhabung überraschend einfach: Eine aus einem oder mehreren Wörtern bestehende Suchanfrage führt zu einer geordneten Liste von Seiten, welche die angegebenen Begriffe enthalten. Es ist kein Wunder, dass Suchmaschinen zu den beliebtesten Internet-Diensten gehören.2
Diese zentrale Rolle der Suchmaschinen hat ein beträchtliches Maß an kritischer Aufmerksamkeit auf sich gezogen, ebenso wie die Firmen, die solche Dienste anbieten. Trotz seines beruhigenden (informellen) Unternehmensmottos don’t be evil hat der unbestrittene Marktführer Google Inc.3 offenbar Microsoft als beliebtestes Ziel für die Recherchen und die Kritik von Internet-Forschern und -Aktivisten abgelöst. Was anfangs wie ein rein technisches Thema aussah, das nur Informatiker und Informationswissenschaftler betraf, ist zu einer umfangreichen Debatte geworden,4 die soziale, politische, kulturelle, ökonomische und sogar philosophische Aspekte hat. Die Theoriedebatten über die Suche werden zunehmend unter den Gesichtspunkten Repräsentation5 und Macht,6 Privatsphäre, Gleichheit, Pluralität und Kommerzialisierung geführt. Auf den tieferen Ebenen der normativen Debatte steht jedoch noch viel Arbeit an. Dieser Beitrag befasst sich daher mit zwei Problemen. Obwohl erstens ein Großteil der Kritik an Suchmaschinen auf einer bestimmten Werteskala beruht, ist der Diskurs selten sehr explizit, wenn es darum geht, diese Werte in einem breiteren normativen Rahmen zu verankern. Die vorgebrachten Argumente erscheinen daher bisweilen bezugslos. Zweitens bleiben Empfehlungen für Design und Politik daher oft vage und unspezifisch. Dies liegt zum Teil auch daran, dass technisches Fachwissen über die Web-Suche in den Geisteswissenschaften kaum vorhanden ist. Die „zwei Kulturen“ C.P. Snows sind nach wie vor voneinander getrennt. Es ist aber auch mit dem ersten Problem verbunden: Ohne klaren normativen Standpunkt ist es schwierig, Empfehlungen zu formulieren, wie eine Suche funktionieren sollte. Nach einer kurzen Zusammenfassung der gängigen Kritik der Websuche und einer Darstellung der zwei vorherrschenden Werte, die in den heutigen Universalsuchmaschinen verkörpert sind, nämlich Beliebtheit und Komfort, werde ich daher eine explizit normative Position entwickeln, die für Pluralität, Autonomie und Zugang als alternative Leitprinzipien für Politik und Design steht. Die abschließenden Empfehlungen nähern sich der Frage an, wie diese Prinzipien in der Praxis umgesetzt werden könnten.
Die Websuche als normative Technologie
Wie das Fragezeichen im Titel andeutet, ist das Thema „Demokratisierung der Suche“ keineswegs trivial, und dieser Essay wird notwendigerweise von den Werten und Haltungen seines Autors beeinflusst. Er versteht sich als Beitrag zur politischen Debatte über Web-Suchen. Der notwendige Ausgangspunkt ist daher ein Blick auf häufig vorgebrachte Argumente.
Die gängige Kritik
Es fällt sofort auf, dass die Diskussionen um die Websuche ausgesprochen kritisch sind. Doch obwohl viele der wichtigsten Fragen in zwei frühen Beiträgen diskutiert wurden, war die Stabilisierung klarer Kritiklinien ein längerer Prozess.7 Heute lassen sich drei Themenbereiche unterscheiden, auf die sich die Auseinandersetzungen konzentrieren:
• Die Tatsache, dass Suchmaschinen laufend personenbezogene Daten ihrer vielen Nutzer speichern, hat zu einem Interesse am Thema Privatsphäre und ihrem Gegenstück, der Überwachung, geführt. Die Zusammenarbeit von Suchmaschinen mit totalitären Regimes in Sachen Unterdrückung und Zensur, die Politik der Datenspeicherung (und Datenlöschung), und das Problem der Datenbank-übergreifenden Profilerstellung bildeten die Kernthemen dieser Kritik. Wie wichtig diese Probleme auch sein mögen, sie sind nicht spezifisch für Suchmaschinen, sondern betreffen alle Systeme, in denen personenbezogene Daten gespeichert werden. Ich werde sie daher hier beiseitelassen.
• Als die Suchmaschinen in den 1990er-Jahren bezahlte Links in ihre Ergebnisseiten aufnahmen, wurde die Anzeigenpolitik schnell zu einem wichtigen Thema, welches 2002 zur Offenlegungsempfehlung der US Federal Trade Commission (FTC) führte. Diese verlangt, dass „bezahlte Resultate von nichtbezahlten unterschieden werden“.8 Die Spannung zwischen öffentlichem Interesse und wirtschaftlichen Vorteilen ist nach wie vor ein Thema, vornehmlich jedoch im letzteren Bereich.9
• Die Frage des Ranking, der Ordnung der Suchergebnisse, war sicher das am meisten diskutierte Thema. Winkler hat früh angemerkt, dass Suchmaschinen das Web in „Haupt- und Nebenstraßen“ aufteilen,10 und Introna und Nissenbaum haben die Auffassung vertreten, dass sie wirtschaftliche Interessen im Web begünstigen, da sie die Aufmerksamkeit vorzugsweise auf große Seiten anstatt auf kleine Websites lenken.11 Hindman et al. prägten den Begriff Googlearchy, mit dem sie ein Web beschreiben, das von wenigen, hoch gerankten Seiten dominiert wird.12 Die Frage der Hierarchie steht im Zentrum der Suche und bildet auch den Mittelpunkt dieses Beitrags.
Es gibt jedoch zwei weitere Fragen, die alle drei Themenbereiche betreffen:
Erstens unterstreichen die meisten Kritiker den Mangel an Transparenz in Fragen der Privatsphäre, der Werbung, und des Ranking. Moderne IT-Systeme sind oft wie Black Boxes, oder wie „schwarzer Schaum“,13 wie ich an anderer Stelle vorgeschlagen habe.14 Wir können uns nie sicher sein, was hinter dem Interface geschieht, was eine sinnvolle Kritik ungemein erschwert. Die Offenlegung technischer Spezifikationen und der Unternehmenspolitik war daher die häufigste Forderung von Forschern und Aktivisten. Da Google Inc. einen Großteil des Suchmaschinenmarkts15 sowie den entscheidenden Werbemarkt – die wichtigste Einnahmequelle für Gratis-Onlinedienste – kontrolliert, wird auch die Frage des Monopols immer häufiger gestellt.
Hinter jedem dieser fünf Punkte lauert eine normative Debatte, deren Rahmen die politischen Konflikte des Kapitalismus der Gegenwart bilden. Dazu gehört auch die Frage des Ausgleichs zwischen öffentlichen und privaten Interessen. Wie sollen gleiche Rechte der Teilnahme und des Ausdrucks gewährleistet werden? Wie werden multinationale Konzerne kontrolliert? Und wie soll der Wettbewerb auf den Märkten erhalten werden? Etablierte politische Positionen spielen auch in Diskussionen über die Websuche eine Rolle, und die Frage lässt sich nicht von größeren informationspolitischen Fragestellungen trennen. Gleichzeitig ist die Websuche Teil einer spezifischen Forschungstradition, nämlich der Informationsgewinnung (information retrieval, IR). Um die normativen Dilemmata zu begreifen, vor denen wir stehen, müssen wir einige der Eigenheiten dieser Tradition näher betrachten.
Universalsuchen
Der Bereich des IR hat sich im Laufe des 20. Jahrhunderts herausgebildet, und zwar als Antwort auf die Probleme, die im Zuge der beschleunigten Informationsproduktion in allen Bereichen der westlichen Gesellschaft entstanden sind. War die erste Hälfte des 20. Jahrhunderts von Bibliotheks-Innovatoren wie Paul Otlet und immer feiner verzweigten Klassifikationssystemen geprägt, so eröffnete die Entstehung von automatischen Sortiergeräten und Universalrechnern neue Richtungen im Denken über Information. Die Arbeit von Pionieren wie Hans- Peter Luhn und anderen führte zu Gerard Saltons Monumentalwerk Automatic Information Organization and Retrieval, das 1968 erschien und Computer-Algorithmen als logische Lösung für die Probleme der Informationsgewinnung dauerhaft definierte. Doch die IR entwickelte sich zu einer Zeit, als Information meist noch in gut strukturierter Form in inhaltsbezogenen Datenbanken gespeichert war. Viele der begrifflichen Unklarheiten des Web haben mit der Tatsache zu tun, dass die Daten im Web weder strukturell noch thematisch konsistent sind.
Das Web kann als Adressenraum für den Zugang zu Dokumenten verstanden werden. Im Prinzip ist jede Informationseinheit über einen Uniform Resource Locator (URL) abrufbar.16 Zumindest die Oberfläche des Web17 ist aus rein technischer Perspektive ein homogener Raum von Informationsressourcen, die in Form von HTML-Dokumenten gespeichert sind. Die Web-Suche – und damit meine ich die allgemeine Suche, bei der zuerst AltaVista und dann Google Search die Hauptrolle spielten – ist ein technisches Artefakt, welches das Web als einförmigen Adressenraum betrachtet und keine über abstrakte Kategorien wie Dateiformat, Datum oder Sprache hinausgehenden Unterscheidungen zwischen verschiedenen Informationsarten vornimmt. Suchmaschinen wenden bei ihrer Erschließung einer breiten Palette von Ressourcen das Prinzip „eine Größe für alle“ an und überlassen es den Nutzern, den genaueren Kontext in Form von weiteren Suchbegriffen zu definieren, wenn etwa zwischen einem Buch als Kaufangebot und einer Buchzusammenfassung unterschieden werden soll.
Diese Universalität stellt eine der größten Schwierigkeiten bei dem Versuch dar, die Websuche in nicht-technischen Begriffen zu verstehen. Das Web als rein topologische Struktur (als Netz von Dokumenten und Links), rein syntaktische Struktur (Dokumente, die Markup-Sprache enthalten), oder rein statistische Struktur (Worthäufigkeit) unterscheidet sich radikal von der menschlichen Gewohnheit, Informationen nach Gegenständen, Aktivitätsbereichen, Kontext usw. zu ordnen. Es wird intuitiv davon ausgegangen, dass eine Restaurantadresse, der neueste Hollywood-Tratsch, der Preis eines Laptops und ein Blog-Posting über Gewichtsabnahme nicht dieselbe Art von Information enthalten, dass sie zu verschiedenen Existenzbereichen gehören. Es sind sich wahrscheinlich auch alle darin einig, dass jede dieser Informationen mit unterschiedlichen Tätigkeiten verbunden ist, die spezifische Entscheidungen implizieren. Etwa wo man zu Abend essen will, oder wen man wählen soll. Wir können uns vermutlich im Großen und Ganzen auch über die Wichtigkeit bzw. Trivialität jeder dieser Informationen einigen. Diese (informellen) Differenzierungsebenen gehören zu dem, was Clifford Geertz als Kultur, als „Bedeutungsnetz“, bezeichnet hat: Eine Ordnung, die auf Bedeutung beruht, nicht auf Statistik oder Graphentheorie.18 Ich will nicht bestreiten, dass diese Methoden bestimmte semantische Dimensionen erfassen, und auch nicht behaupten, dass die Erforschung semantischer Technologien ein verlorenes Unterfangen sei. Die Tatsache bleibt jedoch bestehen, dass die derzeitigen Universalsuchmaschinen das Web als eine undifferenzierte Einheit behandeln und für das Ranking von Informationen, die einer Vielzahl verschiedener Dimensionen angehören, dieselben Techniken einsetzen. Ihr relativer Agnostizismus gegenüber der Bedeutung ist ihre spezifische Objektivität – die immer noch eine bestimmte kulturelle Logik und normative Orientierung ausdrückt.
Beliebtheit und Komfort
Nach einigen Vorprojekten veröffentlichte Eugene Garfield 1963 die erste Ausgabe des Scientific Citation Index (SCI), einen vollständigen Index von 613 wissenschaftlichen Zeitschriften des Jahrgangs 1961, der eine geordnete Liste von über 1,4 Millionen Zitaten enthält. Seither hat es der SCI Wissenschaftlern ermöglicht, nach relevanten Beiträgen zu suchen, indem sie „Assoziationssträngen“ folgten – ein Begriff, der von Vannevar Bush geprägt und der durch die wissenschaftliche Praxis des Zitierens etabliert wurde. Indem man jede beliebige Publikation als Ausgangspunkt wählt, lassen sich alle Beiträge lokalisieren, die sie zitieren. Und Techniken wie die Analyse von Ko-Zitaten (zwei Artikel, die die gleiche Quelle zitieren, könnten thematisch verbunden sein) machen den SCI zu einem hochwirksamen Werkzeug der Informationsgewinnung.19
Der SCI ist hier aus mehreren Gründen von Interesse. Erstens nahm er eine bedeutenden Entwicklung in der Geschichte des Web vorweg, nämlich die Abkehr von handverlesenen und Klassifikations-basierten Verzeichnissen wie Yahoo und die Wende zu vollständig automatisierten Suchmethoden, wie sie zuerst von AltaVista und dann von Google verwendet wurden. Die Argumente waren in beiden Fällen die gleichen: Die verfügbare Information sei zu umfangreich, um von menschlichen Redakteuren bearbeitet zu werden, die manuelle Klassifizierung zu langsam und zu teuer, kontrollierte Vokabulare zu unflexibel, zu schwerfällig, und letztlich auch subjektiv. Zweitens stellte der SCI einen wirklichen Paradigmenwechsel von einer inhaltlich orientierten Organisation hin zu einer topologischen, auf Graphentheorie aufbauenden Analyse dar. Die Web-Suchmaschinen durchliefen eine ähnliche Veränderung: Das Ranking von AltaVista beruhte noch weitgehend auf Dokumenteneigenschaften, also auf der Häufigkeit eines Suchbegriffes, seiner Position innerhalb des Dokuments, der Präsenz in der URL, usw. Nach Page et al. ist es „nahe liegend, die gängigen Zitationsanalysetechniken auf die Hypertext-Struktur des Web anzuwenden“.20 Auch AltaVista zählte die Links, die auf ein Dokument verwiesen, gab diesen aber keine beherrschende Rolle. Der Erfolg von Google Search beruht dagegen großteils auf einer explizit Link-topologischen Methode, bei der jedes Zitat eine bestimmte, von der „Wichtigkeit“ der Senderseite abhängige Gewichtung bekommt (PageRank), die ihrerseits von einer rekursiven Berechnung des ganzen Graphen abhängt. Ein dritter Aspekt des SCI ist, dass sein impact factor (eine vom SCI ausgehende Zitatezählung von Beiträgen, einzelnen Wissenschaftlern, oder Institutionen), der zum vorherrschenden Messinstrument für wissenschaftliche Produktivität geworden ist, seit langem Gegenstand einer Kritik ist, die jetzt auch gegen die Reihung von Suchergebnissen vorgebracht wird. Forscher haben dabei argumentiert, dass Qualität nicht das gleiche wie Bekanntheit ist, und dass ein auf Zitaten basierendes Ranking die Innovation hemmen würde, in dem es ein Star-System einführt und die Vielfalt reduziert.21
Die Gleichsetzung von Bedeutung mit Beliebtheit ist in der Tat der Kern der Kritik an der Linkanalyse als vorherrschende Methode der Ergebnisreihung – die Verzerrung von Suchmaschinen wird meist in diesem Sinn verstanden.22 Anstatt eine bestimmte Meinung, politische Partei oder Firma zu bevorzugen, ist die in der Linkanalyse enthaltene Weltanschauung viel abstrakter. Sie delegiert gewissermaßen das Ranking an das Web selbst, da ja die Links, die den Page- Rank bestimmen, und andere topologische Maßnahmen nicht von der Suchmaschine selbst gesetzt werden, sondern von den Menschen, die Webseiten, Blogs und anderen Content erstellen. Es ist nicht überraschend, dass die Rhetorik von Google sich demokratisch gibt und Links mit „Stimmen“ gleichsetzt.23 Die Suchmaschine funktioniert so als bloße Stimmenzählmaschine, wobei die Firma gerne stolz bemerkte, dass „keine Beteiligung von Menschen“ diesen Prozess beeinflusste, weshalb „die Nutzer Google als Quelle objektiver Information vertrauen“.24 Das Ranking ist dennoch eine Imitation der Urteile menschlicher Akteure, und je mehr sich die Sicht der Maschine der Wahrnehmung der Nutzer angleicht, desto höher ist die „Qualität“ der Ergebnisse. Suchmaschinenbetreiber beschäftigen daher Teams von menschlichen Bewertern, die die Veränderungen der Algorithmen testen und darüber entscheiden, ob diese nützlich sind oder nicht.25 Aus einer Studie von Pan et al. geht hervor, dass die meisten Nutzer bereit sind, diesem Prozess großes Vertrauen entgegen zu bringen.26
Im Allgemeinen wird die machtbasierte Linkstruktur des Web, wo eine kleine Anzahl von Zentren viele kaum verlinkte Seiten dominiert (vgl. Hindman et al. 2003), durch die Linkanalyse zu einem wichtigen Faktor. Das dahinter stehende Prinzip wurde als „kumulativer Vorteil“, preferential attachment, oder „Matthäus-Effekt“ bezeichnet; die Konsequenz besteht dabei einfach darin, dass gut gereihte Seiten eine höhere Sichtbarkeit aufweisen und daher mehr verlinkt werden, wodurch die Rankings noch besser werden. Anders gesagt: Die Reichen werden reicher. Beliebtheit als ein Maß für Qualität zu nutzen, ist natürlich eine normative Entscheidung. In Kombination mit der Tatsache, dass Suchmaschinenoptimierung (search engine optimization, SEO), Link-Kampagnen und klassisches Marketing es ökonomisch potenten Akteuren erlauben, das Spiel zu ihren Gunsten zu manipulieren, ist die „Logik des Zugriffs“ letztlich sowohl für die Zentralisierungs-27 als auch für die Kommerzialisierungs-Tendenzen verantwortlich.28 Doch es gibt noch einen zweiten zentralen Wert, der das Design der derzeitigen Suchmaschinen bestimmt.
Der Erfolg von Google Search geht zum Teile auf sein einfaches, übersichtliches Interface zurück. Außer über die Sprache haben die Nutzer kaum Möglichkeiten, den Suchprozess zu beeinflussen, und die Ranking-Parameter sind vollkommen abgeriegelt. Nach den Empfehlungen eines Nutzer-orientierten Designs – eine Design-Philosophie, die weitgehend auf der kognitiven Psychologie beruht – ist es das Ziel, den Suchprozess so einfach und angenehm wie möglich zu gestalten. Dass sich die Forschung dies auch weiterhin zum Ziel setzt, wurde kürzlich von Marissa Mayer, Vizepräsidentin für Suchprodukte und User-Erfahrung bei Google Inc., deutlich gemacht. Ihre Definition einer „idealen Suchmaschine“ lautet wie folgt:
[Die Suchmaschine] ist unser bester Freund und vermittelt uns Zugang zu allen Fakten der Welt und zum fotografischen Gedächtnis von allem, was wir gesehen und kennen gelernt haben. Die Suchmaschine kann Antworten liefern, die auf unsere Vorlieben, unser bestehendes Wissen, und die beste verfügbare Information zugeschnitten sind.29
Das Ziel der Personalisierung ist, die Suche durch die Nutzung der individuellen Suchgeschichte und Sitzungsprofile zur Präzisierung der Anfragen noch komfortabler zu machen. Wenn ein Nutzer eine Stunde lang Online-Shops besucht hat, dann wird eine Suche nach einem Buchtitel automatisch Online-Buchläden gegenüber internationalen oder wissenschaftlichen Dokumenten bevorzugen. Die Sucherfahrung wird schneller und einfacher.
Sowohl die Beliebtheit als auch der Komfort beruhen auf dem Nutzer-orientierten Designprinzip, dessen Ziel es ist, „die kognitive Anstrengung und den Zeitaufwand für die Suchenden zu reduzieren“.30 Trotz der demokratischen Rhetorik werden Design-Entscheidungen aufgrund eines wahrgenommenen Nutzens für individuelle Endverbraucher getroffen. Überlegungen auf gesellschaftlicher Ebene spielen selten eine Rolle. Wenn Suchmaschinen jedoch wirklich wirksame Gatekeeper und damit zentrale gesellschaftliche Einrichtungen sind, dann ist die Frage legitim, wie ein gesellschaftlich orientierter Zugang, der über die Werte von Beliebtheit und Komfort hinausgeht, aussehen könnte.
Alternative Leitlinien
Was ich als „gesellschaftlich orientiertes Design“31 bezeichnet habe, ist keine frei schwebende normative Spekulation, sondern der Versuch, die Lücke zwischen einer Kontext-orientierten technischen Produktion einerseits, und einem über Effizienz, Kontrolle und materiellen Wohlstand hinausgehenden sozialen Nutzen andererseits zu schließen. Das normative Denken wird hier von der praktischen Umsetzbarkeit umschrieben. Wenn also Herbert Simon 1971 Recht hatte, als er Aufmerksamkeit zu einem knappen Gut erklärte, welches durch ein Überangebot an Information verbraucht wird, dann muss zur Kenntnis genommen werden, dass das Ranking nicht nur sehr nützlich, sondern auch unvermeidlich ist. Wenn es mehr als ein Ergebnis für eine Suchanfrage gibt – und meistens gibt es ja viel mehr – dann wäre die einzige Möglichkeit, das Ranking zu vermeiden, die Ergebnisse nach dem Zufallsprinzip zu ordnen, was vermutlich eine äußerst frustrierende Erfahrung wäre. Winkler zufolge gibt es kein anti-hierarchisches Medium – so wie es auch nichts außerhalb der Macht gibt (Foucault) und in der Distanziertheit keine Freiheit liegt (Latour).32 Jedes Ranking-System wird bestimmte Webseiten gegenüber anderen bevorzugen; die Frage ist, welche. Das Ziel kann also nicht die Abschaffung des Ranking sein und auch nicht die Schaffung einer „perfekten Suchmaschine“ (Larry Page). Zwischen diesen beiden Extremen gibt es eine Reihe von Möglichkeiten für Design und Politik, die sehr wohl unsere – wie auch immer knappe – Aufmerksamkeit verdienen.
Wikia Search als gesellschaftlich orientiertes Design
Wenn man sich die Rhetorik des Web 2.0 ansieht, könnte man den Eindruck erhalten, dass größere gesellschaftliche und politische Überlegungen bereits in das Denken der Designer Eingang gefunden haben. Das Wort „Demokratie“ ist im Web 2.0-Zeitalter in der Tat allgegenwärtig und wird meist als die Möglichkeit der Stimmabgabe durch Nutzer definiert – zu welchem Thema, spielt dabei keine Rolle: Von Ideen zu Videoclips, und von Nachrichten zu Such-Rankings. Jimmy Wales, der Mitgründer von Wikipedia, hat kürzlich mit Wikia Search für viel Aufmerksamkeit gesorgt. Wikia Search ist eine neue, „soziale“ Suchmaschine, die versucht, diese einfache Logik anzuwenden, um die Suche zu „demokratisieren“.33 Die Idee einer „sozialen“ Suche, wo die Bewertungen der Nutzer die Link-Analyse als vorherrschende Technik des Ranking ersetzen, wurde in den vergangenen Jahren mehrere Male umgesetzt – z.B. durch Eurekester, Mahalo, Wink, usw. – doch das Projekt von Wales ragt nicht nur wegen der Bekanntheit seines Schöpfers heraus, sondern auch durch die sehr explizite Diskussion der Normen und Werte, die das Design der Maschine bestimmen (sollten). Die interne Mailing-Liste des Projekts ist eine interessante Ressource, denn über sie wurden vier Grundsätze festgelegt:
• Transparenz war ein zentraler Kritikpunkt an Suchmaschinenbetreibern. Wikia Search hat sich sehr rasch entschlossen, Offenheit auf der Ebene der Technik anzustreben (die gesamte Software ist Open Source), aber auch auf Datenbank- (der Index ist downloadbar) und Organisationsebene (Entscheidungen und Unternehmensfunktionen sollen offen zugänglich sein).
• Gemeinschaft wird direkt aus Wikipedia, Wales’ erfolgreichstem Projekt, abgeleitet und setzt voraus, dass Rankings und andere Aufgaben durch die Nutzer durchgeführt werden. Das Ziel ist es, eine ausreichend große Zahl von aktiven Nutzern zu generieren und sie sowohl in die Bearbeitung der Ergebnisse als auch in die kollektive Steuerung des Projekts einzubeziehen.
• Qualität scheint ein Ziel zu sein, das keiner weiteren Erklärung bedarf. Interessant ist jedoch, dass das Wikia-Search-Projekt ausdrücklich Ergebnisse anstrebt, die sehr vielen Menschen Nutzen bringen. Das Qualitäts-Prinzip erkennt implizit an, dass das Ranking nicht bloß eine Frage der Werte oder der Weltanschauung ist, sondern in den Tätigkeitsverlauf der Nutzer eingebettet und daher mehr oder weniger nützlich ist.
• Die Privatsphäre ist das zweite Element, das sich direkt auf die gängige Kritik der Suchmaschinen und anderer Web-Dienste bezieht. Hier ist sich Wikia Search der delikaten Unterscheidung zwischen einer sehr nutzbringenden Sammlung von Daten und dem Recht der Nutzer, die eigene Identität zu schützen, sehr bewusst. Der Konsens, der sich abzeichnet, läuft darauf hinaus, so wenige Nutzerdaten wie möglich zu speichern, und die Nutzer-Identifizierung (die für die Transparenz und gemeinschaftliche Entscheidungen wichtig ist) als Opt-in-Feature anzubieten.
Derzeit ist Wikia Search noch Work-in-Progress, und es wird sich zeigen, wie die Grundsätze in besser ausgereiften Versionen der Suchmaschine umgesetzt werden. An dieser Stelle lassen sich jedoch zwei Beobachtungen anstellen: Erstens ist es ermutigend zu sehen, dass eine tief greifende Diskussion von Werten produktiv in den Prozess des technischen Designs eingebracht werden kann. Es geht dabei natürlich nicht einfach darum, eine Werteskala zu implementieren, sondern um einen schwierigen Prozess, in dem technische, wirtschaftliche und ethische Erfordernisse in ständigem Konflikt sind. Zweitens zeigt sich bei einem genaueren Blick auf die Leitlinien von Wikia Search, dass zwar manche der bekannten Kritikpunkte an herkömmlichen Suchmaschinen berücksichtigt werden, das zentrale Prinzip des Projekts – das Hinzufügen, Bewerten und Löschen von Ergebnissen durch die Nutzer – jedoch weder die Frage der Gleichheit von Suchergebnissen berührt, noch die Beliebtheit als wichtigsten Ausdruck von Wichtigkeit in Frage stellt. Wikia Search produziert in seiner derzeitigen Form dieselbe Top-down-Ergebnisliste wie die etablierten Suchmaschinen. Wenn man sich manche der Ergebnisseiten ansieht, dann zeigt sich, dass das Spam-Problem weit von einer Lösung entfernt ist, und, was noch wichtiger ist, dass die vorherrschenden Meinungen in der Gemeinschaft zu verzerrten Ergebnissen führen. Im Zuge der Recherchen für diesen Artikel führte die Suchanfrage „John McCain“ zu einer Liste, auf der, nach dem obligaten Wikipedia-Eintrag, vorwiegend Seiten gelistet waren, die den republikanischen Präsidentschaftskandidaten kritisierten oder lächerlich machten. Es ist durchaus möglich, dass zukünftige Versionen der Suchmaschine weniger leicht von vorherrschenden Nutzergruppen kontrolliert werden können, doch dies wird vermutlich ein fein abgestimmtes Steuerungssystem erfordern, welches, ähnlich wie bei Wikipedia, auf Administratoren, Ergebnisüberwachung und Sperren von Nutzern zurückgreifen wird müssen.
Wikia Search ist sicher ein faszinierendes Experiment eines gesellschaftlich orientierten Designs, doch ihr wichtigstes Ziel ist die soziale Kontrolle des Objekts selbst und nicht die Relevanz der Suche als Teil einer größeren soziotechnischen Konfiguration. Dies hängt mit der spezifischen Interpretation von Demokratie als Gemeinschaft zusammen, die auch hinter den weiter entwickelten Web 2.0-Projekten steht.
Zwei Begriffe der Demokratie
Anhand der gängigen soziologischen Unterscheidung zwischen Gemeinschaft und Gesellschaft – die meist auf Tönnies zurückgeführt wird, aber schon in Durkheims Unterscheidung zwischen organischer und mechanischer Solidarität enthalten ist – lässt sich grob zwischen zwei Vorstellungen einer Regierung „des Volks, durch das Volk, für das Volk“ unterscheiden. Ohne hier ins Detail zu gehen, glaube ich, dass die Idee der Demokratie als Gemeinschaft sich explizit in bestimmten Formen der protestantischen Doktrin findet (z.B. im Puritanismus), aber auch im amerikanischen sozialen Denken in der Tradition von Emerson und Whitman. Dieses Denken ist gegenüber politischen Institutionen äußerst skeptisch und geht davon aus, dass Menschen rationale Wesen sind, die über sich selbst regieren können. Wenn Menschen mit guter Absicht zusammen kommen, so die Annahme, dann wird ein Konsens entstehen. Nach Howard Zinn ist die Abhängigkeit von „großen Denkern, Autoritäten und Experten eine [...] Verletzung des Geistes der Demokratie“.34 Es gibt jedoch beträchtliche Zweifel daran, dass dieses Ideal für die Regierung moderner Nationalstaaten angewendet werden kann (oder soll):
Ich glaube, dass eine demokratische Gesellschaft keine Gemeinschaft ist und sein kann, wobei ich unter Gemeinschaft eine Gruppe von Personen verstehe, welche eine durch den Glauben an die gleiche umfassende, oder zum Teil umfassende Doktrin zusammen gehalten wird.35
Für den politischen Philosophen John Rawls erfordert die pluralistische Zusammensetzung von modernen Gesellschaften einen Demokratiebegriff, der berücksichtigt, dass bestimmte Interessen und Meinungen nicht leicht vereinbar sind. Die Vorstellung der Demokratie als Gesellschaft beruht daher auf komplexen politischen Institutionen und Prozessen, auf Gewaltentrennung und garantierten Verfassungsrechten, durch die Bürger vor der Kontrolle durch den Staat geschützt werden. Obwohl die politischen Manöver und Kompromisse, die in der liberalen Demokratie vorherrschen, Grund beträchtlicher Frustrationen sind und Sehnsucht nach der Wärme einer Gemeinschaft hervorrufen, ist Vorsicht angebracht. Die Gesellschaft als Ort der demokratischen Regierung – der Koexistenz von Menschen, unter denen keine Einigkeit und Ähnlichkeit herrscht – sollte nicht leichtfertig verworfen werden. Wie Vedel betont, neigt das Gemeinschafts-Modell dazu, wichtige politische Einrichtungen, z.B. Parteien, Gewerkschaften oder Medienunternehmen, als Perversionen des demokratischen Ideals zu sehen.36 Doch wie lässt sich die Regierung von sehr großen Gruppen ohne Vermittlung überhaupt denken? Der Diskurs um das Web 2.0 gibt diesbezüglich Aufschluss: Anstatt schwerfälliger, intransparenter Institutionen haben wir jetzt Software, die es uns ermöglicht, das Ideal der Gemeinschaft auf die Ebene der Gesellschaft zu skalieren. Die Macht, welche die Firmen, die diese Tools zur Verfügung stehen, dabei gewinnen, wird dabei selten angesprochen.
Seltsamerweise scheinen beide Vorstellungen von Demokratie in Bezug auf die Web-Suche auf ein gemeinsames normatives Konzept hinaus zu laufen, nämlich einer Variante von Habermas’ Ideal einer Öffentlichkeit als Raum gleichberechtigter Rede. Der Hintergrund der praktisch gesamten Kritik des Ranking ist die Sorge, das Web könnte die Fähigkeit einbüßen, den früher ausgeschlossenen Stimmen eine Öffentlichkeit zu geben und als „wertvoller Kollisionsraum zwischen offiziellen und inoffiziellen Darstellungen der Wirklichkeit zu dienen“.37 Je nach bevorzugtem Demokratiemodell gibt es feine, jedoch bedeutende Variationen. Die „Gemeinschafts“-Version, die hinter einem Großteil der Web 2.0- Rhetorik (und vielen der zuletzt erschienenen akademischen Veröffentlichungen) steht, besteht darauf, dass jede Stimme den gleichen Wert hat, während die „Gesellschafts“-Tradition betont, dass „[alle Bürger] eine faire Chance haben sollten, alternative Vorschläge auf die Tagesordnung der politischen Diskussion zu setzen“.38 Der zweite Standpunkt schließt Mediation, Auswahl und Gewichtung nicht aus, solange sie auf einem Argument beruhen und nicht auf Status, Wohlstand oder Macht. Habermas akzeptiert ein bestimmtes Maß an „kritischer Filterung“ nicht nur – sie ist die Aufgabe von Journalisten –, sondern warnt ausdrücklich vor einer „Fragmentierung“ des öffentlichen Raums, die bei Fehlen zentraler Mediatoren eintreten würde.39 Wenn wir Selektion und Hierarchisierung als notwendige Grundlagen für die Demokratie betrachten, dann stellt sich als wichtigste Frage, wie man Rawls „faire Chance“ auf einen Beitrag zur Debatte definieren soll. Und wenn Suchmaschinen tatsächlich als mediale Gatekeeper fungieren,40 dann muss als erstes gefragt werden, wie ihre Filterung sich auf diese „faire Chance“ auswirkt, um, wenn nötig, Korrekturen vorzunehmen. Der Prozess, der zu Suchergebnissen führt, wird dabei weniger wichtig als die Frage, ob dieser Prozess einen „vernünftigen Pluralismus“ fördert oder nicht. Dies schließt die Gemeinschaft als Wert ebenso wenig aus wie eine Lenkung durch öffentliche Partizipation auf tiefer Ebene. Die Anwendung der Stimmabgabe auf das Ranking kann jedoch nicht mehr als offensichtlicher und unbestrittener Weg zur „Demokratisierung“ der Suche betrachtet werden.
Bevor ich mich alternativen Empfehlungen zuwende, möchte ich vorausschicken, dass das Web als etwas anderes als ein Massenmedium betrachtet werden kann, z.B. als große Bibliothek, als Speicher kultureller Repräsentationen oder als Bildungswerkzeug. Diese Perspektive öffnet alternative Quellen für normative Argumente:
• Ethische Leitlinien für Bibliothekare und Dokumentations-Fachleute: Neben den üblichen Nettigkeiten bieten Berufsverbände wie der European Council of Information Associations (ECIA) oder die American Library Association (ALA) spezifische ethische Leitlinien wie Vertraulichkeit und ungehinderten Zugang zu Information, was nicht nur eine Ablehnung der Zensur impliziert, sondern auch eine aktive Unterstützung der Nutzer bei der Suche.
• Politik der kulturellen Vielfalt: Internationale Deklarationen wie die „Konvention zum Schutz und zur Förderung der Vielfalt kultureller Ausdrucksformen“ der UNESCO, die 2005 von allen UNO-Mitgliedsstaaten außer den USA und Israel ratifiziert wurde, bezeichnet die kulturelle Vielfalt explizit als schützenswertes Gut, während die berühmte Exception culturelle-Klausel, die 1993 dem GATT-Abkommen (jetzt WTO) hinzugefügt wurde, es Ländern ermöglicht, kulturelle Produkte aus dem Freihandelsabkommen auszunehmen. Dies sind Bemühungen, das Prinzip der Vielfalt von der Ebene der Meinung auf die Ebene des kulturellen Ausdrucks zu heben.
• Bildung und Stärkung der Autonomie: Im Sinne der Aufklärung und von Bildungsreformern wie Paulo Freire lässt sich das Web als Tool für die Stärkung der individuellen Autonomie vorstellen. Das kann nicht bedeuten, die Nutzer sich selbst zu überlassen, sondern eine „kritische Pädagogik“ zu entwickeln, die es den Nutzern ermöglicht, hinter die Oberfläche der Websuche zu blicken. Wenn wir diese Ansätze mit dem Modell des öffentlichen Raums kombinieren, zeichnen sich drei Prinzipien ab: (Vernünftige) Vielfalt, Autonomie und Zugang.
Vorschläge und Perspektiven
Im Kontext des gesellschaftlich orientierten Designs richtet sich das normative Denken notwendigerweise nach Möglichkeiten der Anwendung. Ausgehend von den drei im vorhergehenden Abschnitt definierten Grundsätzen werden im Folgenden Vorschläge behandelt, die über die gängige Forderung nach mehr Transparenz hinausgehen. Mehr Information über die innere Funktionsweise von Suchmaschinen würde die Kritik der Ranking-Mechanismen sicher vereinfachen, aber schon jetzt existiert eine relativ gute Vorstellung davon, wie Suchmaschinen ihre Ergebnisse produzieren.41 Kritiker fordern mehr Transparenz, um die soziale Kontrolle zu fördern und willkürliche Machtausübung zu unterbinden. Das Problem mit der gegenwärtigen Konfiguration von Suchmaschinen ist indessen nicht einfach ihr Missbrauchs-Potenzial, sondern vielmehr die einseitige Ausrichtung auf Beliebtheit und Komfort. Die folgenden Vorschläge zielen darauf ab, die Konfiguration von Suchmaschinen an den Grundsätzen der Vielfalt, der Autonomie und des Zugangs auszurichten, die in der Praxis ein zusammen hängendes Ganzes bilden.
Regulierung und Anreiz
Während es unbestritten ist, dass Suchmaschinen von enormem gesellschaftlichen Nutzen sind, so ist die Vorherrschaft einer einzigen Firma auf dem globalen Suchmarkt doch ein reales Problem. Auch wenn man Google keine Verfehlungen vorwirft, ist alleine die Konzentration der Macht über die Sichtbarkeit im Web etwas, was zu Bedenken Anlass geben sollte. Aus der Sicht des Modells des öffentlichen Raums ist das Web Teil eines Mediensystems, und wenn Suchmaschinen ähnliche Funktionen erfüllen wie Medien, dann kann man argumentieren, dass die Maßnahmen, die in westlichen Demokratien getroffen wurden, um Medienkonzentration zu verhindern, auch hier anzuwenden sind. Auch ohne böswillige Manipulationen von Suchergebnissen profitiert Google Inc. enorm von seinem privilegierten Status als Gatekeeper. Die großen Mengen an Daten, die die Nutzer bei den verschiedenen Diensten hinterlassen, stellen eine Marktinformation von unschätzbarem Wert dar, die entweder verkauft oder zur Optimierung der Unternehmensstrategie eingesetzt werden kann. Prominent platzierte Links auf der Startseite lenken die Aufmerksamkeit der Suchenden auf die ganze Produktpalette des Unternehmens, was bei der Einführung eines neuen Dienstes von großem Vorteil ist, und durch die vollständige Kenntnis des Ranking-Verfahrens hat Google Inc. die beste SEO, die sich eine Firma wünschen kann. Wie Kawaguchi und Mowshowitz schreiben, muss sichergestellt werden, dass es Alternativen gibt, und aus politischer Sicht gibt es dafür zwei Strategien: Staaten können entweder dem dominanten Akteur Beschränkungen auferlegen, oder den Wettbewerb fördern.42
Was die erste Möglichkeit angeht, gibt es in den meisten Demokratien Telekom- Gesetze, welche – manchmal in genauen Prozentwerten – die Marktanteile definieren, die von einer einzelnen Firma kontrolliert werden dürfen, aber auch Kapitalverflechtungen regulieren – etwa die Übernahme einer Zeitung durch ein TV-Netzwerk. Während sich solche Regelungen nicht eins zu eins auf den Suchmarkt übertragen lassen, ist es der Bedeutung nach durchaus möglich. Der FTCFall von 2002 hat bereits eine Verbindung zwischen der Suche und der Mediengesetzgebung hergestellt, und die Arbeitsgruppe „Artikel 29“ der EU-Kommission untersucht die Datenschutzpraktiken von Suchmaschinen.43 Der Wettbewerbsfall EU vs. Microsoft aus dem Jahr 2004 könnte ebenso als Richtschnur dienen, besonders im Hinblick auf die Ausnutzung einer beherrschenden Position auf dem Suchmarkt zur Kontrolle anderer Märkte. Allerdings sollte man sich angesichts der Komplexität solcher Fälle nicht allein auf einschränkende Maßnahmen verlassen. Die Förderung des Wettbewerbs auf dem Suchmarkt ist möglicherweise eine bessere Strategie.
Auch hier gibt es einen Präzedenzfall im Kontext der Mediengesetzgebung. Besonders europäische Länder gewähren Zeitungsunternehmen beträchtliche Unterstützung, entweder durch direkte finanzielle Zuwendungen (Österreich, Frankreich, Spanien, u.a.), oder durch Nachlässe auf Steuern oder Zustellgebühren (Deutschland, Großbritannien, Schweiz, u.a.). Das französische Quaero-Projekt (€ 99 Mio.) und das deutsche Theseus-Projekt (€ 90 Mio.) sind Pionierprojekte, die Suchmaschinen-Forschung mit öffentlichen Geldern betreiben. Diese Summen sind, wenngleich sie von anderen Konsortiums-Partnern noch verdoppelt werden, natürlich weit von dem entfernt, was den großen Suchmaschinenbetreibern zur Verfügung steht, und die Projekte zielen in Wirklichkeit nicht auf Universalanwendungen ab, sondern auf Multimedia-Suchen (Quaero) und semantische Zugänge (Theseus). Es ist bedauerlich, dass diese Mittel nicht direkt in den Bereichen eingesetzt werden, die in einer liberalen Demokratie zentral sind. Da wir das Web als heterogene Infrastruktur wahrnehmen, könnten wir vielleicht zu dem Schluss kommen, dass „egalitärere und umfassendere Suchmechanismen“ 44 vielleicht gar nicht in allen Bereichen nötig sind, sondern nur in jenen, die direkt mit dem öffentlichen Interesse zu tun haben, etwa die Darstellung politisch relevanter Information. Warum also nicht Forschung zu einer automatischen Nachrichten-Aggregation fördern, die – anstatt die Geschichten nach ihrer Beliebtheit zu reihen (das Prinzip von Google News) – versucht, die Komplexität und Heterogenität der Mediendebatte darzustellen? Die Anwendung des Prinzips der Vielfalt auf die Universalsuche hat seine Grenzen, und wie Pieter van der Linden, der Koordinator des Quaero-Projekts, in einem persönlichen Gespräch unterstrich, wird sich die Suche zunehmend auf Nischen konzentrieren müssen, um Fortschritte zu machen. Eine öffentliche Strategie der Forschungsförderung sollte Projekte nicht nur nach ihrem wirtschaftlichen Potenzial auswählen, sondern größere Fragen des öffentlichen Interesses in Betracht ziehen. Doch dies ist nicht der einzige Bereich, in dem der Staat eine produktive Rolle spielen kann.
Erkundung und Neureihung
Durch die Förderung der Autonomie der Nutzer lässt sich die Vielfalt steigern, selbst innerhalb der Universalanwendungen, die heute vorherrschen. Wenn Komfort bedeutet, die Interaktion zwischen den Nutzern und der Suchmaschine zu verkürzen, dann bedeutet Autonomie den Versuch zu verhindern, dass der Vermittler unsichtbar wird. Bildung kann sicher einen bewussteren und kompetenteren Umgang mit Suchmaschinen fördern, und die Aufnahme von kritischem Umgang mit Information in die Lehrpläne ist zu befürworten. Wir müssen allerdings auch an die technischen Mittel denken, mit denen sich die Vielfalt der Suchergebnisse erkunden lässt. Während query operators wie AND, OR, NOT sicher nützliche Tools sind, um auf eine größere Anzahl von Seiten zuzugreifen, sind diese derzeit recht begrenzt, und es gibt keine oder nur wenige Möglichkeiten, die Ranking-Parameter zu gewichten. Alternative Suchmaschinen wie Exalead45 – eine der wenigen Universalsuchmaschinen, deren Ergebnisse deutlich von jenen des Marktführers abweichen – erlauben Suchen mit gewöhnlichen Ausdrücken, doch es gibt noch viel Raum für Verbesserungen bei der Kontrolle der Nutzer über den Suchprozess. Während der Einsatz von Suchparametern ein gewisses Fachwissen voraussetzt, gibt es auch Wege, den Suchprozess zu vertiefen, ohne ihn übermäßig komplex zu machen. Dazu zwei Beispiele:
• Clusty46 ist eine Suchmaschine, die die Ergebnisse in thematische Cluster teilt, welche es den Nutzer ermöglichen, bis zu 500 Resultate gleichzeitig zu navigieren. Die Liste der Cluster vermittelt einen ersten Überblick über den Gegenstand der Suche und kann den Nutzern neue Richtungen aufzeigen, die diesen vorher nicht bewusst waren.
• TermCloud Search47 ist ein Such-Interface, das einen Überblick über ein Thema gibt, anstatt den kürzesten Weg zwischen einer Suchanfrage und einem Dokument herzustellen. Es verwendet das einfache tagcloud-Prinzip, wo Stichwörter in verschiedenen Größen nach Relevanz dargestellt werden, wobei es darum geht, die Nutzer auf die Begriffe hinzuweisen, die ihre Suchanfrage umgeben, und sie zu einer Erkundung zu ermutigen, anstatt rasche Antworten bereitzustellen.
Diese beiden Beispiele sind recht einfach, doch es gibt ein enormes Potenzial im Design von Suchtechnologien und von Interfaces, die die Suche als Teil eines Wissensvermittlungsprozesses begreifen und Lernen, Vielfalt und Nutzer-Interaktion aktiv fördern. Den Vermittlungsprozess zu betonen, anstatt ihn zu verbergen, kann gleichzeitig auch die Autonomie der Nutzer stärken und ihren Zugang in die tieferen Bereiche des Index erleichtern. In den vergangenen Jahren sind explodierende Kosten zu einem Innovationshindernis geworden, da eine moderne Suchmaschine nicht nur ein komplexes Softwareprodukt ist, sondern auch anspruchsvolle Datenbank-Technologie beinhaltet. Die Index-Erstellung für ein ständig wachsendes Web und die tägliche Ausführung von Milliarden von Suchanfragen stellen eine schwierige Aufgabe dar, auch wenn viele Anfragen nur zu Navigationszwecken getätigt werden (wenn z.B. ebay im Suchfeld des Browsers eingegeben wird, um zu ebay.com zu kommen). Um schnelle Ergebnisse auf der ganzen Welt gewährleisten zu können, muss eine Firma ein Netz von Datacenters bauen, wobei jeder Knoten in physischer Nähe zu einem zentralen Internet-Knoten sein muss, um die Distanz der Datenübertragung zu minimieren. Eine Förderung der experimentellen Forschung und Entwicklung und der Innovation wird auf diese Infrastruktur-Fragen eingehen müssen.48 Auf der Ebene der Organisation lässt sich dies auf mehrere verschiedene Arten bewerkstelligen, ich möchte aber kurz eine Route besprechen, die auf die Infrastruktur von etablierten Firmen zurückgreift.
Anwendungen wie Clusty und termCloud verwenden so genannte APIs (Application Programming Interfaces), um die Ergebnisse verschiedener Suchmaschinen in eine Maschinen-lesbare Form zu konvertieren (z.B. XML), Verarbeitungen durchzuführen (z.B. Neureihung der Resultate) und die Ergebnisse in einer auf die Suche abgestimmten Form darzustellen (z.B. Ergebnis-Cluster). Dies ist sicher ein großartiger Weg, um zu experimentieren und Ideen umzusetzen, ohne in eine Server-Infrastruktur investieren zu müssen. Es gibt dabei aber bedeutende Einschränkungen. Erstens ist die Zahl der Ergebnisse pro Anfrage recht niedrig – Google stellt nur bis zu acht her, Yahoo und Microsoft 50 – und während eine Anwendung mehrere Resultatsammlungen gleichzeitig laden kann, gibt es praktische Grenzen; Clusty geht bis 500 und die termcloud-Suche bis 250, um die Rechenzeiten in einem akzeptablen Rahmen zu halten. Zweitens begünstigen die Nutzungsbedingungen von APIs stark die Service-Provider. Im experimentellen Rahmen ist dies kein Problem, doch ein Unternehmen auf einem Such-API aufzubauen, kann eine riskante Angelegenheit sein, da die technischen Details und die rechtlichen Spezifikationen verändert werden können. Während es auf der Content-Seite robuste Lizenzmodelle gibt, z.B. Creative Commons, warten Entwickler, die API einsetzen, immer noch auf verlässliche Strukturen, um die rechtlichen Ungewissheiten auszuräumen.
Um die technischen Begrenzungen von Experimenten mit API zu lösen und „tiefe“ Experimente zu ermöglichen, die nicht nur die Resultate anders reihen, sondern auch alternative Ranking-Methoden anwenden, sind „Sandkasten“- Lösungen vorstellbar.49 Dies würde bedeuten, dass Suchanwendungen von externen Entwicklern in einer geschützten Umgebung („Sandkasten“) implementiert werden, während die Datacenters von Google Inc. und anderen Firmen verwendet werden, sodass die Programmierer direkt mit dem Index arbeiten können, ohne durch PageRank und andere Ranking-Techniken gehen zu müssen.
Es lassen sich mehrere Zwischenstufen zwischen dem derzeitigen APIbasierten Zugang und einer vollständigen Sandkasten-Version vorstellen, die nach Schwierigkeit der Implementierung, wirtschaftlicher Machbarkeit, Innovationspotenzial und verbessertem Zugang zu Suchergebnissen variieren. Wie immer diese Zugänge im Einzelnen aussehen, ohne aktive Gesetzgebung hängt jede technische Lösung vom Wohlwollen der Service-Anbieter ab. Die französischen Gesetze zur kulturellen Vielfalt, die Fernsehstationen dazu verpflichten, einen bestimmten Prozentsatz ihrer Einnahmen in die Kinoproduktion zu investieren, könnten als ungefähres Modell dafür dienen, wie bindende Erfordernisse der Ressourcenteilung aussehen könnten. Das Projekt der Demokratisierung der Suche ist ohne ein Minimum an Engagement der öffentlichen Hand schwer vorstellbar.
Schluss
Das Ziel dieses Texts war, die normativen und die praktischen Aspekte des Unterfangens zu prüfen, das Potenzial des Web zu schützen – als „wertvollen Kollisionsraum zwischen offiziellen und inoffiziellen Darstellungen der Wirklichkeit“ angesichts von Suchmechanismen, die auf Beliebtheit und Komfort setzen.50 Das Problem ist Teil einer größeren Debatte darüber, wie Technologie kontrolliert werden kann, die algorithmisch verfährt und in sehr großem Maßstab Aufgaben übernimmt, die ein menschliches Urteil verlangt, etwa die Auswahl und die Analyse von Information. Wenn wir Mechanismen wie die Link-Analyse untersuchen, dann zeigt sich, dass diese technischen Verfahren die Welt nicht in gleicher Weise unterteilen, wie es unsere kulturelle Konditionierung tut, was zu einem beträchtlichen Maß an begrifflicher Unsicherheit führt und zwar bereits auf der Ebene der Analyse, und erst recht, wenn es um normative Betrachtungen geht. Wie wir gesehen haben, ist die Anwendung von demokratischen Prinzipien auf die Kontrolle von Informationstechnologie eine heikle Angelegenheit, die verlangt, dass man sich auf Grundfragen der politischen Organisation besinnt. Die Komplexität der sozio-technischen Konfigurationen im Bereich der Suche und anderer Gebiete der „kulturellen“ Informationstechnologie wird in den kommenden Jahren noch weiter zunehmen, und die Aufgabe, klare Linien für technisch-normatives Denken zu definieren, wird sicher nicht einfacher. In diesem Beitrag habe ich darzustellen versucht, wie man von einer kritischen Analyse der Technologie zu expliziten Empfehlungen kommen kann, ohne auf eine Diskussion des politischen Bezugsrahmens, der für beide gilt, zu verzichten. Denn der Kern des Problems ist: Die „Demokratisierung der Suche“ erfordert ein klares begriffliches Verständnis der Technologie, ebenso wie ein Überdenken unseres Verständnisses von Demokratie. Und sie erfordert die Herstellung von Verbindungen zwischen diesen beiden auf den Ebenen der Kritik, des Designs und der Politik.
Anmerkungen
1 Nach dieser These hat der Kapitalismus nach einer merkantilistischen und einer industriellen Phase ein neues Stadium erreicht, in dem die Produktion von Vermögen zunehmend auf der Produktion von immateriellen Gütern beruht. Die Theoretisierung des Begriffs „kognitiver Kapitalismus“ hatte ihren Mittelpunkt in der Zeitschrift Multitudes und in der Arbeit von Autoren wie Yann Moulier Boutang, Maurizio Lazzarato, Antonio Negri, Paolo Virno und anderen.
2 Deborah Fallows, „Search Engine Users“. Pew Internet & American Life Project, veröffentlicht am 23. Jänner 2005, http://www.pewinternet.org/pdfs/PIP_Searchengine_users.pdf.
3 In diesem Artikel unterscheide ich zwischen Google Search (http://www.google.com), einer Suchmaschine für das Web, und Google Inc., der Firma, die diesen Dienst besitzt und betreibt. Google Inc. bietet auch zahlreiche andere Produkte an, etwa Online-Office-Anwendungen, Video-Tauschseiten, E-Mail, ein soziales Online Netzwerk, usw. Google Inc. generiert praktisch seine ganzen Einnahmen aus den Anzeigen auf seinen Seiten sowie tausenden von Partnerseiten.
4 Eszter Hargittai, „The Social, Political, Economic, and Cultural Dimensions of Search Engines: An Introduction,“ Journal of Computer-Mediated Communication 12, Nr. 3 (2007), http://jcmc. indiana.edu/vol12/issue3/hargittai.html.
5 Lucas Introna und Helen Nissenbaum, „Shaping the Web: Why the Politics of Search Engines Matters“, Information Society 16, No. 3 (2000): 169–185; Susan Gerhart, „Do Web Search Engines Suppress Controversy“, First Monday 9, No. 1 (2004), http://www.firstmonday.org/issues/ issue9_1/gerhart/index.html.
6 Bernhard Rieder, „Networked Control: Search Engines and the Symmetry of Confidence,“ International Review of Information Ethics 3 (2005), http://www.i-r-i-e.net/inhalt/003/003_rieder.pdf; Theo Röhle, „Machtkonzepte in der Suchmaschinenforschung,“ in Die Macht der Suchmaschinen / The Power of Search Engines hg. von Marcel Machill und Markus Beiler (Cologne: Herbert von Halem Verlag, 2007), 127–142.
7 Hartmut Winkler, „Suchmaschinen. Metamedien im Internet,“ Telepolis, 12. März 1997, http://www.heise.de/tp/r4/artikel/1/1135/1.html; Introna and Nissenbaum (2000)
8 FTC Bureau of Consumer Protection, „Commercial Alert Complaint Letter“, FTC, http://www. ftc.gov/os/closings/staff/commercialalertattatch.shtm.
9 FTC Bureau of Consumer Protection, „Commercial Alert Complaint Letter“, FTC, http://www. ftc.gov/os/closings/staff/commercialalertattatch.shtm.
10 Winkler (1997)
11 Introna und Nissenbaum (2000) 12 Matthew Hindman, Kostas Tsioutsiouliklis und Judy A. Johnson, „‘Googlearchy’: How a Few Heavily-Linked Sites Dominate Politics on the Web“ (Paper, Annual Meeting of the Midwest Political Science Association, Chicago, Illinois, 3. – 6. April 2003).
13 Der grundlegende Unterschied besteht darin, dass wir bei der Box zumindest wissen, wo das System beginnt und wo es endet, die moderne IT dagegen meist so verflochten ist, dass wir die Grenzen des Systems nicht mehr bestimmen können. Wir können zum Beispiel zum Umfang der Interaktion und des Datenaustausches zwischen den einzelnen von Google Inc. angebotenen Diensten nur Vermutungen anstellen.
14 Rieder (2005)
15 Im März 2008 gab comScore bekannt, dass 80 % aller in Europa durchgeführten Suchen auf Seiten durchgeführt werden, die Google Inc. gehören: comScore, „comScore Releases March 2008 European Search Rankings,“ http://www.comscore.com/press/release.asp?press=2208.
16 Dies gilt nicht nur für statistische Inhalte (z.B. http://www.example.com/example.html), sondern auch für Seiten, die aus einer Datenbank weitere Seiten generieren (z.B. http://www.example. com/example.php?pid=354).
17 Also jener Teil des Web, der über Links erreichbar ist; Information, die nur über Suchanfragen gefunden werden kann, gehört dem deep web an.
18 Clifford Geertz, The Interpretation of Cultures (New York: Basic Books, 1973), 5.
19 Der SCI gehört nun zur Web of Science-Datenbank, die von Thomson Scientific betrieben wird.
20 Larry Page et al., „The PageRank Citation Ranking: Bringing Order to the Web,“ Technical Report, Stanford InfoLab, 1999, http://ilpubs.stanford.edu:8090/422/
21 Robert Adler, John Ewing und Peter Taylor, „Citation Statistics,“ Report from the International Mathematical Union (IMU) in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS), veröffentlicht am 12. Juni 2008, http://www.mathunion.org/fileadmin/IMU/Report/CitationStatistics.pdf
22 Introna & Nissenbaum (2000)
23 Google Inc., „Technology Overview,“ http://www.google.com/corporate/tech.html
24 Die Formulierung wurde Mitte 2008 geändert, wohl in Vorbereitung auf die SearchWiki-Funktion, die es Nutzern ermöglicht, ihre Seiten manuell an die Spitze zu bewegen. Die zitierte Formulierung ist noch im Internet-Archiv zu finden: http://web.archive.org/web/20071228101625/ www.google.com/intl/en/corporate/tech.html.
25 Scott Huffman, „Search Evaluation at Google“, Official Google Blog, gepostet am 15. September 2008, http://googleblog.blogspot.com/2008/09/search-evaluation-at-google.html.
26 Bing, Pan et al., „In Google We Trust: Users’ Decisions on Rank, Position, and Relevance,“ Journal of Computer-Mediated Communication 12, Nr. 3 (2007), http://jcmc.indiana.edu/vol12/ issue3/pan.html.
27 Winkler (1997)
28 Introna & Nissenbaum (2000)
29 Marissa Mayer, „The Future of Search,“ Official Google Blog, posted September 10, 2008, http://googleblog.blogspot.com/2008/09/future-of-search.html.
30 Pan et al. (2007)
31 Bernhard Rieder, „Métatechnologies et délégation. Pour un design orienté-société dans 1’ère du Web 2.0“ (Dissertation, Université de Paris 8, 2006), http://tel.archives-ouvertes.fr/tel- 00179980/.
32 Winkler (1997)
33 Jimmy Wales, „Free Speech, Free Minds and Free Markets“ (Vortrag am Ford Hall Forum, Suffolk University, Boston, Massachusetts, 11. September 2008), http://fora.tv/2008/09/11/Jimmy_ Wales_-_Free_Speech_Free_Minds_and_Free_Markets
34 Howard Zinn, Passionate Declarations: Essays on War and Justice (New York: Perennial, 2003), 6.
35 John Rawls, Justice as Fairness. A Restatement (Cambridge MA: Harvard University Press, 2001), 3.
36 Thierry Vedel, „L’idée de démocratie électronique. Origines, visions, questions,“ in Le désenchantement démocratique, ed. Pascal Perrineau (La Tour d’Aigues: Editions de l’Aube, 2003), 243–266.
37 Richard Rogers, Information Politics on the Web (Cambridge MA: MIT Press, 2004), 28.
38 John Rawls, A Theory of Justice (Cambridge MA: Harvard University Press, 1971); 225.
39 Jürgen Habermas, „Preisrede anlässlich der Verleihung des Bruno-Kreisky-Preises für das politische Buch 2005“ (Vortrag an der Universität Wien, 9. März 2008) http://www.renner-institut. at/download/texte/habermas2006-03-09.pdf
40 Diaz (2008)
41 Es gibt jedoch beträchtliche Zweifel im Zusammenhang mit Streichungen und negativen Ranking- Parametern. Nach Google Search können „Links zu Web-Spammern oder schlechten Umgebungen im Web“ das Ranking verschlechtern, doch diese Definitionen sind vage. Vgl. Google Inc., „Link schemes“, http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=66356
42 Akira Kawaguchi und Abbe Mowshowitz, „Bias on the Web,“ Communications of the ACM 45, Nr. 9 (2002): 56–60.
43 Article 29 Data Protection Working Party, „Opinion on Data Protection Issues Related to Search Engines,“ Europäische Kommission, veröffentlicht am 4. April 2008, http://ec.europa.eu/justice_ home/fsj/privacy/docs/wpdocs/2008/wp148_en.pdf
44 Introna & Nissenbaum (2000)
45 http://www.exalead.com/search
46 http://clusty.com
47 http://software.rieder.fr/termcloud
48 Some authors and technologists have suggested peer-to-peer methods for solving the datacenter problem. While this is certainly an interesting direction to pursue, I remain very skeptical about whether such an approach can produce the response time needed to compete with a wellmaintained datacenter infrastructure. The most promising attempt, for the moment, seems to be FAROO, http://www.faroo.com.
49 Rieder (2005) 50 Rogers (2004) 171
Content type | text
|
---|---|
Projects | Deep Search. Politik des Suchens jenseits von Google Deep Search World-Information Institute |
Date | 2009 |