TAG MAPcontentquery
LOG

MAP BROWSING HISTORY

MAP LEGEND

CONTENT TYPES
Texts Videos Images Authors Projects
TAG TYPES
General Tags Technologies Authors Places Names
SPECIAL TYPES
Root Topics

Deep Search. Politik des Suchens jenseits von Google - Einleitung

Deep Search. Politik des Suchens - Einleitung

Es ist heute kaum mehr möglich, Suchmaschinen zu vermeiden. Sie sind zu unverzichtbaren Navigationsinstrumenten für die dynamische und expandierende Informationslandschaft des Internet geworden. Da das Internet weder über einen eigenen Index noch ein Katalogisierungssystem verfügt, erfüllen Suchmaschinen eine zentrale Aufgabe: digitale Information zugänglich und damit nutzbar zu machen. Es ist schwer, sich den Alltag in den Informationsgesellschaften ohne sie vorzustellen. Dieses Buch platziert Suchmaschinen am Ende einer langen Geschichte von Versuchen, Ordnung in den stets fragilen Informationsuniversen zu schaffen. Es beschäftigt sich mit zentralen sozialen und politischen Fragen, die von den Suchmaschinen der Gegenwart aufgeworfen werden, und es stellt Sichtweisen vor, die mit den von diesen Suchmaschinen etablierten Paradigmen brechen.

Derzeit nimmt Google einen besonderen Platz im Bereich der digitalen Suche ein. Erstens beherrscht es den Markt in einem Ausmaß, das in vielen Ländern der Welt de facto einem Monopol1 gleichkommt. Zweitens verfolgt Google weitreichende Ambitionen wie momentan kein anderes Unternehmen. In fast wöchentlichem Rhythmus werden neue, oft gigantisch dimensionierte Initiativen bekannt gegeben – von der Digitalisierung von Millionen von Büchern bis hin zum Aufbau einer ganzen Kommunikationsplattform (Google Phone), die perfekt in die Google-Dienste integriert ist. Nicht einmal eine vollständige Weigerung, Google zu verwenden, bietet einen Ausweg. Ein hoher Prozentsatz an Webseiten ist im Hintergrund mit diversen Google-Diensten verknüpft, und selbst wer seine Nachrichten noch auf bedrucktem Papier erhält, trifft dort immer noch auf Google. Berichte über seine Angebote gibt es überall, mal affirmativ- bewundernde oder kritisch, mal oberflächlich oder anspruchsvoll. Und wir hören immer mehr über die Gefahren einer derart machtvollen Einrichtung, die in so viele Bereiche unserer individuellen und kollektiven Existenz vordringt.Google beherrscht nicht nur Märkte, sondern auch unser Denken – so weit, dass für viele die Themen Suchmaschinen und Google ein und dasselbe sind. Dies ist bedauerlich, denn Fragen der Suche, der Klassifizierung und des Zugangs zu Information reichen viel weiter als das Geschäftsmodell eines einzelnen Unternehmens. In ihnen spiegeln sich historische Veränderungen (und Kontinuitäten) in unserer Beziehung zur Welt wider. Es ist erst recht bedauerlich, da das Geschäftsmodell von Google nicht (mehr) in erster Linie die Suche ist, sondern eindeutig die Werbung (die Quelle von 98% der Einnahmen2). Die Suche ist einzig eines der Produkte, das eine Umgebung schafft, in der der Zugang zu den einzelnen Nutzern anhand detaillierter persönlicher Profile in Geld verwandelt werden kann.

Wir befinden uns noch in der Gründungsphase der digitalen Informationslandschaften, egal was die Finanzmärkte jeweils gerade vom „Technologiesektor“ halten. Die Geschwindigkeit und die Dynamik der Entwicklung von Suchtechnologien belegen das. Es ist schwer, die Details im Auge zu behalten. Aber vielleicht ist das auch der falsche Zugang. Wir sollten uns wohl vielmehr auf die strukturellen, langfristigen politischen Fragen konzentrieren, die mit dieser Entwicklung einhergehen. In der täglichen Wirklichkeit der Informationsüberflutung ist es wichtig, sowohl die Willkür der Werkzeuge zu erkennen, von denen wir abhängig geworden sind, als auch, dass die Hierarchien auf den Märkten und in den Suchergebnissen nicht wundersam durch die Natur selbst hervorgebracht werden. Unschuldige Anwendungen, die sich nahtlos in die Routine des Alltagslebens in Beruf und Freizeit einfügen, verformen unsere Wahrnehmung und nisten sich in die Textur unserer kognitiven Wirklichkeit ein. Die meisten Nutzer akzeptieren diese Vorstrukturierung durch die Technologie unkritisch3. Doch darin liegt eine Gefahr.

Mit diesem Buch wollen wir den Blick auf die soziale und technische Konstruktion von Information und Wissen leiten: Wie wird computer-lesbare Signifikanz geschaffen, und wie wird Bedeutung in der maschinellen Kommunikation behandelt? Welche Gefahren birgt die Abhängigkeit von Suchmaschinen – besonders, wenn sie von undurchsichtigen und aggressiven Monopolen betrieben werden – bei der Verwendung der durch sie gewonnenen Informationen? Und könnte das alles auch ganz anders sein? Diese Fragen der Kultur, des Kontexts und der Klassifizierung in Informationssystemen sollten nicht übergangen werden, denn was hier auf dem Spiel steht, ist nichts weniger als die Art und Weise, in der wir als Individuen und Kollektive etwas über die Welt erfahren.

Obwohl Suchmaschinen selten als Massenmedien wahrgenommen werden, nehmen sie eine zentrale Stellung in unserer vernetzten Gesellschaft ein. Verglichen mit ihrem Einfluss auf Kultur, Ökonomie und Politik erscheint jener der TV- und Rundfunknetzwerke und der Zeitungen mitunter recht klein. Dennoch verstehen wir die Macht, die von ihnen ausgeht, immer noch nicht. Es geht hier offensichtlich nicht um klassische redaktionelle Fragen. Vielmehr geht der ungemein große Einfluss der Suchmaschinen auf die Datenflüsse eines weitgehend dezentralisierten Netzwerks auf ihre Lage an den Engstellen der Informationsinfrastruktur zurück. Macht geht auch hier mit der Möglichkeit des Missbrauchs einher und mit der Sorge um ihre legitime und angemessene Ausübung.

Der vorliegende Band stellt einen Versuch dar, einen Beitrag zur öffentlichen Debatte zu leisten, die in den letzten Jahren in Gang gekommen ist. Er besteht ausvier Abschnitten. Der erste Abschnitt befasst sich mit Geschichten. Paul Duguid untersucht die wechselnden Arrangements, welche seit den ersten sumerischen Bibliotheken mit der Praxis des Suchens verbunden sind. Er identifiziert dabei zwei Trends, die quer durch alle Perioden festzustellen sind. Zum einen die Notwendigkeit, immer größere Informationsmengen zu verwalten, die zu einer treibenden Kraft in der Entwicklung von Speichermedien, Organisation und Suchtechniken wurde. Zum anderen eine ständige Spannung zwischen jenen Praktiken, die den Zugang zu Information im Namen der Freiheit erleichtern, und jenen, welche die Möglichkeiten, mit Information zu arbeiten, im Namen der Qualität einschränken. Nach diesem breit angelegten Überblick beschäftigt sich Robert Darnton mit der Geschichte unseres Umgangs mit Text und der Bibliothek als einer der zentralen Einrichtungen. Er geht von der Feststellung aus, dass Information immer instabil gewesen ist, und dass jedes Zeitalter ein Informationszeitalter war, und zwar in dem Sinn, dass die jeweils spezifischen Formen des Umgangs mit Text großen Einfluss auf die Geschichte hatten. Dies öffnet den Blick dafür, dass Information sich niemals einfach nur auf externe Realitäten bezieht, sondern immer (auch) das Produkt spezifischer Speicher- und Wiedergabetechnologien ist. Darnton fragt daher, was in den Übergängen von einem Informationsverarbeitungssystem zum nächsten gewonnen wird, und was verloren geht. Mit Blick auf diese Instabilität kommt er zu dem Schluss: „Lang lebe Google, aber erwarten wir uns nicht, dass es lange genug leben wird, um das altehrwürdige Bibliotheksgebäude mit den korinthischen Säulen zu ersetzen.“ Google beruht – wie praktisch jede andere aktuelle Suchmaschine – auf einem Linkanalyse-Verfahren, das heißt, es analysiert die Links, die auf ein Dokument verweisen, um so die relative Wichtigkeit dieses Dokuments zu bewerten. Obwohl dies oft als bedeutender Durchbruch gilt, zeigt Katja Mayer, dass dieser soziometrische Zugang selbst eine lange Geschichte hat. Er wurde im frühen 20. Jahrhundert mit der politisch progressiven Absicht entwickelt, kleine Gruppen dabei zu unterstützen, ihre eigene, oft überraschende interne Dynamik zu verstehen. Später wurde die Soziometrik in eine Management-Technik umgeformt, die es ermöglichte, wissenschaftliche Arbeit zu beurteilen, ohne sich auf die komplexen Argumente einzulassen, die in einer immer größeren Zahl von wissenschaftlichen Disziplinen vorgebracht wurden. Der in den 1950er-Jahren entwickelte Science Citation Index schien eine politisch neutrale, rein formale Methode zur Bestimmung der Bedeutung von Veröffentlichungen und Wissenschaftlern anzubieten. Diese Methode wurde von den Suchmaschinen übernommen und wird nun in allen Bereichen der Informationsproduktion eingesetzt. Sie wird jedoch zunehmend bekannter und damit – wie der Citation Index selbst – ein Gegenstand von Manipulationen, dessen innere Grenzen deutlich zu Tage treten. Das letzte Kapitel in diesem Abschnitt stammt von Geert Lovink. Er greift Joseph Weizenbaums Feststellung auf, wonach „nicht alle Aspekte der Wirklichkeit mit dem Computer verarbeitet werden können“, und stellt die Frage, wie wir in historisch und sozial bewusster Weise über die Informationsflut nachdenken können, welche Suchmaschinen uns zugänglich machen wollen. Sein Rat lautet: Hört auf zu suchen, beginnt zu fragen!

Der zweite Abschnitt befasst sich mit Freiheiten. Suchmaschinen geben Menschen die Möglichkeit, riesige Informationsmengen zu nutzen, doch allein schon die damit einhergehende Zentralisierung macht sie zu Instanzen, die genau diese Freiheiten kontrollieren. Claire Lobet-Maris untersucht die Methoden der Technikfolgenabschätzung und formuliert aus dieser Perspektive die Frage, wie Suchtechnologien Gegenstand einer demokratischen Debatte werden könnten. Aus ihrer Sicht sind drei Fragen zu stellen: die Frage der Gleichheit (gleiche Chancen, online gefunden zu werden), die Frage der Tyrannei der Mehrheit (die Link- Analyse begünstigt populäre Seiten), und schließlich die Frage der Transparenz (also die Möglichkeit, die Funktionsweise von Suchmaschinen zu bewerten und in Frage zu stellen). All dies führt zur Frage der Autonomie. Diese könnte nach Lobet-Maris eingeschränkt werden, wenn Suchmaschinen davon ausgehen, dass der „klickende Körper“, also die Spuren, die Menschen hinterlassen und die von Suchmaschinen aufgesammelt werden, vertrauenswürdiger ist als der „sprechende Körper“ – das also, was Menschen über sich selbst zu sagen haben. Joris van Hoboken wählt einen anderen Zugang zur Frage der Freiheit: Gegenstand seines Beitrags ist die Regulierung von Suchmaschinen in der europäischen Gesetzgebung. Immer häufiger, so van Hoboken, werden Suchmaschinen Ziele von Zugangsbeschränkungen zu Information, indem sie gezwungen werden, ihre Resultate zu zensurieren. Van Hoboken betont, dass die vielen Grauzonen, in denen Suchmaschinen arbeiten müssen, die Chancen für Neueinsteiger auf dem Suchmarkt schmälern. Ein Grund, weshalb Google seine Dienste noch anbieten kann, ist daher seine große und mächtige Rechtsabteilung – eine Voraussetzung für die Arbeit in diesem Bereich. Das dritte Kapitel in diesem Abschnitt stammt von Felix Stalder und Christine Mayer und kehrt zur Frage zurück, ob Suchmaschinen die Autonomie der Nutzer stärken oder schwächen. Ihr Zugang zu dieser Frage konzentriert sich auf das Thema Personalisierung, also den Zuschnitt von Diensten auf Nutzer und Anzeigenkunden aufgrund von extensiven Nutzerprofilen. Liegt darin eine Möglichkeit, die Tyrannei der Mehrheit zu überwinden, indem Information verfügbar gemacht wird, die nicht so populär ist – oder wird die Autonomie der Nutzer reduziert, indem Überwachung und Manipulation durch soziales Sortieren vorangetrieben werden?

Der dritte Abschnitt behandelt direkt Fragen der Macht. Zunächst untersucht Theo Röhle anhand von Begriffen Foucaults und der Actor-Network-Theoriedie fragile Kombination aus Belohnung und Bestrafung, die Google einsetzt, um Webmaster unter Kontrolle zu halten. Röhle zufolge führe diese Strategie zu einem disziplinären Regime, welches eine bestimmte Norm für Web-Veröffentlichungen durchsetzt. In einer Untersuchung der Beziehungen zwischen Google und den Nutzern identifiziert Röhle Machtformen, die darauf abzielen, differenzierte Verhaltensmuster zu kontrollieren, indem sie ein umfassendes statistisches Panorama einer Bevölkerung anlegen und das so gewonnene Wissen als Mittel eines präventiven Risikomanagements einsetzen. Bernhard Rieder stellt fest, dass die Diskussion um die Macht der Suchmaschinen oft von einer großen Distanz zwischen technischen und normativen Zugängen beeinträchtigt wird, obgleich diese voneinander profitieren könnten. Um dieser Distanz entgegenzuwirken, entwickelt er eine technisch sensible normative Position, die sich für Pluralität, Autonomie und Zugang als alternative Leitbegriffe für Politik und Design ausspricht. Seine Schlussfolgerungen überraschen: Einen der wichtigsten Strategien, um die uneingeschränkte Macht von Suchmaschinen zu kontrollieren, könnte darin bestehen, Drittparteien die Möglichkeit zu verschaffen, Suchergebnisse neu zu reihen. Wir sollten Zugang zum Index fordern! Dies würde einer Vielfalt von Akteuren die Möglichkeit geben, die riesige Infrastruktur der Suchmaschinen (die äußerst schwer nachzubauen ist) zu nutzen, gleichzeitig aber alternative Ranking-Methoden einzusetzen (was vergleichsweise einfach ist). Mit dem darauf folgenden Beitrag Matteo Pasquinellis wird ein Schritt von einer liberalen zu einer radikalen Perspektive vollzogen: Pasquinelli untersucht, wie Google aus individuellen Handlungen und general intellect Mehrwert abschöpft und in Netzwerkswert und Reichtum verwandelt. Pasquinelli beschreibt diesen Vorgang anhand des Begriffs der „kognitiven Pacht“. Bei dieser geht es nicht mehr um geistiges Eigentum, sondern um einen auf „freie Kultur“ und „kostenlose Arbeit“ zugeschnittenen Begriff. Der letzte Beitrag in diesem Abschnitt stammt von Konrad Becker. In seinem frei assoziierenden Essay befasst er sich mit der Rolle von Klassifizierungssystemen als Technologien der Macht und betont: „Technologien der Wahrnehmung sind Ausdruck politischer Philosophie, maskiert als neutraler Code.“

Der letzte Abschnitt beschäftigt sich mit Fragen der Sichtbarkeit. Richard Rogers stellt eine schleichende „Vergoogelung“ der ganzen Medienlandschaft fest, wonach die Methoden, die Google zur Vorherrschaft verholfen haben, nun auch anderswo eingesetzt werden. Diese Methoden sind nie rein technisch, sondern immer auch politisch, wenn nicht der Absicht nach, so doch in ihrer Wirkung. Eine von Rogers vorgeschlagene Methode zur Beurteilung dieser Entwicklungen besteht in einer Auseinandersetzung damit, wie „geringfügige Veränderungen des Interfaces eine Politik des Wissens implizieren“. Metahaven, einForschungs- und Designstudio, wendet sich erneut der Soziometrik und dem vorherrschenden Paradigma zu, auf dem PageRank beruht. Anstatt sich jedoch auf die üblichen dicht verlinkten Knoten zu konzentrieren, stellen sie die Frage, „wie eine andere Sicht auf die gesellschaftliche Bedeutung von ‚schwachen Bindungen‘ zu einer größeren Wertschätzung ihrer Relevanz in Netzwerken führen kann“. Anhand von fortgeschrittener Netzwerktheorie stellen sie den Zugang, der sich auf die Redundanz des Zentrums konzentriert einem anderen gegenüber, der bestimmte Positionen an der Peripherie sucht. Sie suchen nach Seiten, die engmaschige Cluster miteinander verbinden und die tatsächlich Zugang zur größtmöglichen Menge an Information herstellen könnten, da sie Welten miteinander verbinden, die ansonsten voneinander getrennt sind. Der Beitrag stellt den Präsidentschaftswahlkampf Barack Obamas und die gegenwärtige Netzwerkstruktur von Al Quaida als Beispiele für das Potenzial einmaliger schwacher Bindungen vor, die an die Stelle von redundanten starken Bindungen treten. Das letzte Kapitel in diesem Abschnitt ist von Lev Manovich und hat dessen ehrgeiziges neues Projekt zur Grundlage. Er verabschiedet sich von der herrschenden Vorstellung, man solle das eine richtige Dokument finden. Stattdessen vertritt er den Standpunkt, dass wir die Paradigmen des 20. Jahrhunderts aufgeben müssen: Diese beruhten auf relativ kleinen Datensätzen, welche noch Einzeluntersuchungen ermöglichten (so wie Bilder an weißen Museumswänden getrennt voneinander präsentiert werden). Nach Manovich müssen wir uns aber mit der Tatsache anfreunden, dass die kulturelle Entwicklung nicht mehr auf einige privilegierte Produzenten reduziert werden kann, sondern heute durch die Interaktion von Millionen von Produzierenden  vorangetrieben wird, die die gleichen Werkzeuge einsetzen und auf die gleichen Informationen reagieren. Manovich lässt damit die Logik der Ergebnislisten hinter sich und stellt neue Formen des Zugangs zu globalen digitalen Kulturen vor.

Neue technische Entwicklungen und Durchbrüche im Bereich der Organisation, der Klassifizierung und der Analyse von großen  Datensätzen markieren den Punkt, an dem die Geschichte auf die Zukunft trifft. Er erinnert uns daran, dass Freiheiten immer  verteidigt und neu verhandelt werden müssen, und dass Sichtbarkeit und Unsichtbarkeit der Autonomie und der Befähigung aller dienen müssen.

 

Dank
Viele der Beiträge in diesem Band wurden zuerst auf der Deep Search-Konferenz vorgestellt, die am 8. November 2008 in Wien stattfand. Die damaligen Präsentationen sind als Videostreams abrufbar.4 Die Konferenz wurde durch das World-Information Institute in Partnerschaft mit dem internationalen Forschungsnetzwerk IRF (Information Retrieval Facility) organisiert und geplant
und von Matrixware Information Services und dem Österreichischen Bundesministerium für Unterricht, Kunst und Kultur unterstützt. Die Produktion einer Konferenz und eines Buchs ist eine große Aufgabe, die nicht ohne die Hilfe und Unterstützung zahlreicher Menschen realisiert werden kann. Wir möchten allen Teilnehmern für ihre großartigen Beiträge5 und die Begeisterung danken, die sie in die Konferenz und in die Produktion diesesBuchs einbrachten. Viel verdanken wir auch der Zusammenarbeit mit Patrice Riemens, der uns mit laufenden Forschungs- und Publikationsprojekten in Verbindung brachte, von denen wir ansonsten vielleicht nicht erfahren hätten. Wolfgang Sützl übersetzte, Martin Wassermair und Christine Mayer  lektorierten alle Beiträge.

Wien, April 2009
Konrad Becker und Felix Stalder
World-Information Institute

Anmerkungen

1 In den USA ist der Martkanteil von Google 72%, in Indien 81%, in Deutschland und Chile je 93% und in Holland 95%. Nur in Asien ist Google nicht marktbeherrschend. In China liegt der Anteil bei 26%, in Taiwan bei 18% und in Korea sogar nur bei 3%. Siehe: http://googlesystem. blogspot.com/2009/03/googles-market-share-in-your-country.html
2 Eric Schmidt. Interview with Charlie Rose (6. März 2009) http://www.charlierose.com/view/interview/10131
3 Lee Rainie u. Graham Mudd, Search Engines: Project Data Memo, Pew Internet & American Life Project (Aug. 2004) Abrufbar unter http://www.pewinternet.org/pdfs/PIP_Data_Memo_Searchengines. pdf (“The average visitor scrolled through 1.8 result pages during a typical search.”)
4 http://world-information.org/wii/deep_search/
5 Da fast alle Beiträge aus dem Englischen übersetzt werden mussten, möchten wir darauf hinweisen, dass sich alle Bezeichnungen als geschlechtsneutral verstehen.

Translations

Deep Search. The Politics of Search beyond Google - Introduction (en)
Konrad Becker | Felix Stalder (April 2009)
Content type
text
Projects Deep Search. Politik des Suchens jenseits von Google
Deep Search
World-Information Institute
Date April 2009

Tags

Wissenschaftspolitik Informationsgesellschaft Archive Science Citation Index Soziometrie PageRank Kategorisierung Indizierung Suchmaschinen Suchtechnologien Bibliothekswissenschaft web3.0 Datenbanken online publishing Google Richard Rogers Paul Duguid Joris van Hoboken Robert Darnton Eric Schmidt Joseph Weizenbaum Claire Lobet-Maris Theo Röhle Bernhard Rieder Matteo Pasquinelli Geert Lovink Katja Mayer Lev Manovich metahaven Barack Obama
No query in this session yet. Please use the tag map to the left to get a listing of related items.