Big Data

Aus Daimon

Erinnern

Größte Festplatte der Welt: Das Intelligence Community Comprehensive National Cyber-Security Initiative Data Center der NSA in Utah ist seit Ende 2013 in Betrieb.

Das Datenvolumen wächst exponentiell und damit auch die Obsession des Sammelns und Verarbeitens. Je nach Schätzung verdoppelt sich das Datenaufkommen alle zwei Jahre. Alleine im festverkabelten, öffentlichen Internet - ohne Mobilfunknetze sowie Netzen von Firmen, Finanzwirtschaft und Geheimdiensten - beträgt es derzeit (2012) täglich annähernd ein Exabyte, was einer Milliarde Gigabyte oder der 2500-fachen Datenmenge aller 130 Millionen Bücher, die je gedruckt wurden, entspricht. In der Welt der Exa-, Zetta- und Yottabytes[1] herrschen verschärfte Bedingungen der Zu- und Verteilung von Information, weswegen es spezieller algorithmischer Dämonen und großer Wirtsrechner (Hosts) bedarf.[2] Sniffer-Software und Harvester- Crawler geistern als gierige Daemons durchs Internet und sammeln Daten, die von Korrelationsalgorithmen zu Profilen synthetisiert werden.[3] Profile zeichnen von den Nutzern schattenhafte Doppelgänger, die selbst nach dem biologischen Tod als Wiedergänger und Untote im Netz weiterleben. Gleichzeitig bestimmen PageRank- Algorithmen die Aufmerksamkeit und Präsenz von Inhalten, Themen, Produkten und Personen. Zusammen prägen diese Phänomene gleichzeitig das kulturelle Bewusstsein als auch das individuelle Unbewusste: Das Ich kann sich selbst googeln, aber in seine verborgenen Profile und Protokolle nicht einsehen. Echelon und Patriot Act wirken mittlerweile nostalgisch, denn längst ist eine Verdoppelung von Welt und Personen entstanden, die jene von Borges erzählte Geschichte Von der Strenge der Wissenschaft übertrifft.[4]

Vergessen

Datenzentren wachsen wie Pilze aus dem Boden, deren Hyphen und Myzelien in Form von Leitungen und Übertragungsstrukturen, Knoten und Routern bis hin zu den Endgeräten sowie den unzähligen datenliefernden Sensoren, Kameras und Mikrofonen ein verteiltes und weitgehend unsichtbares Netzwerk bilden. Im Unterschied zu elektronischen Netzwerken fungieren Pilze als Destruenten: Sie akkumulieren nicht Daten, sie bauen organisches Material ab und bereiten neuen Boden. Zwar unterliegen digitale Speichermedien wie alle Aufschreibesysteme der Entropie, aber unter dem Aspekt der Sicherheit werden Daten einerseits redundant aufbewahrt, gespiegelt und geklont und andererseits aus Gründen von Marketing und Überwachung angehäuft. Im Zuge von Big Data spielen deshalb Phänomene des sogenannten Data-Exhaust (Datenabgase) eine zentrale Rolle. Die Infosphäre leidet wie die Ökosphäre an massiven Emissionsproblemen, woraus sich die Frage ableitet, ob Daten ein Verfallsdatum brauchen. Sollen Daten wie das fallende Laub im Herbst zum Humus der Kultur werden?[5] Bedarf es neben der Ordnungs-Dämonen des Sammelns, Analysierens und Korrelierens auch derjenigen der Unordnung und Entropie - oder liegt gerade im Nichtvergessen der Schlüssel zu einer neuen Kultur?

Transparenz

Das "Recht auf informationelle Selbstbestimmung" erfährt bei Anhängern der Postprivacy-Bewegung eine hypertrophe Auslegung. Angesichts der unaufhaltsam voranschreitenden Überwachungstechnologie, wird eine Flucht nach vorne in Form einer Überwachung aller durch alle propagiert. Dies soll zur Demokratisierung der Überwachung, Auflösung asymmetrischer Machthierarchien und einer neuen Transparenz der Gesellschaft führen. Das Nutzer setzt seinen virtuellen Doppelgänger nicht auf Diät, indem es möglichst wenig Spuren zu hinterlassen versucht, sondern füttert die Systeme mit zusätzlicher Information. Freiwillig werden Techniken des Self-Tracking, Life-Hacking und Quantified Self als neoliberale Selbstoptimierung der körperlichen Fitness und Arbeitseffizienz erprobt, um die eigene Biografie als Leistungskurve und statistische Größe sichtbar zu machen. Wieviele Zeichen getippt, Seiten gelesen, E-mails geschrieben, Schritte gegangen oder Kalorien verbraucht wurden, korrelieren in einem "Armaturenbrett" des Selbst. Foucaults "Techniken des Selbst" kommen in ein neues Stadium und stellen einen selbstauferlegten Taylorismus für alle in allen Lebensbereichen in Aussicht. Der virtuelle Doppel- und Widergänger wird zum perfekten Alibi für alle Verdächtigungen von Außen, aber auch für die Defizite der psychischen Innenwelt. Aber wäre eine Gesellschaft ohne Möglichkeit der Lüge, ohne Lücke und Eingeständnis von Nichtwissen etwas anderes als eine verlogene Alibi-Gesellschaft: "Das Wort Glück rührt im Übrigen von der Lücke her. Auf Mittelhochdeutsch heißt es noch gelücke. So wäre die Gesellschaft, die keine Negativität der Lücke mehr zuließe, eine Gesellschaft ohne Glück. (…) Und ohne Wissenslücke verkommt das Denken zum Rechnen."[6]

Theorie oder Spektakel: Agenten des Orakels

Weltsimulator zur Findung der besten aller möglichen Welten: Buckminster Fullers World Game 1967 auf der Expo in Montreal.

Experten streiten sich, ob Big Data das Ende der Theorie oder ihren Neubeginn bedeutet. Während sich die einen eine von Methoden und Ideologien ungefilterte Wissenschaft erhoffen, verlangen die anderen eine Aufbereitung der Daten zu Information und Wissen. Beobachtung kommt in ein neues Stadium und mit ihr der Theoretiker. Blickte der Theoros, der griechische Theaterbesucher, auf den Chorus, blickt der Wissenschafter von heute auf ein Weltdatentheater. Aber welche Geschichte erzählen uns die Daten, die die Welt bedeuten? Die Erzähler und Protagonisten sind Algorithmen, also Daemons, die automatisiert Daten sammeln, verarbeiten und zu einer Geschichte verweben. Das Repertoire des Theaters speist sich damit nicht länger aus Komödie und Tragödie, sondern aus Mathematik und Statistik. Sie bereiten das zeitgenössische Narrativ, das vom Zustand der Welt berichtet. Als Theodor Mommsen 1852 eine Sammlung aller Inschriften des Römischen Reiches anregte, hatte er keine Methode und wollte vor allem keine These oder Theorie unter Beweis stellen. Heute umfasst das Corpus Inscriptionem Latinum über 180.000 Inschriften, die sich vergleichen lassen und Resultate ohne Hermeneutik liefern. Für Wissenschaft im Status von Big Data markiert dies die Wende zur modernen Welterkenntnis.

Theoros hieß auch der Orakelbefrager, der die Zukunft voraussah, indem er Prophezeiungen und Prognosen verkündete. Der Hellseher braucht im Zeitalter von Big Data aber keine Kristallkugel, sondern Predictive Analytics: Zukunft wird extrapoliert, indem das, was Individuen bewegt, sie denken, wählen, kaufen und kommunizieren, hochgerechnet und in die Zukunft projiziert wird. Der Laplace'sche Dämon realisiert sich im Kosmos sozialer Netze und stellt die Möglichkeit in Aussicht, Kontingenz zu minimieren, um im Heute die Notwendigkeit des Morgen zu bestimmen. Big Data wird zu einem panoptischen Mess- und Steuerinstrument, das gegenüber kybernetischen Visionen der 1960er Jahre Daten in Echtzeit und in hoher Quantität verarbeiten kann. Als 1890 der junge Ingenieur Herman Hollerith eine auf Lochkarten basierende elektromechanische Datenverarbeitungsmaschine für die US-amerikanische Volkszählung entwarf, beschleunigte sich die Auszählung gegenüber der manuellen um ein Vielfaches, dauerte aber immer noch zweieinhalb Jahre.[7] Statistische Daten wollen Trends sichtbar machen und den Durchschnittsmenschen im Sinne des "homme moyen" von Adolphe Quêtelet eruieren. Quêtelet hat in Analogie zum Laplace'schen Dämon 1869 eine soziale Physik entworfen, die den Menschen als soziales Atom beschreibt, um demographisch die Zukunft zu planen,[8] was sich in gegenwärtigen Technologien von Firmen und Projekten wie Palantir, Recorded Future, Sentiment World oder FuturICT fortschreibt. Die Zukunft wird mittels riesiger Mengen persönlicher Daten vorherzusagen versucht, um Trends abzuschätzen, Effizienz zu steigern und Investitionen richtig zu platzieren. Für die Ökonomie stellt dies eine verlockende Ressource dar, speziell für die Finanzwirtschaft, wo Hochfrequenzhandel und Algo-Trading ihren Wettbewerbsvorteil in der Abschätzung von Zukunft im Millisekundenbereich performieren. Auch im US-amerikanischen Wahlkampf 2012 konnte Obama seine Strategie täglich und stündlich optimieren.[9] Selbst im Sport, wo Emotion und menschliche Intuition zur Schau gestellt werden, hat kühles Rechnen und Analysieren längst den Vorrang. Die Prozone-Amisco Group wertet beispielsweise über 9000 Fußballspiele jährlich aus und ermöglicht Trainern und Vereinen, nach Spielern mit spezifischen Profilen zu suchen.

Auf was Big Data letztlich abzielt, ist abgesehen von Überwachung im Namen von Kriminaltäts- und Terrrorbekämpfung die Schaffung von Habitaten für Orakeldämonen. Sie sollen im Datenozean schwimmen und diesen ordnen, damit sich die Sicht in die Zukunft aufklärt und wir nicht länger im Trüben fischen. Ob sie irgendwann sich emergent zu einem Pandämonium vereinen, die Komplexität von großen Daten für sich zu nutzen wissen und zur Selbstorganisation fähig sein werden, bleibt abzuwarten. Falls dies passiert, sind soziale Systeme wie Politik, Wissenschaft, Ökonomie und Kunst alte Namen für neue algorithmische Dämonen, die bei den Griechen Moiren hießen.

Einzelnachweise

  1. Ein Exabyte entspricht einer Milliarde Gigabytes, Zettabytes sind 1000 Exabytes und Yottabytes entsprechen einer Million Exabytes.
  2. Das Utah Data Center der NSA setzt beispielsweise leistungsstarke Cray XC30 ein. Google basiert dagegen auf preiswerten Standardkomponenten in Form IBM-kompatibler Personal Computer.
  3. Beispielsweise hat Acxiom in Little Rock im US-Bundesstaat Arkansas eine Datenbank mit über 500 Millionen Konsumentenprofilen auf über 23.000 Servern aufgebaut. Die Korrelation von Daten wie Alter, Geschlecht, Größe, Gewicht, Bildung, Zahlungsverhalten ist in den USA legal.
  4. Vgl. Jorge Luis Borges, "Von der Strenge der Wissenschaft", in: ders., Borges und ich. Gesammelte Werke. Band 6, München 1982, S. 121. Die kurze Geschichte erzählt von einem Volk von Kartographen, die eine Karte im Maßstab 1:1 von ihrem Land nicht nur zeichnen, sondern dreidimensional errichten.
  5. Vgl. Mycelium: Image Decay
  6. Byung-Chul Han, Transparenzgesellschaft, Berlin 2013, S. 11.
  7. Die Erfolgsgeschichte der 1896 von Hollerith gegründeten Tabulating Machine Company, die 1924 unter Thomas J. Watson in International Business Machines (IBM) umbenannt wurde, ist hinlänglich bekannt. Entscheidend ist die ursächliche Verknüpfung von Informationstechnologie, Statistik und Demographie, die sich seitdem rasant entwickelt hat und gegenwärtig im Phänomen Big Data kulminiert.
  8. Adolphe Quêtelet, Physique sociale ou essai sur le développement des facultés de l'homme, Brüssel 1869.
  9. Vgl. Sasha Isenburg, The Victory Lab, 2012.

Weblinks