In den 2010er Jahren sind „Big Data“ und „Smart Data“ die großen Hoffnungen der Prognostik-Industrie. Waren es in der Futurologie der 1960er Jahre noch mathematische Weltmodelle auf Supercomputern, von welchen man sich ein neues Zeitalter der Vorhersagbarkeit versprach, so sind es nun selbstlernende Algorithmen, welche in gigantischen Datenmengen automatisch Muster und Zusammenhänge erkennen. Doch diese Smart Data Maschinerien arbeiten nicht auf einer von der Lebenswelt losgelösten Metaebene. Vielmehr bekommen sie selbst zunehmend Einfluß darüber, wie wir Menschen und verhalten, welche Prioritäten wir setzen und in welchen Filterblasen wir uns aufhalten. Ist das Heilsversprechen der Vorhersagbarkeit menschlichen Verhaltens am Ende nicht mehr als die Drohung eines neuen Zeitalters der Massennormierung? Hier lohnt sich ein Blick durch die Brille des Poststrukturalismus:
Das Daten-Panopticon
Das Panopticon wurde Ende des 18. Jahrhunderts vom Philosophen und Sozialreformer Jeremy Bentham (1748 – 1832) entwickelt als moderne Form von Gefängnissen und Fabriken. Im Zentrum des Panopticons ist ein Wachturm so positioniert, dass man von diesem aus die gesamte Anstalt überblicken kann. Ein Wärter kann so jederzeit sämtliche Gänge und Zellen beobachten. Da die Gefangenen den Wärter in seinem Turm nicht sehen können, wissen sie nie, wohin er gerade blickt. Er könnte gerade die gegenüberliegende Seite inspizieren. Er könnte auch schlafen oder gar nicht da sein. Er könnte einen aber auch gerade in diesem Moment intensiv beobachten. Man weiss es nicht. Aber allein die Möglichkeit, dass der Wärter den Blick auf einen richten könnte, führt dazu, dass man sich zur Sicherheit regelkonform verhält. Die Insassen oder Arbeiter werden so auf erwünschtes Verhalten konditioniert. Irgendwann ist es irrelevant, ob im Wachturm jemals überhaupt ein Wächter war. Die Insassen haben sich selbst zur Konformität diszipliniert.
Der französische Philosoph Michel Foucault (1926 – 1984) analysiert in seinem Werk „Überwachen und Strafen“[i] die Entwicklung eines ausgeprägten Kontroll- und Disziplinierungssystems in der westlichen Gesellschaft, welche mit der Industrialisierung im 18. Jahrhundert einsetzte. Benthams Panopticon ist für ihn Sinnbild für die repressiven Machttechniken des Kapitalismus, welche die Konformität des Individuums sicherstellen sollen. Im Gegensatz zu früheren Machtsystemen wird im Panoptismus nicht mehr auf körperliche Gewalt oder Fremdzwang gesetzt. Denn diese sind leicht durchschaubar, unbeliebt und auch teuer in der Durchsetzung. Viel effektiver und kostengünstiger ist es, über normativen Druck einen Selbstzwang zur Selbstdisziplinierung aufzubauen.
So wurde ein Netzwerk von Disziplinaranstalten über den Kontinent gezogen mit Schulen, Militäreinrichtungen, Behörden oder Krankenhäusern, welche den Einzelnen der permanenten Sichtbarkeit unterwerfen. Dieser ist dadurch gezwungen, die Normen und Werte der Gesellschaft jederzeit zu befolgen. Im Lauf der Zeit werden diese Regelwerke derart verinnerlicht, dass diese gar nicht mehr als Zwang bewußt sind. Vielmehr werden sie zum neuen Leitprogramm des Einzelnen, der dadurch für seine Mitmenschen vom Überwachten zum Wächter wird. Er wird zur Verlängerung des Überwachungs- und Disziplinarsystems. Die Smart Data Bewegung ist der bisherige Höhepunkt dieser Entwicklung. Das Panopticon wird zum Daten-Panopticon.
Plan des Panopticons von Jeremy Bentham, 1791
Der beobachtungsfreie Raum schrumpft kontinuierlich. Er wird im Daten-Panopticon von zwei Fronten aufgefressen. Die erste Front ist die Smart Data Zeichenkultivierungsmaschinerie. Immer mehr Lebensraum wird von Sensoren überwacht: Kameras in Straßen, Gebäuden und anderer Leute Handys, Satellitenbilder, Google Streets und Drohnen, die bis ins Rosenbeet hineinzoomen, Elektronik in Autos, Uhren, Staubsaugern und zahllosen anderen Alltagsgegenständen, die permanent online sind et cetera.
Die zweite Front ist die wuchernde Dominanz des virtuellen Raums. Der Mensch verbringt immer weniger Zeit in der Offline-Welt und immer mehr Zeit in der Online-Welt. Mitte der 2010er Jahre blickt man im Schnitt alle 18 Minuten auf sein Handy. Bei den unter 25-Jährigen ist der Wert noch viel höher.[ii] Ein wesentlicher Teil der sozialen Kommunikation wird mittlerweile darüber abgewickelt. Weltweit beträgt die durchschnittliche tägliche Zeit im virtuellen Raum der Medien 492 Minuten. In Deutschland liegt der Wert noch höher: 557 Minuten pro Tag werden hier im Jahr 2015 durchschnittlich in der Medienwelt verbracht.[iii] Das sind über neun Stunden, mehr als die Hälfte der Wachzeit. Die Tendenz ist weiterhin steigend.
In dieser Zeit schlägt das Daten-Panopticon gleich doppelt zu. Erstens können die Online- und Medienaktivitäten lückenlos überwacht werden. Zweitens kann in dieser Zeit die Vorstellung des Nutzers intensiv mit Information gefüllt werden, mit Normen, Werten und Meinungen, die dieser derart verinnerlicht, dass er Fremdprogramme und eigene Gedanken nicht mehr unterscheiden kann. Der Überwachte wird zum Wächter.
Menschcomputer oder Computermensch?
Michel Foucault hat diesen Vorgang schon Jahrzehnte vor der Smart Data Welle sehr treffend beschrieben als Ineinandergreifen der Prozesse Objektivierung und Subjektivierung.[iv] In der Phase der Objektivierung werden die Individuen vermessen und dokumentiert. Die Disziplinarmacht führt eine Bestandsaufnahme durch und wertet dann die gemessenen Merkmale in Bezug auf ein Ziel aus. Auf Basis dieser Messungen definiert sie Stellenwerte und deren Kriterien, beispielsweise Leistungsanforderungen, Kenntnisse oder Abschlüsse, welche Voraussetzung für bestimmte Positionen in der Gesellschaft sind. So wird beispielsweise für den Stellenwert eines Studenten ein erfolgreich bestandenes Abitur vorausgesetzt, welches selbst wiederum nachgewiesene Kenntnisse in verschiedenen Wissensgebieten voraussetzt.
In der Phase der Subjektivierung bemühen sich nun Individuen, diesen definierten Anforderungen zu entsprechen und alle notwendigen Kriterien zu erfüllen. Sie machen sich zum Trägersubjekt des angestrebten Stellenwerts, indem sie ihre Persönlichkeit und ihr Verhalten entsprechend der vorgegebenen Normen und Werte disziplinieren. Dieses System funktioniert deshalb so effektiv, weil der Kreislauf des Selbstzwangs oberflächlich betrachtet wie Freiwilligkeit aussieht. Man meint, sich aus freien Stücken die Mützen und Masken der disziplinären Leitprogramme aufzusetzen. Die Subjektivierung ist also jener Prozess, in dem sich Individuen veranlasst sehen, ihre Eigenwerte nach den Leitbildern angestrebter Stellenwerte auszupegeln.
Ein gutes Beispiel sind die Google-Suchmaschinenergebnisse, welche seit einigen Jahren „personalisiert“ werden. In der Phase der Objektivierung wird von Google das Onlineverhalten des Nutzers fortlaufend analysiert, um seine speziellen Interessen zu identifizieren. Auf Basis des so konstruierten Nutzerprofils erfolgt individuell eine Auswahl der Suchergebnisse. Es werden also nicht allen Menschen bei denselben Suchbegriffen dieselben Ergebnisse angezeigt. Vielmehr erhält jeder Nutzer jene Treffer, von denen Google glaubt, dass sie für ihn am interessantesten sind. In der Phase der Subjektivierung bekommt man diese individualisierten Ergebnisse nun angezeigt und wird so immer weiter in eine hermetische Interessensblase hineinmanövriert. Alte Gewohnheiten pflanzen sich fort und potenzieren sich, während sich das Überraschende, Exotische, Neuartige in den Suchergebnissen systematisch minimiert. Die Implikationen für die Smart Data Prognostik sind weitreichend. Der Informatiker Johannes Buchmann schreibt in einem Brand Eins Interview:
„Lässt sich aus den Daten der Vergangenheit die Zukunft vorausberechnen? Das funktioniert nur dann ganz gut, wenn nichts Ungewöhnliches passiert. Es gibt natürlich Situationen, die wie erwartet eintreten. Dann können Computer das auch vorhersagen. Aus philosophischer Perspektive betrachtet, herrscht in Europa aber weitgehend Einigkeit darüber, dass unser Leben nicht vorherbestimmt ist. Weil der Mensch in seinen Entscheidungen so frei ist, dass immer wieder Ungewöhnliches und Überraschendes passiert. Daher stößt Prognostik immer an Grenzen. Da können die Big-Data-Fans behaupten, was sie wollen.“[v]
Was aber passiert in einer Welt, in der ein Großteil der Menschen permanent einer umfassenden Subjektivierungsmaschinerie ausgesetzt ist? Wie spontan und überraschend können Individuen noch agieren, wenn sie den größten Teil ihres Wachbewußtseins damit verbringen, im virtuellen Raum den vorgefertigten Bahnen, Meinungen und Entscheidungswegen von Algorithmen und Programmen zu folgen, die in andauernden Zwangshandlungen immerzu dieselben Apps, Websites und Sendungen abrufen? Wie sehr werden derart sozialisierte Generationen in der Zukunft noch Willens oder in der Lage sein, diese metertiefen Trampelpfade der Massenhypnose zu verlassen und verblüffende neue Wege zu gehen, für Disruptionen im System zu sorgen? Werden diese künftigen Generationen im Smart Data Panopticon selbstbestimmte Spieler und Akteure sein oder lediglich die Spielfiguren, die Trägersubjekte der Algorithmen?
Die Wahrscheinlichkeit ist gering, dass Computer in absehbarer Zeit derart intelligent werden, dass sie das Verhalten von Menschen zuverlässig simulieren und antizipieren können. Vielmehr besteht die Gefahr, dass die Menschen durch die exzessive Nutzung von Computern immer mehr Sklaven ihrer Routinen werden, immer weniger in der Lage sind, aus den selbsterfüllenden Prophezeiungen der Smart Data Programme auszuscheren. Nicht ein intelligenter Menschcomputer wäre dann Quelle zuverlässiger Smart Data Prognostik, sondern das berechenbare Verhalten von Computermenschen.
FUSSNOTEN
[i] Foucault (1977)
[ii] siehe Markowetz (2015)
[iii] Austin (2015), S. 1, 78
[iv] vgl. Foucault (1977), Laske / Weiskopf (1996), S. 319 oder Niederwieser (2002), S. 43f
[v] Ramge (2013), S. 35
LITERATUR
Austin, Anne / Barnard, Jonathan / Hutcheon, Nicola (2015) Media Consumption Forecasts 2015, London: ZenithOptimedia
Foucault, Michel (1977) Überwachen und Strafen: Die Geburt des Gefängnisses, Frankfurt: Surkamp Verlag
Laske, Stephan / Weiskopf, Richard (1996) Personalauswahl – Was wird denn da gespielt? in Zeitschrift für Personalforschung ZfP 10 (40), Mering: Rainer Hampp Verlag
Markowetz, Alexander (2015) Digitaler Burnout: Warum unsere permanente Smartphone-Nutzung gefährlich ist, München: Droemer HC
Niederwieser, Christof (2002) Über die magischen Praktiken des Managements – Persönlichkeitsmodelle des modernen Managements im kulturhistorischen Vergleich, München: Rainer Hampp Verlag
Ramge, Thomas (2013) Big Data, Big Picture, Big Brother? in Brand Eins 08/13, Hamburg: Brand Eins Verlag
SIE MÖCHTEN DIESEN ARTIKEL ZITIEREN? QUELLE:
Niederwieser, Christof (2016) Prognostik 02: Zeichendeutung, Trossingen: Zukunftsverlag, S. 301ff
Kommentar hinterlassen zu "Das Smart Data Panopticon"