Daniel Schneiß | Rezension |

Über die mathematischen Grundlagen des Informationskapitalismus

Rezension zu „Revolutionary Mathematics. Artificial Intelligence, Statistics, and the Logic of Capitalism” von Justin Joque

Justin Joque:
Revolutionary Mathematics. Artificial Intelligence, Statistics and the Logic of Capitalism
Großbritannien
London 2022: Verso Books
232 S., 20,90 EUR
ISBN 978-1788734004

Einleitung

In einem Artikel für das populäre Computermagazin Wired im Jahr 2000 schwärmte der Software-Unternehmer Michael Lynch von den unglaublichen Vorzügen und neuen Möglichkeiten, die durch die Entwicklung und den Einsatz der Bayesianischen Statistik entstehen würden. Lynch bezeichnete das Verfahren als „key to a secret garden“, der völlig neue technische und damit auch ökonomische Möglichkeiten bereithielte.[1] Diese kursorische Anekdote aus der Zeit um die Jahrtausendwende macht auf erstaunliche Weise deutlich, wie neue statistische Verfahren auch in Bezug auf ihr ökonomisches Versprechen betrachtet werden. Tatsächlich dürften die Entwicklungen der folgenden Jahre Lynch durchaus Recht geben. Im Kontext des sogenannten „Big Bang of Deep Learning“[2] setzte ein Boom von neuen Anwendungen ein, die sehr verallgemeinert unter dem Label Künstliche Intelligenz (KI) versammelt werden. Diese Anfang der 2010er-Jahre entstandene Vielzahl neuer KI-Anwendungen wurde im Kern durch vier Entwicklungen befördert: 1) durch neue Entwicklungen in den Bereichen Statistik, Wahrscheinlichkeitsrechnung und lernender Systeme, etwa Deep Learning; 2) durch die Verbreitung des Internets und den Zugang zu kontinuierlich wachsenden Datenmengen (Stichwort Big Data); 3) durch eine stetig größere und dabei immer preisgünstiger werdende Rechnerleistung sowie 4) durch einen gesamtgesellschaftlichen Prozess der Digitalisierung.[3]

In seinem Buch Revolutionary Mathematics. Artificial Intelligence, Statistics and the Logic of Capitalism, aus dem diese Anekdote auch stammt, beschäftigt sich Justin Joque mit dem Zusammenhang zwischen der wissenschaftsgeschichtlichen Entwicklung in der mathematischen Statistik und ihrer entsprechenden Anwendung im gegenwärtigen Kapitalismus. Damit eröffnet das Buch eine spannende und über die kritische Diskussion der Potenziale und Gefahren im gegenwärtigen KI-Diskurs hinausgehende Perspektive, die bislang KI-Systeme und Algorithmen vor allem im Kontext ihres strukturellen Bias und der ihnen inhärenten Formen von Diskriminierung,[4] ihrer politischen Machtstrukturen sowie neuer epistemischer Dispositive thematisiert.[5]

Ausgangspunkt für Joques Überlegungen ist die Beobachtung, dass Daten und Algorithmen immer umfangreicher soziale Beziehungen und Strukturen beeinflussen und dabei eine neue Form der sozialen Ordnungszuweisung ausüben (S. 2 ff., S. 8 ff.). Diesen Umstand bringt der Autor mit einer Veränderung des kapitalistischen Systems in Verbindung, hin zum gegenwärtigen Informationskapitalismus[6], einer Form des Kapitalismus, in der Informationen bzw. digitale Daten sukzessive zum zentralen Rohstoff werden[7] und Informationstechnologien eine immer stärkere Bedeutung einnehmen. Dieser Entwicklung liegen insbesondere Fortschritte in der Statistik zugrunde, die ein neues Paradigma der Wissensproduktion bestimmen, welches immer stärker einer Marktlogik zu folgen scheint (S. 12). In seinem Buch verfolgt Joque gewissermaßen eine doppelte Agenda: Zum einen zeigt er die enge Verknüpfung von Entwicklungen in der Statistik und ihrer Anwendung im Informationskapitalismus auf. Durch den Durchbruch der Bayesianischen Statistik revolutioniert, dem Autor zufolge, dieser Paradigmenwechsel nicht nur die kapitalistische Produktionsweise (S. 10), sondern führt auch zu einer veränderten Repräsentation gesellschaftlicher Realität und ihrer Wissensproduktion, die nun auch zur Darstellung sozialer Antagonismen angewandt wird (S. 9). Zum anderen arbeitet Joque die Kehrseite dieser Entwicklung heraus, denn trotz der Ubiquität digitaler Technologien ist ihr utopisches Potenzial zunehmend erschöpft (S. 2). Im Folgenden soll auf beide Punkte näher eingegangen werden.

Eine neue Form der Objektivierung von Wissen und Wissensproduktion

Zu Beginn des Buches, in Einleitung und dem ersten Kapitel, liefert Joque eine Beschreibung der grundsätzlichen Arbeitsweise und Anwendung von Machine-Learning-Algorithmen (ML). Der Einsatz von statistischen Methoden und KI-Systemen transformiert Joque zufolge die mittlerweile in großen Mengen zur Verfügung stehenden Daten in handlungsleitende Informationen, die die zentrale Triebkraft des Informationskapitalismus darstellen. In der Folge kommt es zu einer weiteren Verschiebung von ökonomischen Machtverhältnissen und technischen Kontrollmöglichkeiten, wie sie beispielsweise für heutige Plattformunternehmen charakteristisch sind.

Diese Entwicklung bringt der Autor in Verbindung mit zwei unterschiedlichen statistischen Paradigmen. In der „klassischen“ frequentistischen Statistik wird versucht, eine objektive Grundlage für die Wahrscheinlichkeit eines statistischen Tests zu entwickeln, die – wie etwa beim Werfen einer Münze – sich auf die wiederkehrende Durchführbarkeit des Experiments bezieht. Demgegenüber stellt Joque den Durchbruch der Bayesianischen Statistik,[8] deren Berechnung auf einer informierten Vermutung über die Wahrscheinlichkeit des Eintritts eines Ereignisses basiert und so nicht mehr die „objektive“ relative Häufigkeit des Ereignisses im Blick hat. Eine solche Statistik ist dann besonders geeignet, kontinuierlich neue Informationen in die Berechnung einzubeziehen und auch in singulären Fällen angewandt zu werden, in denen nur wenige Daten zur Verfügung stehen. Auf diese Weise lassen sich komplexe Prozesse dynamisch darstellen, in denen stets neue lokale Informationen verarbeitet werden können, ohne dass am Ende eine statische, objektive Wahrscheinlichkeit generiert wird.

Als illustrierendes Beispiel hierfür wählt der Autor ein Programm, das 2004 bei Walmart eingesetzt wurde, um das Konsumverhalten im Falle eines Hurricanes in Florida vorherzusagen. Basierend auf Kaufdaten, die während eines früheren Hurricanes erhoben worden waren, prognostizierte das Programm den steigenden Verbrauch bestimmter Produkte. Diese wurden verstärkt eingelagert, um so gezielter Supermärkte in den betroffenen Regionen adäquat beliefern zu können. Hieran diskutiert Joque ein zentrales Problem solcher ausschließlich auf Daten basierenden Vorhersagen: Auch wenn das Programm mittels statistischer Korrelationen durchaus erfolgreich eine präzise Vorhersage treffen konnte, ermöglicht es weder ein tieferes Verständnis kausaler Mechanismen (S. 38) noch liefert es eine anderweitige objektive Grundlage für die Entstehung einer Wahrscheinlichkeit.

Der Einsatz des Systems dient in diesem Fall lediglich dem Ziel, eine möglichst informierte Schätzung des entsprechenden Konsumverhaltens zu generieren. Diese soll in größtmöglichem Maße dynamisch auf Veränderungen reagieren und lokale Informationen schnell einbeziehen können. Der Fokus dieser neuen Form von Wissensproduktion liegt auf der Errechnung probabilistischer Korrelationen, die reibungslos an den Markt gekoppelt werden können. Der Markt gibt wiederum vor, welche Daten gesammelt werden und nach welchen Profitabilitätskriterien die Berechnung erfolgt (S. 52).

In diesem Sinne entsteht eine neue Form von algorithmischer Macht (S. 81). Denn sie ist zum einen in Form statistischer Berechnungen Teil der allgemeinen Wissensproduktion (hier: Informationen über Konsumverhalten). Zum anderen bietet sie aufgrund ihrer Komplexität und vermeintlichen statistischen Neutralität eine vermeintlich objektive – und damit politisch unanfechtbare – Beschreibung einer gegebenen soziopolitischen Situation. Joque beschreibt dies als eine Form der Objektivierung, als einen Prozess, in dem konkrete Herrschaftsformen auf eine abstrakte Ebene gebracht und die ihr zugrundeliegenden sozialen Beziehungen objektiviert werden (S. 92).[9]

In diesem spezifischen Sinn denken ML-Algorithmen für uns, indem sie probabilistische Aussagen über die Welt produzieren (S. 101). Doch während die Berechnung solcher Aussagen aufgrund der stets höher entwickelten technischen Mittel nahezu direkt durchführbar ist, bleibt stark umstritten, wie sie zu interpretieren sind.

Das Verhältnis von statistischen Methoden und ihrer ökonomischen Anwendbarkeit

Im zweiten Kapitel geht Joque näher auf die Geschichte der Statistik ein, die er insbesondere auf ihre unterschiedlichen Verständnisse von Wahrscheinlichkeit hin untersucht. Ausgangspunkt seiner Ausführungen ist die Diskussion frequentistischer Ansätze, die er in Auseinandersetzung mit den Theorien Ronald Fishers und der von Jerzy Neyman und Egon Pearson daran vorgebrachten Kritik ausarbeitet. Ronald Fisher gilt vielfach aufgrund seiner Arbeiten zum Design statistischer, randomisierter Experimente als ein Begründer der modernen Statistik. In seinem bekannten „Cup of Tea Experiment“ (S. 116 ff.) entwickelte er eine Berechnung zur Prüfung des p-Wertes – also eine mathematische Größe zur Feststellung, inwiefern der Erfolg eines Experiments auf puren Zufall oder auf das Experimentaldesign zurückzuführen ist (S. 115).

Anschließend zeichnet Joque nach, wie bereits Mitte des 20. Jahrhunderts eine kritische Auseinandersetzung mit Fishers Prämissen stattfand und diese weiterentwickelt wurden. So kritisieren Neyman und Pearson insbesondere die Einseitigkeit der Nullhypothese, die nur falsch positive Ergebnisse bestimmen kann. Gleichzeitig formulieren sie ein nutzeneffizientes Framing, das auch die Kosten eines Ergebnisses, also etwaig entstehende Schäden bei falscher Vorhersage, einkalkuliert (S. 126). Diese Erweiterung des Fisher’schen Modells interpretiert Joque bereits als eine erste Verschiebung im Verständnis statistischer Interferenz hin zu einem Effizienzgedanken, den der Autor sogleich im Hinblick auf dessen industrielle Einsetzbarkeit diskutiert (S. 129). Doch auch Neyman und Pearson verstehen Wahrscheinlichkeit frequentistisch, also als relative Häufigkeit eines Ergebnisses bei einer großen Anzahl von Durchläufen. Ganz grundlegend ändert sich dieses Verständnis erst mit der Entwicklung und Diskussion der Bayesschen Statistik.

Der Grundgedanke der modernen Bayesschen Statistik ist, dass eine subjektive Überzeugung oder Hypothese als Maßstab für die Wahrscheinlichkeit eines Ereignisses angelegt werden kann (S. 148). Nicht die „objektive“ Häufigkeit eines sich wiederholenden Phänomens, das aufgrund der Begrenzung von Testmöglichkeiten und Referenzklassen nicht ausreichend falsifiziert werden kann, sondern eine begründete Vermutung dessen, was die beobachtende Person für wahrscheinlich erachtet, wird zum entscheidenden Kriterium (S. 158).

Dieser Turn birgt bedeutsame Vorteile, die insbesondere dann deutlich werden, wenn man sich die Kritik am frequentistischen Ansatz vor Augen führt. Der am häufigsten vorgebrachte Kritikpunkt an diesem Ansatz lautet nämlich, so Joque, dass er abhängig von seinem eigenen Experimentaldesign und den gebildeten Referenzklassen ist und so das Ergebnis des Experiments entscheidend mitbeeinflusst (S. 145). Darüber hinaus ermöglicht dieses Modell keinerlei Aussagen über einzelne Ereignisse, da deren Wahrscheinlichkeit ja gerade auf der Frequenz eines Resultats basiert (S. 146).

Dem entgegen steht die Bayessche Statistik, die eben nicht die Wahrscheinlichkeit des Eintritts eines wiederkehrenden Ereignisses errechnet, sondern nur die begründete Hypothese prüft, ob ein Ereignis tatsächlich eintrifft. Weil sie es so erlaubt, kontinuierlich neue Evidenzen in die Berechnung zu integrieren, ist sie darüber hinaus in besonderem Maße anschlussfähig an einen digitalen, von Daten und Informationen getriebenen Kapitalismus (S. 149). Gemeinsam mit Technologien maschinellen Lernens und einer von Daten wie Informationen gesteuerten Wirtschaft wird aus der statistischen Methode ein Ansatz, der Evidenz und Daten mit sich selbst entwickelnden Modellen (etwa in KI-Systemen, die auf ML-Algorithmen basieren) kombiniert (S. 161).

Doch aufgrund der Zentralität von Daten und Informationen liegt die neue produktive Quelle eines solchen Informationskapitalismus in der Privatisierung von Ideen und intellektuellem wie sozialem Wissen (S. 191). Ein Unternehmen wird stets versuchen, sich dieses exklusiv anzueignen, um einen Vorteil im Wettbewerb zu erlangen. Hieran macht Joque den Hauptwiderspruch in der neuen Wissensökonomie aus. Damit diese neuen Formen der Statistik und die innovativen Techniken maschinellen Lernens produktiv sein können, dürfen sie nicht auf private und geschützte Datensätze beschränkt werden. Es sind gerade öffentlich zugängliche Datensätze mit allgemeiner Aussagekraft, die besonders attraktiv und vielversprechend sind. Das zeigt sich beispielsweise in der Praxis des „Web-Scraping“, mit dem Unternehmen wie OpenAI auf die Datenmasse des Internets zurückgreifen, um ihre KI-Sprachmodelle zu trainieren. Je erfolgreicher Datensätze und algorithmische Modelle bei der Erzeugung effizienter Abstraktionen für die Generierung von Profit eingesetzt werden können, desto größer ist zugleich der Anreiz, sie zu privatisieren, unter Verschluss zu halten oder gar zu fälschen (S. 194, 195). Die kapitalistische Wissensökonomie wird in diesem Fall stark von der Privatisierung von Wissen beeinflusst, wodurch wiederum die Produktivität des Systems selbst unterlaufen wird. In Anlehnung an die neoliberale Kritik an planbasierten Wirtschaftsformen, spricht Joque daher von einem „capitalist calculation problem“ (S. 199).

Fazit und Kritik

Anhand der Ideengeschichte der Statistik, ihrer technischen Übertragung und zunehmenden Verbreitung beschreibt Joque eine tiefgreifende Veränderung der kapitalistischen Wertschöpfung und der sozialen Wissensproduktion. Er begründet den Wandel zum einen damit, dass die Abstraktionen der Algorithmen maschinellen Lernens und der statistischen Modelle eine neue Objektivierung der Welt entlang kapitalistischer Verwertungslogiken darstellen. Zum anderen zeigt der Autor ihr besonderes ökonomisches Potenzial im gegenwärtigen Informationskapitalismus auf. Denn diese Entwicklung führt zu einer Situation, in der diese algorithmischen Objekte die wirtschaftliche Bedeutung der Ware infrage stellen, da ökonomischer Wert zunehmend aus der automatischen Berechnung probabilistischer Modelle entsteht (S. 223).

Die Lektüre des Buches bietet eine anregende Argumentation mit neuer Perspektive, hinterlässt jedoch ebenso offene Fragen und Leerstellen, was des Öfteren mit dem verwendeten begrifflichen Vokabular zu tun hat. Zum einen wäre es hilfreich gewesen, eine differenziertere und stärker ins Detail gehende Diskussion der Zusammenhänge zwischen der ausbuchstabierten neuen Logik des Informationskapitalismus und den technischen Entwicklungen, die Joque beschreibt, vorzunehmen, um das Verhältnis beider Entwicklungen zueinander besser greifbar zu machen.

Zum anderen überschätzt Joque den tatsächlichen Einfluss dieser neuen technischen Möglichkeiten. Wenn, wie der Autor schreibt, „machine learning reduces everything to data in order to ground the world anew through abstractions” (S. 185), schenkt er ebenjenen sozialen Prozessen und Praktiken, die überhaupt erst die Anwendung von ML-Systemen ermöglichen (zum Beispiel in der Datenproduktion und Klassifizierung), zu wenig Aufmerksamkeit.[10] Anders als in den von ihm diskutierten Beispielen aus dem Feld der Plattformökonomie, wo Unternehmen gezielt auf Basis von plattform- und datenbasierten Geschäftsmodellen arbeiten, sind derlei Prozesse in konventionellen Unternehmenskontexten deutlich konfliktreicher und komplexer.[11]

Joques starker Fokus auf eine vermeintlich metaphysische Kraft (S. 8) statistischer Methoden schafft es weder, die Bedingungen ihres Einsatzes und ihrer Anwendung angemessen zu reflektieren (beispielsweise in Bezug auf durch sie in Gang gebrachte Revolutionierung der Produktion), noch die spezifische Materialität digitaler Daten ausreichend zu berücksichtigen. Das begünstigt auch eine Überbetonung ihrer Automatisierung, in der dann entscheidende ökonomische, soziale und politische Kontexte aus dem Blick geraten. Dies wird auch durch die Überbetonung eines klaren Bruches zwischen frequentistischer und Bayesianischer Statistik noch verstärkt. Auch die versprochene Skizzierung eines möglichen Gegenprogramms einer revolutionären Mathematik bleibt – entgegen der Ankündigung des Autors – extrem vage.

An dieser Stelle offenbart sich eine wiederkehrende Ambivalenz in Joques Darstellung, die zwar die diesen Systemen inhärenten Limitierungen und Begrenzungen interessant herausarbeitet, jedoch ihre tatsächlichen Einsatzmöglichkeiten und Anwendungsfelder zu überschätzen scheint. Denn das, was Joque relativ schemenhaft mal als „algorithmic knowledge“, mal als „algorithmic objects“ oder „Machine Learning algorithms“ bezeichnet, ist oftmals hinsichtlich seiner potenziellen Anwendungsfelder deutlich stärker begrenzt als die eventisierenden Formulierungen des Autors vermuten lassen (zum Beispiel als eine „universal lingua franca of epistemic and economic commensurability“ S. 182).[12] So ist ChatGPT beispielsweise in vielerlei Hinsicht eine Technologie, deren eigentliches Geschäftsmodell noch gefunden werden muss. Im Bereich der Arbeit stellen KI-Systeme zudem lediglich einen Teilbereich einer digitalen Transformation dar. Für eine kritische Auseinandersetzung mit der Tatsache, dass und inwiefern diese Praxiszusammenhänge in erheblichem Umfang von ökonomischen Erwägungen geprägt sind und tiefgreifend unsere Wissensproduktion verändern, legt das Buch jedoch einen ersten Grundstein.

  1. Steve Silberman, The Quest for Meaning, in: Wired, 1. Februar 2000.
  2. Hartmut Hirsch-Kreinsen, Soziale Dynamik der Künstlichen Intelligenz, in: TU Dortmund, Beiträge aus der Forschung, Band 209, Dortmund 2022.
  3. Ebd., S. 12 f.
  4. Ruha Benjamin, Race after Technology. Abolitionist Tools for the New Jim Code, London 2019.
  5. Louise Amoore, Cloud Ethics. Algorithms and the Attributes of Ourselves and Others, Durham 2020; Kate Crawford, Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale 2021.
  6. Der Begriff des Informationskapitalismus, oder auch „informational capitalism“, bezieht sich zumeist auf die Arbeiten des Soziologen Manuel Castells und beschreibt die steigende Signifikanz von Informationen und Informationstechnologien zur Gewinnung und Aneignung von Mehrwert. Unternehmen gewinnen diesen nicht nur durch den Einsatz von Informationstechnologien, sondern auch durch die Aneignung von Wissen und Kultur, vgl. etwa Julie E. Cohen, Between Truth and Power. The Legal Constructions of Informational Capitalism, Oxford 2019. Joque spricht selbst recht unklar von digitalem Kapitalismus (S. 26) und zitiert eine Reihe unterschiedlicher Arbeiten, in denen die gegenwärtige politische Ökonomie teils widersprüchlich als Plattformkapitalismus (Srnicek), Überwachungskapitalismus (Zuboff) oder Informationskapitalismus (Castells, Cohen) beschrieben wird. Zentrales Kriterium scheint für ihn dabei die Form der Wissensproduktion durch Maschinen zu sein.
  7. Jathan Sadowski, When Data is Capital: Datafication, Accumulation, and Extraction, in: Big Data & Society 6 (2019), 1.
  8. Dabei betont er den Durchbruch in der Anwendung dieser, denn die zentralen Grundlagen der Bayesianischen Statistik stammen bereits aus dem 18. Jahrhundert (S. 143 ff.).
  9. Als Bezugspunkt dienen ihm hier insbesondere die Arbeiten von Cedric Robinson and Jackie Wang, die den Prozess der Objektivierung nicht als ein falsches Bewusstsein verstehen, also eine ideologisch verzerrte Repräsentation der Realität, sondern ihre Abstrahierung im Kapitalismus thematisieren (S. 91 ff.).
  10. Billy Perrigo, OpenAI used Kenyan Workers on less than 2$ per Hour to Make ChatGPT less toxic, in: Time, 18. Januar 2023.
  11. Mohammad Hossein Jarrahi et al., Algorithmic Management in a Work Context, in: Big Data & Society 8 (2021), 2.
  12. Sarah Nies, Eine Frage der Kontrolle? Betriebliche Strategien der Digitalisierung und die Autonomie von Beschäftigten in der Produktion, in: Berliner Journal für Soziologie 31 (2021), S. 475–504.

Dieser Beitrag wurde redaktionell betreut von Stephanie Kappacher.

Kategorien: Arbeit / Industrie Daten / Datenverarbeitung Digitalisierung Kapitalismus / Postkapitalismus Technik Wirtschaft

Daniel Schneiß

Daniel Schneiß ist Doktorand und wissenschaftlicher Mitarbeiter im DFG-Projekt „Das Regieren der Algorithmen“ am Arbeitsbereich Soziologische Theorien an der Universität Kiel sowie in der Forschungsgruppe „Arbeiten mit Künstlicher Intelligenz“ am Weizenbaum-Institut. Er forscht zur Implementation und politischen Regulation von Algorithmen in Organisationen, Formen algorithmischer Arbeitssteuerung und technischen Standardisierungsprozessen.

Alle Artikel

Teil von Dossier

In Sachen KI

Vorheriger Artikel aus Dossier: Algorhythmen

Empfehlungen

Niklas Stoll

Planwirtschaft 2.0

Rezension zu „Die unsichtbare Hand des Plans. Koordination und Kalkül im digitalen Kapitalismus“ von Timo Daum und Sabine Nuss (Hg.)

Artikel lesen

Timo Daum

Privacy im digitalen Kapitalismus

Rezension zu „Industry Unbound. The Inside Story of Privacy, Data, and Corporate Power” von Ari Ezra Waldman

Artikel lesen

Newsletter