Dirk Baecker | Literaturessay |

Im physikalischen Register

Literaturessay zu „Das Auge des Meisters. Eine Sozialgeschichte Künstlicher Intelligenz“ von Matteo Pasquinelli

Matteo Pasquinelli:
Das Auge des Meisters. Eine Sozialgeschichte Künstlicher Intelligenz
aus dem Englischen von Karina Hermes
Deutschland
Münster 2024: Unrast Verlag
288 S., 22 EUR
ISBN 978-3-89771-390-1

Ende des Goethe-Zeitalters

Zwei Jahreszahlen markieren die Sozialgeschichte der Künstlichen Intelligenz. 1832 erscheint Charles Babbages Buch On the Economy of Machinery and Manufactures und 1958 publiziert Frank Rosenblatt seine Überlegungen zum Perzeptron, einem Modell des Nervensystems auf der Basis von Schwellenwerten und anpassbaren Gewichtungen.[1] 1832 war Goethe gestorben, so dass Bernhard Dotzler in seiner Babbage-Lektüre auch vom „Ende des Goethe-Zeitalters“ sprechen kann.[2] Fast unbemerkt rutscht die Denkform der Moderne aus dem symbolischen ins physikalische Register. 1958 zieht Rosenblatt aus vielen anderen Ansätzen und Ideen – genannt seien insbesondere die Kommunikationstheorie Claude E. Shannons, John von Neumanns statistische Theorie selbst-regulierender Automaten und W. Ross Ashbys Kybernetik des Gehirns als physikalischer Maschine – die Konsequenz, sein Modell des Gehirns nicht auf der Grundlage der symbolischen Logik, sondern der Wahrscheinlichkeitstheorie zu formulieren.

Die beiden Jahreszahlen markieren den Beginn der Erfolgsgeschichte der Automatisierung in Industrie und Verwaltung sowie jener Algorithmen des Maschinenlernens, die nicht mehr den symbolischen oder hermeneutischen Sinn von Daten zu verstehen versuchen, sondern sich in hochdimensionierten Räumen der Wahrscheinlichkeit der Bestimmung von Daten durch benachbarte Daten bewegen. Die Konditionierung von Konditionierung gewinnt die Überhand gegenüber der Interpretation von Sinn. Shannon hatte den passenden Informationsbegriff als Selektion einer Nachricht aus einer Menge möglicher Nachrichten entwickelt, Neumann lieferte das passende Verständnis des Gewinns zuverlässiger Operationen aus unzuverlässigen Komponenten und Ashby ersann die Idee einer „homöostatischen“ Anpassung von Organismen an ihre Umwelt über immer wieder zusammenbrechende, aber neu zu findende „innere“ Gleichgewichte.[3] Als Sigmund Freud 1895 in seinem Entwurf einer Psychologie den neurophysiologischen Wissensstand seiner Zeit auf den Begriff brachte, dass die Primärfunktion eines Nervensystems die „Abfuhr“ von Reizen an die Muskeln sei, um sich auf diese Art und Weise „reizlos“ zu erhalten,[4] hat kaum jemand geahnt, wie kompliziert Apparate sein müssen, die nur dieses leisten. Berücksichtigt man, dass die Abfuhr der einen der Reiz der anderen ist, kommt man zu einem ersten Verständnis sozialer Verhältnisse, deren Komplexität die Funktion des Spannungsaufbaus zum Zwecke des Spannungsabbaus erfüllt.

Matteo Pasquinelli erzählt nicht die Ideen- oder Technikgeschichte der Künstlichen Intelligenz, sondern ihre Sozialgeschichte. In Afrika gibt es das Sprichwort, dass man ein ganzes Dorf brauche, um ein Kind zu erziehen. Pasquinelli zeigt im Anschluss an Marx und Gramsci, dass man eine ganze Gesellschaft benötigt, um einen Algorithmus der heute gängigen großen Sprachmodelle des Maschinenlernens zu entwerfen. Die Erfindungen von Babbage sind nicht ohne die Geschichte der Arbeitsteilung und jene von Rosenblatt nicht ohne Einblicke in die Funktionsweise einer verteilten und sozial – das heißt durch Stimulation, Training, Supervision und Abfuhr – erlernten Intelligenz zu denken. Ist das symbolische Register einer Welt vor der Einführung der elektronischen Medien auf einen Geist gestimmt, der sich einen Reim auf die Verhältnisse macht, so gehorcht das physikalische Register einer Welt der automatischen Maschinen einer Topologie der hierarchischen Kontrolle von Störungen.

Keine Arbeitsteilung ohne Hierarchie

Babbage hatte das berühmte Babbage-Prinzip formuliert, dem gemäß die Automatisierung der Industrie nicht nur an der technischen Effektivität des Arbeitsprozesses, sondern auch an der ökonomischen Effizienz eines sparsamen Einsatzes von Ressourcen, einschließlich der Arbeitskraft, orientiert ist. Die Maschinen sind so zu richten, dass der Arbeitsaufwand minimiert werden kann. Es genügt ein Blick in das Vorwort seines Buches On the Economy of Machinery and Manufactures, um zu erkennen, wie beeindruckt Babbage davon war, dass die Prinzipien, in denen das Erfahrungswissen der Manufakturbetriebe und das Konzeptwissen seiner Difference Engine genannten Rechenmaschine, übereinstimmten, jeden interessieren müssten, der für eine Manufaktur verantwortlich und dank ihrer Arbeit reich geworden ist oder auch nur die Zeit hat, sich für die „rich mine of knowledge“[5] in den Manufakturen des Landes zu interessieren. Pasquinelli lässt sich die Pointe nicht entgehen, dass Babbage ebenso wie die technischen und künstlerischen Genies der Renaissance eher den Gang in die Werkstätten als an die Universitäten empfiehlt, wenn man wissen will, was die Stunde geschlagen hat (S. 102 f.). Aber ebenso wichtig ist ihm die Einsicht, dass das „Auge des Meisters“ (Babbage sprach vom „eye of a manufacturer“)[6], das seinem Buch den überaus treffenden Titel gibt, nicht nur in der Lage ist, kompakte Produktionsprozesse in einfachere Schritte zu zerlegen und so effektiver zu gestalten, sondern zugleich die Hierarchie zu nutzen und zu erhalten, die zwischen dem analysierenden Meister, den koordinierenden Vorleuten und den Arbeitskräften besteht, die die einfachen Arbeitsschritte schließlich ausführen müssen. Seither stellt sich immer wieder neu die Frage, ob die Hierarchie die eher zufällige Konsequenz der Koordination und Kontrolle komplexer Arbeitsvorgänge oder nicht doch eher die zu respektierende Randbedingung auch noch der Einsparung von Arbeit ist. Vermutlich muss man auch die Produktionsverhältnisse unter die Produktivkräfte zählen. Kein Wunder, dass Marx Dialektiker war.

Noch Alan Turing, so berichtet Pasquinelli im Anschluss an Forschungen vor Loraine Daston,[7] konnte sich seine intelligente Maschine nur als Hierarchie von Herr und Knecht vorstellen, nämlich zwischen Mathematikern, die die zu lösenden Probleme analysieren, an der Spitze, Algebraikern, die die erforderlichen Algorithmen entwerfen, auf einer mittleren Ebene und Knechten, meist nicht zufällig „girls“ genannt, die die Daten eingeben, auf der untersten Ebene. Damit beschrieb Turing Verhältnisse, die noch heute zwischen den Programmierern von Algorithmen im reichen Norden und den Armeen von Hilfsarbeitern, die im Globalen Süden die Maschinen mit Daten füttern, bestehen (S. 15–17). Daher gilt beides: Der Rechenmodus der Algorithmen orientiert sich an einer etablierten Arbeitsteilung, während die Effizienzgewinne, die er einzuspielen erlaubt, die überlieferte Hierarchie bedrohen. Die Sozialgeschichte der Künstlichen Intelligenz gehorcht daher der doppelten Vorgabe, die Produktivität zu erhöhen, ohne die Hierarchie über ein sozialverträgliches Maß hinaus zu gefährden. Man kann sich leicht vorstellen, wie oft die eine Vorgabe der anderen ins Gehege kommt, aber auch, wie innovativ Erfindungen sein müssen, die beide Vorgaben erfüllen.

So ist die Sozialgeschichte Künstlicher Intelligenz nicht nur das Exempel funktionierender Algorithmen, sondern wird den Apparaten und ihrer Nutzung überdies an den verschiedensten Stellen eingeschrieben. Pasquinelli entwirft mit seiner Sozialtheorie der Maschine und seiner Maschinentheorie des Sozialen auch eine Heuristik, an der sich zukünftige Forschungsprogramme der Medienwissenschaft orientieren können. Wieviel „Gesellschaft“ und welche Art von „Gesellschaft“ steckt in jedem Algorithmus? Man hat sich inzwischen daran gewöhnt, von einem hohen Maß an wechselseitiger Anpassung zwischen Kommunikation und Maschine auszugehen, ja sogar von einer „Kultur“ der Algorithmen zu sprechen,[8] doch Pasquinellis Frage geht darüber hinaus. Er identifiziert „soziale“ Abläufe im Inneren des Algorithmus und unterstreicht damit ein weiteres Mal,[9] dass mathematische Abstraktion von kommunikativer Verwicklung und imaginativer Assoziation nicht wegführt, sondern sie zu modellieren versucht.

Wieviel ‚Gesellschaft‘ steckt in der Kognition?

Das Auge des Meisters ist nicht nur maßgebend, weil es Arbeitsprozesse abstrahiert, rekombiniert und überwacht, sondern weil es überdies das Organ ist, dessen kognitive Leistungen zum Paradigma der Entwicklung der Künstlichen Intelligenz werden. Der Titel von Pasquinellis Buch ist daher doppelt zu lesen, als Metapher für Analyse und Überwachung auf der einen Seite und als Metapher für Kognition auf der anderen Seite. Nicht Sprache und Schrift in ihrer sequenziellen Ordnung von Subjekt, Prädikat und Objekt, von Prämisse, Urteil und Schlussfolgerung sind die Modelle einer kognitiven Verarbeitung von Wirklichkeit, sondern das Bild. Das Bild als Simultananordnung von Punkten liefert die Aufgabe einer Mustererkennung, die zum einen wieder etwas mit Hierarchisierung zu tun hat,[10] nämlich der Unterordnung einer Vielzahl von Punkten unter als Muster erkennbare Kontraste, Linien, Flächen, Figuren, und zum anderen mit der ebenso vielfältigen wie geordneten Nachbarschaft der Punkte schon fast einen „sozialen“ Zusammenhang von Abhängigkeit und Unabhängigkeit voraussetzt. Wiederum gilt, dass dieser Zusammenhang physikalisch gegeben sein muss, bevor er symbolisch gelesen werden kann, so sehr es dann auch der Fall ist, dass die symbolische Lektüre physikalisch interveniert.

Pasquinellis Sozialgeschichte der Künstlichen Intelligenz konstruiert ihr Thema in einer Art Fadenkreuz. Die horizontale Achse der Beschreibung des Gegenstands wird durch die beiden Namen von Charles Babbage und Frank Rosenblatt bezeichnet, die vertikale Achse des medienhistorischen Konzepts durch die beiden Namen Karl Marx und Antonio Gramsci. Marx ist derjenige, dessen Arbeits-, Wert- und letztlich Gesellschaftstheorie der Warenproduktion den Leitfaden für die Zurückführung analytischer Intelligenz auf eben nicht natürliche, sondern soziale Formen der Arbeitsteilung liefert. Und Gramsci ist derjenige, der Marx‘ Konzentration auf die Teilung der körperlichen Arbeit durch die Erinnerung an die Bedeutung der geistigen Teilung der Arbeit sowohl ergänzt als auch korrigiert. Marx hatte in Grundrisse zur Kritik der politischen Ökonomie (1857/58) noch von einem ‚general intellect‘ geschrieben, einem „allgemeinen gesellschaftlichen Wissen“, in dem sich das Wissen der Arbeiter und der Meister mit dem Wissen der Ingenieure und Wissenschaftler zu einer gesellschaftlichen Produktivkraft verdichtet.[11] Im Kapital (1867) hatte er dann aber den ‚Gesamtarbeiter‘ primär körperlich und kollektiv verstanden, um ihn im Rahmen einer Konzession an die Arbeiterbewegung als revolutionäre Kraft dem (ebenso toten wie geistigen) Kapital entgegenstellen zu können.[12] Gramsci lieferte der italienischen Bewegung des operaismo (unter anderem vertreten von Antonio Negri, Romano Alquati) die nötigen Stichworte, um die geistige Teilung der Arbeit und damit die lebendige und „hegemoniale“ Arbeit des Managements, der Wissenschaft, der Politik und Kultur wieder in die Analyse der Produktionsverhältnisse einfügen zu können.

Pasquinelli beruft sich auf diese Tradition, um eine Mediengeschichte als Sozialgeschichte schreiben zu können, für die die Interessendifferenz von Kapital und Arbeit die weitreichende Dynamik einer Automatisierung von Sozialverhältnissen allenfalls katalysiert, aber nicht bestimmt. Wir wissen inzwischen, dass der „Kapitalismus“ nicht nur nicht ohne rabiate Formen der Eschatologie, sondern auch nicht ohne den Patriarchalismus und den Kolonialismus zu denken ist. Die Maschine, jede Maschine, ist als eine soziale Beziehung zu denken, innerhalb derer Ausbeutung nicht nur stattfinden kann, sondern die diese Ausbeutung zugleich technisch naturalisiert, wenn man das so sagen darf. Es stellt sich immer wieder neu die allgemeinere Frage, welche Art von „Intelligenz“ die „Beziehungen“ zwischen Mensch, Natur, Technik und Gesellschaft immer wieder neu konfiguriert (das heißt auflöst und rekombiniert) (wobei Intelligenz und Beziehungen nicht im Verhältnis von Subjekt und Objekt, sondern der Wechselseitigkeit, des Zirkels zueinander stehen).

Erst die Trennung von Energie und Information zeigt ihren Zusammenhang

Pasquinellis Sozialgeschichte der Künstlichen Intelligenz lädt dazu ein, Arbeit, Gesellschaft, Technik und Intelligenz neu zu denken. Das ‚Künstliche‘ an der Künstlichen Intelligenz wird aufgelöst in eine soziale Formatierung von Trennung, Verteilung, Koordination und Hierarchie, die paradoxerweise auch als eine Naturgeschichte der Menschheit gedacht werden muss, nämlich als ein Ausreizen und Erproben der physischen Positionierung von Eingriffen, Verfahren und Voraussetzungen, die dem Betrieb von Gesellschaft politisch und wirtschaftlich, wissenschaftlich und religiös, ästhetisch und pädagogisch zugrunde liegen. Der Begriff von ‚Intelligenz‘, der diese Perspektive informiert, ist am besten im Rahmen jener imperialen Tradition zu verstehen, der es um die statistische Erfassung einer nicht nur ungeordneten, sondern die traditionell-ständischen Kategorien unterlaufenden ‚Gesellschaft‘ ging und die die Logarithmentafeln zu erstellen hatte, die für die Berechnung astronomischer und nautischer Daten im Zeitalter einer kolonialen Eroberung des Planeten erforderlich waren. Es ist kein Zufall, dass der Begriff ‚intelligence‘ im Angelsächsischen auch die geheimdienstliche Operation umschreibt; gemeint ist damit jene Art von Intelligenz, die einerseits konfliktreiche, auch feindliche Verhältnisse zu beschreiben versucht und andererseits die eigenen Kategorien, Klassifikationen und Bewertungen immer wieder neu überprüft und korrigiert.

Im Zentrum des Fadenkreuzes befindet sich bei Pasquinelli (S. 135 f.) eine Idee des Technikphilosophen Gilbert Simondon. Der Unterschied zwischen Werkzeug und Maschine bestehe darin, so Simondon, dass erst die Maschine Information und Energie trennt und in Relais aufeinander bezieht.[13] Der Mechanismus eines Werkzeugs wäre demnach noch beides zugleich: Energieaufwand dank menschlicher oder tierischer Arbeit und geronnene Information über die Unterschiede, an denen anzusetzen und die zu bewirken sind. Man denke etwa an einen Korkenzieher. Die Maschine hingegen zieht Information und Energie auseinander, so dass verschiedene Energiequellen denkbar werden ebenso wie verschiedene Anwendungsbereiche. Man denke an einen Webstuhl, eine Dampfmaschine, einen Roboter. Das Werkzeug ist Programm, die Maschine programmierbar. Die Kybernetik ist jene Wissenschaft, die das Konzept dieser Trennung (Steuerung großer Energien durch kleine Impulse, Rückkopplung, Fehlerkorrektur) zu einem ihrer Grundgedanken gemacht hat, ohne dass es bis heute mit Ausnahme der von Talcott Parsons formulierten „kybernetischen Hierarchie“ des AGIL-Schemas eine schlüssige Auswertung dieser Trennung und ihrer Bedeutung in der Sozialtheorie gibt.[14] Energie entsteht aus der negentropischen Arbeit einer systemischen Differenz einschließlich der Aufrechterhaltung einer strukturellen Kopplung zwischen System und Umwelt, wird jedoch von dieser Arbeit und dieser Kopplung auch vorausgesetzt (entsprechend des Naturgesetzes der Energieerhaltung).[15] In der Physik ist ebenfalls unklar, worum es sich bei Energie überhaupt handelt; sie kann nur ihre Konstanz und die zahllosen Formen ihrer Wandlung berechnen und beschreiben.[16]

Brauchen wir eine Sozialgeschichte der Energie? Oder kommt hier das Konzept der Sozialgeschichte an das Ende ihres Lateins? Was sagt uns Pasquinellis Bemerkung, dass die wichtigste Leistung der Modellierung von Neuronen durch Warren S. McCulloch und Walter H. Pitts nicht darin besteht, zu beschreiben, dass die Neuronen untereinander vernetzt sind, sondern darin, für ihre Aktivität eine Schwellenwertlogik zu erfinden, die sie innerhalb ihrer Vernetzung plastisch variierbar und programmierbar macht (S. 149)?[17] Wie abhängig ist die Sozialgeschichte der Idee der Neuronenmodellierung im 19. Jahrhundert von der Beobachtung der Installation telegraphischer Netzwerke?[18] Wie abhängig ist diese Sozialgeschichte vor allem dann, wenn man davon ausgeht, dass diese Installation nicht nur eine technische Leistung ist, sondern zugleich eine Form der Selbstorganisation der Gesellschaft? Brauchen wir eine Sozialgeschichte der Idee der Selbstorganisation?[19] Die Herausforderung, vor der eine solche Sozialgeschichte steht, ist seit der Konstruktion von Frank Rosenblatts Perzeptron klar: Sie muss die probabilistische Auseinandersetzung mit einer stochastischen Umwelt mit der operationalen Schließung des Systems zusammendenken.

Die soziale Form der Produktion

Pasquinelli kennt in diesem Buch für eine Sozialgeschichte der Selbstorganisation als Folie für eine Sozialgeschichte der Künstlichen Intelligenz nur zwei Modelle: Friedrich Kittlers These vom Krieg als Vater aller Dinge und Friedrich A. Hayeks Entwurf einer konnektionistischen Theorie des Geistes auf der Grundlage eines Wissensmodells der Marktwirtschaft. Kittler ist ihm zu reduktionistisch und deterministisch; er stellt ihm den Bedarf an einem allgemeineren und wohl auch offeneren Modell der „sozialen Interaktion“ gegenüber (S. 171). Und Hayeks Buch The Sensory Order (1952)[20] würdigt er unter dem Gesichtspunkt der Entdeckung einer unbewussten und dezentralisierten ‚Rationalität‘ der Selbstorganisation, wendet jedoch ein, dass diese Rationalität nicht nur auf Märkten, sondern auch in anderen Formen menschlicher Organisation und Kooperation zu finden sei (S. 209).

Pasquinellis Grundgedanke bleibt die Idee der Arbeitsteilung. Nicht die abstrakte Form der zirkulierenden (und dann verderbenden) Ware liegt aller Gesellschaft zugrunde, so en passant sein Einwand gegen Alfred Sohn-Rethel,[21] sondern die konkret arbeitsteilige und hierarchisch geordnete Form der Produktion (S. 220). Das Buch wird daher beschlossen von einem Rückgriff auf Rosenblatts Perzeptron im Kontext jüngerer Modelle des Maschinenlernens. Man müsse versuchen, sich eine Architektur von ‚Feldern‘ (Kurt Lewin), ‚Rhythmen‘ (Henri Lefebvre) und ‚Nomaden‘ (Gilles Deleuze) vorzustellen, die in einem multidimensionalen Vektorraum damit beschäftigt sind, Sinneseindrücke mit Assoziationen und Reaktionen zu verrechnen, um auf der Basis zunächst von Zufallswerten allmählich jene Parameter aufzubauen, die in der Auseinandersetzung mit der Umwelt eine Selbstorganisation ermöglichen. Dann erst würde man beginnen zu verstehen, was Gehirn und Gesellschaft leisten. An diesem Punkt sei die Künstliche Intelligenz jedoch noch nicht. In ihrem Vektorraum wird zwischen System und Umwelt so wenig unterschieden wie zwischen Figur und Grund (S. 253). Sie rechnet zwar, aber sie unterscheidet nicht, wenn ‚Unterscheidung‘ erst dort beginnt, wo sie iterativ und rekursiv ein System schließt, das sich mit ihr konstituiert und sich selbst ebenso wie seiner Umwelt aussetzt.

Matteo Pasquinellis Buch ist ein herausragender Beitrag zu jener Technikgeschichte, die den Lackmus-Test für die Maschinen der Künstlichen Intelligenz nicht als Turing-Test, sondern als Durkheim-Test konzipiert. Pasquinelli zitiert diesen Vorschlag von Susan Leigh Star zwar nicht, aber er wäre wohl damit einverstanden, dass die interessante Frage an diese Maschinen nicht ist, ob sie es dem Menschen unmöglich machen, zwischen ihnen und einem menschlichen Bewusstsein zu unterscheiden, sondern ob sie in der Lage sind, sich im Rahmen der Arbeit einer Gemeinschaft und Gesellschaft als nützlich zu erweisen, vielleicht darf man sagen: sich an ihrer Kommunikation zu ‚beteiligen‘.[22] Dieser Test dürfte nicht nur als bestanden gelten, sondern er formuliert die Voraussetzungen und Randbedingungen, unter denen die Maschinen der Künstlichen Intelligenz allererst entwickelt werden konnten. Nicht erst im Umgang mit der Künstlichen Intelligenz gilt, dass man sich eine Gesellschaft ohne Technik nicht mehr vorstellen kann, wenn das je der Fall war. Technik ist nicht das Andere von Kultur und Gesellschaft, sondern geronnene, immer noch lebendige Sozialität.

Wenn Künstliche Intelligenz in Text, Bild, Ton, Formel, Code und Programm zum Medium gesellschaftlicher Formen wird, ist es nicht zuletzt der Ansatz einer historischen Epistemologie, wie ihn Pasquinelli vorlegt, der es uns ermöglicht, noch in dem Moment einige brauchbare Unterscheidungen zu treffen, in dem sie schon fast verschwinden. Das Auge des Meisters wird zum Menetekel einer Gesellschaft, deren Redundanzstruktur die einer Hierarchie ist, in der alle Termini auswechselbar sind, solange die Hierarchie gewahrt bleibt.[23] Wir werden uns in der positiven ebenso wie in der kritischen Sozialtheorie daran gewöhnen müssen, dass diese Hierarchie alle Merkmale einer Heterarchie aufweist. Alle Positionen wechseln die Plätze, solange es nur gelingt, Mikrodiversität auf einer ‚unteren‘ mit Integration auf einer ‚mittleren‘ und Orientierung auf einer ‚oberen‘ Ebene auf irgendeine Weise zu verknüpfen. Das ist es, was uns Pasquinellis Sozialgeschichte der Künstlichen Intelligenz lehrt. Sie lehrt uns die Dominanz einer Arbeitsteilung, in der alle Beteiligten, Mensch und Maschine, darauf angewiesen sind, jene ‚Intelligenz‘ an den Tag zu legen, die die Verbindung wahrt. Das schließt träge Herrschaftsstrukturen, hartnäckige Ungleichheit und üble Ungerechtigkeit nicht aus, aber sie werden auch als solche beobachtet.

Pasquinellis Buch verzichtet auf jegliche Prognose, auf jede Utopie oder Dystopie der Künstlichen Intelligenz. Die Rekonstruktion der Geschichte der sozialen Arbeitsteilung geht über den historischen Moment, in dem diese Geschichte erzählt wird, verständlicherweise nicht hinaus. Doch der Anspruch dieses Buches ist nicht nur ein medienhistorischer, sondern auch ein sozialtheoretischer. Pasquinellis Arbeits-, Wert- und Gesellschaftstheorie der Künstlichen Intelligenz im Fadenkreuz der beiden Achsen von Babbage/Rosenblatt und Marx/Gramsci versucht eine Erklärung der Funktion der Künstlichen Intelligenz im Rahmen sozialer Arbeitsteilung und gesellschaftlicher Herrschaft. Man darf fragen, ob dieser Rahmen auch in Zukunft Bestand hat. Bleibt die Gesellschaft, deren hierarchische Ordnung der Künstlichen Intelligenz zum Vorbild wurde, im Zuge der Erfolge der Künstlichen Intelligenz an diese Ordnung gebunden? Ist die Zurückführung des Technodeterminismus auf einen Bio- und Soziomorphismus die Bestätigung oder die Aufhebung gesellschaftlicher Determination? Ist das Auge der Mustererkenntnis zwingend ein Auge der Unterwerfung und Überwachung?

Noch mehr Kybernetik

Es ist kein Zufall, dass man in diesen Tagen auch die Kybernetik wiederentdeckt. Nachdem man sich eine Zeit lang mehr schlecht als recht damit amüsiert hat, der Kybernetik ihren Beitrag zum Kalten Krieg anzukreiden,[24] und dann erst begonnen hat, die rebellischen, fast anarchistischen Züge der Kybernetik zweiter Ordnung wiederzuentdecken,[25] ist man nun so weit, anzuerkennen, dass die Kybernetik sich seit ihren Anfängen mit dem Problem digitaler Rechnung in analogen Medien beschäftigt.[26] Wenn Norbert Wiener im Titel seines Buches, das einem ganzen Paradigma seinen Namen geben sollte, Cybernetics, or Control and Communication in the Animal and the Machine (1948), eben nicht von Steuerung und Kontrolle, sondern von Kommunikation und Kontrolle spricht,[27] konfrontieren sich beide Begriffe der Wahrscheinlichkeit von Entropie und Unwahrscheinlichkeit von Information. Andernfalls wäre intelligence weder erforderlich noch möglich.

In dem von Yuk Hui kuratierten Research Network for Philosophy and Technology werden dankenswerterweise nicht nur die verschiedenen Schicksale der Kybernetik in den USA, der Sowjetunion, Polen, Lateinamerika, China und Japan aufgearbeitet, sondern wird zugleich gezeigt, wie man die Kybernetik von ihrem militärischen Erbe ‚entgiften‘ kann, indem man ihre epistemologische, ästhetische und ökologische Dimension freilegt. Die Kybernetik ist die Wissenschaft von der Problematisierung von Erkenntnis, Wahrnehmung und Leben. Ihre „Politik der Information“ (Mathieu Triclot) besteht darin, Erfolg und Misserfolg gleichermaßen für möglich zu halten, in der Differenz von Erfolg und Misserfolg jede Welterkenntnis zu verbuchen und es für unentscheidbar zu halten, ob Erfolg und Misserfolg den Operationen eines Systems oder den Strukturen seiner Umwelt zuzurechnen sind.

Matteo Pasquinelli zeigt in seinem Buch, dass das Projekt einer Künstlichen Intelligenz nur in einem von der Kybernetik definierten Rahmen zu bewerten ist. Allerdings erweitert sein medienhistorischer und sozialtheoretischer Blick die Kybernetik um die Perspektive einer Geschichte der Arbeitsteilung, in der die Möglichkeit jeder Art von Kognition in einer hierarchischen Organisation der Gesellschaft begründet ist. Die Hierarchie ist eine Ordnung der Externalisierung, der Kollateralschäden, der blinden Flecken. Sie invisibilisiert die sachliche zugunsten der sozialen und die soziale zugunsten der sachlichen Unterwerfung. Mit ihr mangelt es nie an guten Gründen. Michel Foucaults Diskursphilosophie hat gegen dieses Auseinanderziehen von Macht und Wissen Einspruch erhoben, ohne das Problem ihrer Verschränkung offenlegen zu können. Mit Pasquinellis Sozialgeschichte der Künstlichen Intelligenz ist der überzeugende Beweis erbracht worden, dass eine Kognitionswissenschaft, die auf den Beitrag der Sozialwissenschaften verzichtet, das Rätsel der Vermittlung eines physikalischen und eines symbolischen Registers der Intelligenz nicht lösen können wird.

Eine physikalische Theorie des Sozialen beginnt dort, wo die Funktion von Symbolen zur Regelung von Nachbarschaft und Häufigkeit sozialer Kontakte beschrieben und möglicherweise auch gemessen werden kann.[28] Erst dann kann auch die Funktion von Hierarchie verstanden und beschrieben werden. Sie ist der vermutlich seltene Fall einer Ordnungs- und Denkfigur, in der symbolische Differenz (‚oben‘ und ‚unten‘) und physikalische Differenz (‚oben‘ versus ‚unten‘) zusammenfallen.[29] Ihr verdankt sich das kinetische Ungleichgewicht, ohne das sich physikalisch nichts bewegen würde und symbolisch nichts geordnet werden müsste. Bis heute profitiert die Evolution der Menschheit davon, dass dies auch dann gilt, wenn die Hierarchie latent gehalten wird. Das macht sie vielleicht sogar noch wirksamer.

  1. Siehe Charles Babbage, On the Economy of Machinery and Manufactures[1832], Reprint Chicago, Ill 2009; und Frank Rosenblatt, The Perceptron: A Theory of Statistical Separability in Cognitive Systems, Cornell Aeronautical Laboratory, Inc. Rep. No. VG-1196-G-1, Buffalo 1958; ders., The Perceptron: A Probabilistic Model for Informations Storage and Organization in the Brain, in: Psychological Review 65 (1958), 3, S. 386–408.
  2. Siehe Bernhard Dotzler, Diskurs und Medium 1: Zur Archäologie der Computerkultur, München 2006, S. 85.
  3. Siehe Claude E. Shannon, A Mathematical Theory of Communication, in: Bell System Technical Journal 27 (1948), S. 379–423 und 623–656; John von Neumann, Probabilistic Logics and the Synthesis of Reliable Organisms from Unreliable Components, in: Claude E. Shannon / John McCarthy (Hg.), Automata Studies, Princeton, NJ 1956, S. 43–98; W. Ross Ashby, The Nervous System as a Physical Machine: With Special Reference to the Origin of Adaptive Behaviour, in: Mind 56 (1947), 221, S. 44–59.
  4. Siehe Sigmund Freud, Entwurf einer Psychologie, in: ders., Gesammelte Werke. Nachtragsband: Texte aus den Jahren 1885 bis 1938, hrsg. von Angela Richards, Frankfurt am Main 1999, S. 387–477, hier S. 389.
  5. On the Economy of Machinery and Manufactures, S. vi.
  6. Ebd., S. v. Siehe auch Simon Schaffer, Babbage‘s Intelligence: Calculating Engines and the Factory System, in: Critical Inquiry 21 (1994), S. 203–227.
  7. Siehe Lorraine Daston, Calculation and the Division of Labor, 1750–1950, in: Bulletin of the German Historical Institute 62 (2018), S. 9–30.
  8. Siehe nur Robert Seyfert / Jonathan Roberge (Hg.), Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, Bielefeld 2017; Massimo Airoldi, Machine Habitus. Toward a Sociology of Algorithms, New York 2022.
  9. Siehe etwa George Lakoff / Rafael E. Nuñez, Where Mathematics Comes From. How the Embodied Mind Brings Mathematics into Being, New York 2000.
  10. Pasquinelli (S. 23, Anm. 41) verweist auf die etymologische Herkunft des Wortes ‚pattern‘ aus französisch ‚patron‘ und lateinisch ‚patronus‘.
  11. Siehe Karl Marx, Grundrisse der Kritik der politischen Ökonomie, MEW 42, Berlin 1983, S. 602, unter anderem, so Pasquinelli (S. 111 f.), im Anschluss an Wilhelm Schulz, Die Bewegung der Produktion. Eine geschichtlich-statistische Abhandlung zur Grundlegung einer neuen Wissenschaft des Staats und der Gesellschaft, Zürich 1843, S. 75 ff.; und vgl. Walter Grab, Dr. Wilhelm Schulz aus Darmstadt: Weggefährte von Georg Büchner und Inspirator von Karl Marx, Frankfurt am Main 1987, S. 257 ff.
  12. Siehe Karl Marx, Das Kapital. Kritik der politischen Ökonomie, Erster Band, MEW 23, Berlin 1962, S. 531 f. Man denke auch an Lenin und Blanchot, die die „drei Quellen“ der deutschen Philosophie, der englischen politischen Ökonomie und des französischen Sozialismus beziehungsweise die „drei Sprachen“ des Philosophen, des Revolutionärs und des Wissenschaftlers im Werk von Marx identifiziert haben, um die Wucht seiner Theorie, aber auch ihre Widersprüche zu erklären (siehe W. I. Lenin, Drei Quellen und drei Bestandteile des Marxismus [1913], in: ders., Ausgewählte Werke in zwei Bänden, Bd. 1, Berlin 1951, S. 63–68; und Maurice Blanchot, Les trois paroles de Marx, in: ders., L'amitié, Paris 1971, S. 115–117).
  13. Siehe Gilbert Simondon, Mentalité technique, in: Revue Philosophie de la France et de l‘Étranger 131 (1961), 3, S. 343–357.
  14. Siehe Talcott Parsons, Gesellschaften. Evolutionäre und komparative Perspektiven, übers. von Nils Thomas Lindquist, Frankfurt am Main 1975, S. 20 ff.; ders., A Paradigm of the Human Condition, in: ders., Action Theory and the Human Condition, New York 1978, S. 352–433, hier S. 375 ff., nicht zuletzt im Anschluss an Freuds Hierarchie von Es, Ich und Über-Ich.
  15. Anregend (!) dazu Barbara Gronau (Hg.), Szenarien der Energie: Zur Ästhetik und Wissenschaft des Immateriellen, Bielefeld 2013; und Johanna Drucker, The General Theory of Social Relativity, Vancouver 2018, insbes. S. 28 ff.
  16. „It is important to realize that in physics today we have no knowledge of what energy is,“ so Richard P. Feynman, Six Easy Pieces. The Fundamentals of Physics Explained, London 1998, S. 71.
  17. Siehe Warren S. McCulloch / Walter H. Pitts, A Logical Calculus of the Ideas Immanent in Nervous Activity, in: Bulletin of Mathematical Biophysics 5 (1943), S. 115–133.
  18. Siehe dazu Laura Otis, Networking. Communication with Bodies and Machines in the Nineteenth Century, Ann Arbor 2001; dies., The Metaphoric Circuit: Organic and Technological Communication in the Nineteenth Century, Journal of the History of Ideas 63 (2002), 1, S. 105–128.
  19. Wenn nicht jede Naturphilosophie diese Sozialgeschichte immer schon ist, siehe nur Wolfgang Neuser / Sönke Roterberg (Hg.), Systemtheorie, Selbstorganisation und Dialektik. Zur Methodik der Hegelschen Naturphilosophie, Würzburg 2012.
  20. Siehe Friedrich A. Hayek, The Sensory Order: An Inquiry into the Foundations of Theoretical Psychology, Chicago, Ill 1952, Reprint Mansfield Ventre, CT: Martino Publishing, 2014. Immerhin hat Hayek sehr früh die Konsequenz aus Johannes Müllers ‚Prinzip der spezifischen Sinnesenergien‘ gezogen, dass „the cause of the specific effects of the impulses in different fibres must be sought, not in the attributes of the individual impulses, but in the position of the fibre in the central organization of the nervous system“ (ebd., S. 2). Siehe die Fortführung dieses Ausgangspunkts bei Heinz von Foerster, Über das Konstruieren von Wirklichkeiten, in: ders., Wissen und Gewissen. Versuch einer Brücke, hrsg. von Siegfried J. Schmidt, Frankfurt am Main 1993, S. 25–49.
  21. Schwer zu sagen, warum Sohn-Rethels Buch Geistige und körperliche Arbeit (Frankfurt am Main1970) hier unter dem Titel seiner englischen Übersetzung zitiert wird.
  22. Siehe Susan Leigh Star, The Structure of Ill-Structured Solutions: Boundary Objects and Heterogenous Distributed Problem Solving, in: Les Gasser / Michael N. Huhns (Hg.), Distributed Artificial Intelligence, Vol. 2, London 1989, S. 37–54, hier S. 40 f.; und vgl. Sebastian Gießmann, Der Durkheim-Test: Anmerkungen zu Susan Leigh Stars Grenzobjekten, in: Berichte zur Wissenschaftsgeschichte 38 (2015), 3, Special Issue: Begriffsbildung – Begriffsgeschichte: Entstehung und Entwicklung wissenschaftlicher Konzepte, S. 211–226.
  23. Siehe zu einer jüngeren Aufwertung des Hierarchiegedankens Malte Doehne / Daniel A. McFarland / James Moody, Network Ecology: Introduction to the Special Issue, in: Social Networks 77 (2024), S. 1–4, im Anschluss unter anderem an die Vorstellung einer Inklusionshierarchie („systems-within-systems“) bei Herbert A. Simon, The Architecture of Complexity, in: Proceedings of the American Philosophical Society 106 (1962), S. 467–482.
  24. Siehe etwa Tiqqun, L'hypothèse cybernétique, in: ders., Tout a failli, vive le communisme! Paris 2009, S. 223–339; Paul Buckermann / Anne Koppenburger / Simon Schaupp (Hg.), Kybernetik, Kapitalismus, Revolutionen: Emanzipatorische Perspektiven im technologischen Wandel, Münster 2017; Vincent August, Technologisches Regieren: Der Aufstieg des Netzwerk-Denkens in der Krise der Moderne. Foucault, Luhmann und die Kybernetik, Bielefeld 2021
  25. Siehe etwa Stefan Rieger, Kybernetische Anthropologie. Eine Geschichte der Virtualität, Frankfurt am Main 2003; Andrew Pickering, The Cybernetic Brain. Sketches of another Future, Chicago 2010; Diedrich Diedrichsen / Oier Etxeberria (Hg.), Cybernetics of the Poor, Wien 2020.
  26. Siehe etwa Mathieu Triclot, Le moment cybernétique. La constitution de la notion d‘information, Seyssels 2008; Michael Hagner / Erich Hörl (Hg.), Die Transformation des Humanen. Beiträge zur Kulturgeschichte der Kybernetik, Frankfurt am Main 2008; Bruce Clarke, Neocybernetics and Narrative, Minneapolis, MN, 2014; ders., Gaian Systems, in: Lynn Margulis, Neocybernetics, and the End of the Anthropocene, Minneapolis, MN, 2020; Yuk Hui (Hg.), Cybernetics for the 21st Century, Bd. 1: Epistemological Reconstruction, Hong Kong 2024.
  27. Siehe Norbert Wiener, Cybernetics, or Control and Communication in the Animal and the Machine, 2. Aufl., Cambridge, MA. 1961; und vgl. ders., The Human Use of Human Beings: Cybernetics and Society, Boston, MA, 1950.
  28. Vgl. Johanna Drucker, The General Theory of Social Relativity, Vancouver 2018, S. 44 und 87 ff.
  29. Von einer ‚statistischen Schließung‘ sprach Howard H. Pattee, The Physical Basis and Origin of Hierarchical Control, in: ders., Hierarchy Theory. The Challenge of Complex Systems, New York 1973, S. 71–108, hier S. 96.

Dieser Beitrag wurde redaktionell betreut von Stephanie Kappacher.

Kategorien: Arbeit / Industrie Daten / Datenverarbeitung Gesellschaftstheorie Globalisierung / Weltgesellschaft Sozialgeschichte Technik Wirtschaft

Dirk Baecker

Professor Dr. Dirk Baecker ist Soziologe und lehrt Kulturtheorie und Management an der Universität Witten/Herdecke.

Alle Artikel

PDF

Zur PDF-Datei dieses Artikels im Social Science Open Access Repository (SSOAR) der GESIS – Leibniz-Institut für Sozialwissenschaften gelangen Sie hier.

Empfehlungen

Alexandra Keiner

Über Macht, Gewalt und Technologie

Rezension zu „The Walls Have Eyes. Surviving Migration in the Age of Artificial Intelligence“ von Petra Molnar

Artikel lesen

Lutz Raphael

Auf der Suche nach den globalen Mittelschichten

Rezension zu „The Global Bourgeoisie. The Rise of the Middle Classes in the Age of Empire“ von Christof Dejung, David Motadel und Jürgen Osterhammel (Hg.)

Artikel lesen

Friederike Bahl

F. Butollo: The End of Cheap Labour?

Happy Guangdong? Warum technologische Aufwertung in China Qualifikationserfordernisse schafft und doch nicht das Ende billiger Arbeit bedeutet

Artikel lesen

Newsletter