Sascha Dickel | Rezension | 21.01.2025
Was war KI?
Rezension zu „Soziologie der Künstlichen Intelligenz. Perspektiven der Relationalen Soziologie und Netzwerkforschung“ von Roger Häußling, Claudius Härpfer und Marco Schmitt (Hg.)

Mit theoretischer Schärfe und einsichtsreichen empirischen Bezügen untersucht der von Roger Häußling, Claudius Härpfer und Marco Schmitt herausgegebene Band „Soziologie der Künstlichen Intelligenz. Perspektiven der Relationalen Soziologie und Netzwerkforschung“ das Phänomen der „neueren KI“, die auf Machine Learning beziehungsweise Deep Learning basiert. Während Machine Learning Algorithmen nutzt, um Muster in Daten zu erkennen und aus ihnen zu lernen, handelt es sich bei Deep Learning um eine spezialisierte Form, die auf neuronalen Netzen basiert. Die Netzwerktheorie von Harrison White dient als Referenz, um soziale, technische und epistemische Aspekte von KI zu beleuchten. Der Band ist in thematisch fokussierte Beiträge gegliedert, die jeweils einen eigenen Zugang zur soziologischen Analyse von KI verfolgen.
Die von den Herausgebern verfasste Einleitung beginnt mit einem augenzwinkernden Verweis auf eine KI-gesteuerte elektrische Zahnbürste. Das Beispiel zeigt, dass selbst die KI-Systeme scheinbar banaler Alltagsanwendungen auf komplexen soziotechnischen Prozessen beruhen. Machine Learning und Deep Learning finden nämlich nicht mehr allein in geschlossenen Laborsettings statt, sondern werden als permanenter Betatest in verschiedenen gesellschaftlichen Anwendungskontexten durchgeführt. Im Anschluss an Adrian Mackenzie begreifen die Autoren die neuere KI als Projekt, das auf eine gesellschaftliche Krise der Kontrolle reagiert, die Folge der zeitgenössischen Datenflut ist. Eine besondere gesellschaftliche Herausforderung der zeitgenössischen Deep Learning-Technologien besteht in ihrer Opazität: Sie erscheinen typischerweise als Black Boxes, die sich dem individuellen und kollektiven Verständnis entziehen.
Die Herausgeber kritisieren, dass die soziologische Auseinandersetzung mit KI häufig hinter ethischen und rechtlichen Diskussionen zurückbleibt. Dabei stelle, so argumentieren sie, gerade die relationale Soziologie einen fruchtbaren Zugang zu KI dar. Die im Band versammelten Texte sollen folglich die Stärken der relationalen Perspektive der Theorie von Harrison White bei der Analyse von KI deutlich machen. Dabei konzentrieren sie sich auf die Themen Kontrolle und Opazität. Viele der Autor:innen greifen in ihren Analysen auf Experteninterviews zurück, die zwischen 2019 und 2022 an der RWTH Aachen geführt wurden. Besonders interessant ist, dass die Beiträge mehrheitlich vor der Einführung von ChatGPT verfasst wurden. So wird sichtbar, ob die gewählten analytischen Zugriffe und Schwerpunktsetzungen auch noch angemessen und zukunftsweisend sind, wenn wie heutzutage die neuere KI im großen Stil gesellschaftlich veralltäglicht wurde.
Im ersten Kapitel entwickeln Roger Häußling und Marco Schmitt eine theoretische Perspektive auf KI, die auf den zentralen Konzepten der White’schen Netzwerktheorie basiert. Sie legen dar, dass sich gesellschaftliche Prozesse immer mehr in automatisierte technische Prozesse verlagern. Die dafür zunehmend eingesetzte neuere KI unterscheidet sich nicht nur von klassischer industrieller Sachtechnik, sondern auch von etablierter Computertechnik, in der Algorithmen klaren kausalen Routen folgen. Stattdessen, führen die beiden aus, haben wir es bei der neueren KI mit „transklassischen Programmen“ (S. 34) zu tun. Klassische Technik zeichnet sich durch ihre Dekontextualisierbarkeit aus: Ein Wecker funktioniert auf jedem Kontinent und in jedem Schlafzimmer auf die gleiche Weise. Die transklassische Technik hat hingegen einen „genuin kontextsensitiven Fokus“ (S. 39). Da die White’sche Netzwerktheorie „eine gewisse Verwandtschaft zu den Musterkennungsverfahren der DL-Verfahren“ (S. 47) aufweist, wird sie von den Autoren herangezogen, um transklassische Technik und die mit ihr einhergehenden soziologischen Herausforderungen zu erhellen. Die Verwandtschaft legen Häußling und Schmitt überzeugend dar: Sie zeigen, wie Deep Learning-Systeme emergente Kontrollstrukturen hervorbringen, die auf Wahrscheinlichkeit und Konnektivität basieren. Besonders hellsichtig ist ihre Beobachtung, dass die Verdatung der Welt zunächst deren „vergleichgültige“ (S. 31) Zerlegung zur Folge hat. In der Welt der Daten herrsche keine Tiefe, sondern die radikale Oberflächlichkeit der Bits und Bytes. Eine zentrale Herausforderung für Deep Learning-Technologien bestehe nun darin, in diesem vergleichgültigten Datenmeer kontextsensibel relevante Marker und Muster zu erkennen. Ohne dass die Autoren dies explizit benennen, scheint damit das theoretische Problem markiert, für das der Attention-Mechanismus, den zeitgenössische Modelle (wie GPT) nutzen, eine technische Lösung darstellt – geht es hier doch genau darum, die relative Bedeutung eines Elements im Verhältnis zu anderen Elementen zu bestimmen.
Marco Schmitt und Christoph Heckwolf widmen sich im zweiten Kapitel der Transparenz und Opazität von KI-Systemen. Ein zentraler Beitrag des Kapitels ist die Differenzierung verschiedener Ebenen der Opazität (Daten, Trainingsprozesse, Funktion und mathematische Modelle). Schmitt und Heckwolf zeigen, dass Opazität nicht nur eine technische, sondern auch eine soziale Angelegenheit ist. Statt Deep Learning-Technologien ontologisch die Eigenschaft einer Black Box zuzuschreiben, wird gefragt, inwiefern Expert:innen KI als Black Box begreifen und welche sozialen Konsequenzen sie daraus ableiten. Konzeptionell fassen die Autoren Black Boxing im Sinne von White als Kontrollprojekt, das Handlungen blockieren oder ermöglichen kann. Das ist theoretisch innovativ und wird auch empirisch plausibel untermauert. Die maßgebliche Datengrundlage des Beitrags sind Experteninterviews. Auch wenn das Material interessante Einblicke eröffnet, sind die Ein- und Zuordnungen der Aussagen etwas holzschnittartig geraten. Hier hätte man sich mehr interpretative Tiefe gewünscht. Noch oberflächlicher ist die international vergleichende Sichtung von Zeitungsartikeln ausgefallen. Die Erhebung hätte Stoff für einen separaten Beitrag geboten, wirkt hier jedoch eher wie ein Anhängsel.
Claudius Härpfer und Nadine Diefenbach analysieren in ihrem Kapitel die Lernprozesse von KI-Systemen. Aufbauend auf den Arbeiten von Herbert Simon und Harrison White entwickeln sie ein Modell zur soziologischen Beschreibung maschinellen Lernens, das sowohl supervised als auch unsupervised learning berücksichtigt – bei ersterem werden Daten bereitgestellt, markiert und überwacht, um das Modell gezielt zu trainieren. Sie zeigen, dass selbst hochautomatisierte Lernprozesse auf intuitivem Wissen basieren können. Dabei kommen sie zu dem Schluss, dass die wissenschaftliche Arbeit an und mit KI-Systemen Parallelen zur künstlerischen Arbeit aufweist. Der Beitrag bietet einen detailreichen Einblick in die unterschiedlichen Techniken des maschinellen Lernens und liefert generalisierende soziologische Neubeschreibungen. Die Bezugnahme auf die theoretischen Konzepte von White ist dabei jedoch nicht alternativlos. Anschlussfähiger an Simons Lerntheorie wären hier möglicherweise Ansätze aus der soziologischen Systemtheorie gewesen, die Lernen als Prozess des Umgangs mit Irritationen begreifen.
Philip Roth, Matthias Dorgeist und Astrid Schulz greifen das Konzept der „Boundary Objects“ auf, um die Rolle von Deep-Learning-Techniken in Entwicklungs- und Anwendungsprozessen zu analysieren. Sie zeigen, dass KI-Systeme als Boundary Objects fungieren, die zwischen den unterschiedlichen Anforderungen von Entwickler:innen und Anwender:innen vermitteln. Das Kapitel überzeugt durch seine empirische Fundierung, die auf Fallstudien aus den Lebenswissenschaften basiert. Sie legen die Funktion von Deep Learning-Technologien als Boundary Objects zwischen dem Entwicklungsfeld des maschinellen Lernens und den Anwendungsfeldern der medizinischen beziehungsweise biowissenschaftlichen Praxis offen. Im Kontrast zum Rest des Bandes wird hier nicht maßgeblich auf Whites Netzwerksoziologie zurückgegriffen. Vielmehr stützen sich die Autor:innen auf das Konzept der sozialen Felder. Der Beitrag zeigt so detailreich wie eindrücklich, wie Deep Learning-Entwicklung an die Praktiken sozialer Felder ankoppelt und arbeitet gelungen heraus, wie Deep Learning ihre Grenzen trotz Kollaboration aufrechterhält.
Tabea Bongert und Dhenya Schwarz widmen sich in ihrem Beitrag den Auswirkungen von KI auf das Selbstverständnis von Ärzt:innen. Sie zeigen, dass KI längst in deren Alltag angekommen ist und Deep Learning routiniert als Werkzeug in der Diagnostik zum Einsatz kommt. Die Autor:innen argumentieren, dass die Substitution von Ärzt:innen durch KI zwar ein medial popularisierter Diskurs ist, in der medizinischen Praxis jedoch keine Rolle spielt. Faktisch werde die Rolle von Ärzt:innen durch KI kaum verändert; die Profession und Institution der Medizin nicht destabilisiert. Im Dialog mit Patient:innen spiele KI ebenfalls keine Rolle. Dadurch könne die Arbeit von Ärzt:innen einerseits weiterhin als genuin menschliche Leistung inszeniert werden, andererseits verspielten Ärzt:innen aber womöglich die Chance, Transparenz herzustellen, bei Patient:innen das Vertrauen in diese Technik zu stärken und damit zugleich auch das mediale Narrativ einer Konkurrenz zwischen Mensch und Technik zu korrigieren.
Im sechsten Kapitel analysieren Tim Franke, Niklas Strüver und Sascha Zantis die Narrative von Start-ups zur Entwicklung digitaler Plattformen. Ihre empirische Analyse basiert auf Interviews, die im Rahmen eines BMBF-Projekts zu Innovationen digitaler Plattformsysteme für die arbeitswissenschaftliche, ethische, rechtliche und soziale Zukunftsgestaltung (INDIZ) geführt wurden. In theoretischer Hinsicht greifen die Autor:innen auf Whites Story-Begriff zurück, um zu rekonstruieren, welche Rolle das Motiv solutionistischer Weltverbesserung spielt, also die Leitidee, dass (digitale) Technologien – wie Apps und Plattformen – als universelle technologische Antworten auf komplexe gesellschaftliche Probleme herangezogen werden können. Der Beitrag bietet eine ausführliche theoretische Reflexion des Konzepts der Story und seiner Relation zum White’schen Konzept der Rechtfertigungsordnung. Sein thematischer Bezug zum Rahmenthema KI ist jedoch eher locker.
Axel Zweck und Thomas Werner legen eine Analyse der Künstlichen Intelligenz aus Perspektive der Zukunftsforschung vor. Sie zeichnen die Entwicklung von KI nach, von der utopischen Vision bis zu Techniken einer schwachen KI, die zunächst nur Insellösungen boten, aber zunehmend leistungsfähiger werden. Sie geben illustrative Einblicke in gegenwärtige Trends und behandeln insbesondere die Rolle von KI im Foresight. Wie schwierig es ist, die Zukunft der KI-Entwicklung selbst abzuschätzen, räumen die Autoren zum Ende des Beitrags ein: Kurz nach der eigentlichen Fertigstellung des Textes wurde OpenAIs ChatGPT veröffentlicht und in den folgenden Monaten präsentierten mehrere Tech-Unternehmen verschiedene generative KI-Anwendungen. „Mit Stand 13.02.2024 sind ca. 505.000 KI-Modelle verfügbar, d.h. täglich entstehen weltweit ca. 1.000 neue Modelle – eine Entwicklungsgeschwindigkeit, mit der Publikationen in gedruckter Form kaum noch mehr Schritt halten können“ (S. 250).
Der Sammelband schließt mit einem resümierenden Beitrag der Herausgeber, der die zentralen Erkenntnisse zusammenfasst und in einen größeren theoretischen Kontext einordnet. KI ist hier lediglich ein Fall für die Skizze eines wesentlich breiter angelegten Programms relationaler Techniksoziologie. Dabei wird nicht nur gezeigt, wie sich die Theorie Whites auf soziotechnische Fragen anwenden lässt, vielmehr werden auch Perspektiven zu deren Weiterentwicklung entfaltet.
Besonders hervorzuheben ist das die Beitragssammlung abschließende Interview mit ChatGPT, das experimentell zeigt, wie KI selbst in ihre soziologische Reflexion eingebunden werden kann. Besonders sticht heraus, wie ChatGPT mit seiner eigenen Intransparenz umgeht: Es wird deutlich, wie wenig man über die Entwicklung des dahinterliegenden Sprachmodells weiß, da OpenAI zahlreiche Aspekte seiner Modelle nicht veröffentlicht hat, sondern als Geschäftsgeheimnis einstuft.
Der Band ist keine umfassende Soziologie Künstlicher Intelligenz, sondern bietet eine spezifische (technik-)soziologische Perspektive auf die Entwicklung und Anwendung maschinellen Lernens. Der – auch in den Computerwissenschaften umstrittene – Begriff der Künstlichen Intelligenz, der in technikhistorischer Perspektive für durchaus verschiedene Technologien verwendet wurde, wird dabei jedoch kaum reflektiert. Eine Ausnahme ist der Text von Zweck und Werner, der sich dem Intelligenzbegriff sowie der Differenz von starker und schwacher KI zuwendet, dabei aber an der Oberfläche bleibt. Gerade in den ein- und ausleitenden Beiträgen der Herausgeber hätte man durchaus auch auf Basis der skizzierten relationalen Perspektive genauer erschließen können, unter welchen Bedingungen und auf Basis welcher Kontrollprojekte eine technische „Identität“ die Qualität der Intelligenz gesellschaftlich für sich beanspruchen kann.
Darüber hinaus repräsentiert die Beitragssammlung auch nicht die Soziologie Künstlicher Intelligenz, sondern einen selektiven theoretischen Zugang zum Thema. Dessen Entfaltung gelingt jedoch in beeindruckend konsistenter Weise. Ungewöhnlich für einen Sammelband ist die klare Orientierung fast aller Beiträge an der Theorieperspektive von Harrison White. Die Nutzung von Whites Theoriesprache zur Erschließung, Beschreibung und Erklärung erfolgt weitgehend durchgängig. Allein im Text von Zweck und Werner erscheint der Rückgriff auf White oberflächlich und eigentlich auch überflüssig. Die Qualität des Lektüreerlebnisses wird daher auch davon abhängen, wie sehr man sich auf diese relationale Theorieperspektive einlassen will und als wie gewinnbringend man sie erachtet. Eine Ausnahme bildet der Beitrag von Roth et al., die White nur für den Ausblick nutzen. Gerade an diesem äußerst lesenswerten Beitrag wird aber deutlich, wie ein abweichender theoretischer Zugriff auf das Thema auch andere Aspekte von KI erhellt.
Der Sammelband erscheint zu einem Zeitpunkt, an dem die gesellschaftliche Imagination dessen, was Künstliche Intelligenz ist und sein könnte, von generativer KI im Allgemeinen und von ChatGPT im Besonderen bestimmt wird. Zugleich sind die Texte des Bandes fast alle noch vor dem aktuellen Boom der generativen KI verfasst worden. Die Aufsätze erscheinen somit ein wenig als Berichte aus einer vergangenen Welt. Genau das macht jedoch auch den Reiz des Buches aus. Man sieht, dass und wie sich von KI sprechen ließ, bevor sie zum gesellschaftlich relevanten Massenphänomen wurde. Die Einschätzung der Herausgeber, dass die Problemstellungen der Texte weiterhin aktuell sind – nicht zuletzt, weil auch die großen Sprachmodelle auf Deep Learning beruhen – erweist sich als richtig. Man kann ihnen und den übrigen Autor:innen daher nur gratulieren, das Thema auf empirischer Grundlage theoretisch erfasst zu haben, bevor der KI-Boom seine vorläufige Hochphase erreicht hatte.
Dieser Beitrag wurde redaktionell betreut von Hannah Schmidt-Ott.
Kategorien: Daten / Datenverarbeitung Digitalisierung Geschichte Gesellschaft Gesellschaftstheorie Methoden / Forschung Wissenschaft
Zur PDF-Datei dieses Artikels im Social Science Open Access Repository (SSOAR) der GESIS – Leibniz-Institut für Sozialwissenschaften gelangen Sie hier.
Empfehlungen
Vom Schutz der Ehre zum Recht auf Unberechenbarkeit
Rezension zu „Soziologie der Privatheit“ von Carsten Ochs
Schleichender Wandel mit ambivalenten Folgen
Rezension zu „Digitale Transformation“ von Jan-Felix Schrape
Maschinen im Hier und Jetzt
Rezension zur Ausstellung „Künstliche Intelligenz. Maschinen – Lernen – Menschheitsträume“ im Deutschen Hygiene-Museum Dresden und zum gleichnamigen Begleitband von Yasemin Keskintepe und Anke Woschech (Hg.)