Dieter Mersch | Rezension |

Artificial Creativity: Möglichkeiten und Grenzen maschineller Kunst

Rezension zu „Der Creativity Code. Wie künstliche Intelligenz schreibt, malt und denkt“ von Marcus du Sautoy

Marcus du Sautoy:
Der Creativity-Code. Wie künstliche Intelligenz schreibt, malt und denkt
Deutschland
München 2021: C.H. Beck
319 S., mit 15 Abbildungen, 26,95 €
ISBN 978-3-406-76579-7

Marcus du Sautoy, Mathematiker an der Universität Oxford, beschreibt in seiner Studie Der Creativity Code den derzeitigen Stand der Forschung zu Künstlicher Intelligenz in Bezug auf diejenige Fähigkeit des Menschen, die bislang den Versuchen ihrer Computerisierung am hartnäckigsten zu widerstehen scheint: das Kunstmachen, das Erzählen, das Komponieren von Musik, kurz: die Kreativität als die Erfindungsgabe von Neuem. Digitalisierte Intelligenzen sind besonders erfolgreich, wo sie Daten erheben, Messungen vornehmen oder statistische Untersuchungen anstellen – aber die Erschaffung von Kunstwerken ebenso wie die Entdeckung ‚kunstvoller‘ mathematischer Beweise oder die Erfindung von fesselnden Geschichten scheinen sich bislang jeder Berechenbarkeit nicht nur zu widersetzen, sondern ihr sogar zu widersprechen. So hat unlängst der Schriftsteller Daniel Kehlmann in seinem kurzen polemischen Vortrag Mein Algorithmus und Ich von seinen vergeblichen Versuchen berichtet, zusammen mit dem Textprogramm CTRL Literatur zu produzieren, wobei es sich um ein kollaboratives Programm handelt, das menschliche Vorgaben dialogisch weiterschreibt – ähnlich den surrealistischen Experimenten des „automatischen Schreibens“. Die Bemühungen Kehlmanns endeten kläglich: Nicht nur erwies sich das Programm als „Zweitverwerter“, der jede Eingabe mit der wahrscheinlichsten in der Database des Internets vorfindbaren Fortsetzung aus existierenden Literaturen anderer Schriftsteller beantwortete, es verfing sich auch nach drei, vier Seiten in Schleifen oder Unsinnsproduktionen. Dagegen weisen viele Apologeten künstlicher Kreativität wie etwa Arthur I. Miller, der am University College in London Geschichte und Philosophie der Wissenschaften lehrt, in seinem Buch The Artist in the Machine (2019) auf die schon existierende Fähigkeit von Computern hin, veritable Kunst zu kreieren. Dazu führen sie sowohl Mike Tykas Iceptionalism an, eine Art psychodelischer Spielerei, die inzwischen in eigenen KI-Galerien zu besichtigen ist, als auch das 2018 spektakulär ausgestellte Portrait of Edmond de Belamy der französischen Informatiker-Gruppe Obvious, das bei Christie’s in New York die stattliche Summe von 432.500,00 US-Dollar erzielte. Ist die Künstliche Intelligenz dabei, den Menschen zu überflügeln und ihm seine vermeintlich letzte verbleibende Enklave zu entreißen?

Sautoy ist Mathematiker und darum vorsichtiger als die zu Optimismus neigenden Informatiker und deren szientifische Interpreten. Sein sehr kenntnisreiches Buch, das auf der Höhe des State of the Art der KI-Forschung argumentiert, gibt vielmehr eine ambivalente Antwort, weil es sich der eigentlichen Problemstellung bewusst ist, nämlich der Frage, wo die Grenzen der Mathematisierung von Welt und entsprechend der Mathematisierung von Rationalität und ihrem Gegensatz, der nicht notwendig rationalen Kreativität liegen. Diese Grenzen sind einerseits systematisch-logischer Art: Sie finden sich bereits im Turingschen Halteproblem und den Gödelschen Unvollständigkeitssätzen, die in Sautoys Tour d‘ Horizon leider keinen Platz gefunden haben. Andererseits liegt eine Grenze in dem, was Statistiken überhaupt abzubilden vermögen – denn sogenannte Künstliche Intelligenz oder Machine Learning beschreibt heute nichts anderes als eine statistische Verstärkung von Network-Layern und deren Pfaden.

Sautoy interessiert sich ausschließlich für Machine Learning Systeme auf der Basis von angewandten Statistikprogrammen, die aus Möglichkeitsketten diejenigen Resultate wählen, die am wahrscheinlichsten Erfolg versprechen. ‚Künstliche Intelligenzen‘ entsprechen also im Grunde komplexen Optimierungsprogrammen, die sozusagen induktiv in vieldimensionalen Räumen operieren, indem sie Vorgängerlösungen in den weiteren Lösungsverlauf einspeisen und sich daran schrittweise verbessern (lernen!). Mathematisch geht es dabei allein um die Berechnung von Koeffizienten, wobei entscheidend ist, wie die vieldimensionalen Räume jeweils modelliert sind, denn eine KI ist nur so erfolgversprechend, wie sie in Ansehung einer bestimmten Fragestellung den schnellsten Rechenweg einschlagen kann. Sautoy macht deutlich, dass also „nicht Perfektion das Ziel“ ist, sondern ein möglichst großer Prozentsatz an Triftigkeit (S. 81). Nicht ob die Menge der Pixel einer Gesichtsvorlage und deren Verteilung von Messpunkten im Facial Recognition-Programm dem Gesicht von „K“ entsprechen – es also identifizieren – ist ausschlaggebend, sondern wie hoch die Wahrscheinlichkeit ist, dass die zugrunde gelegte Datenmenge anderen Datenmengen, die per definitionem „K“ wiedergeben, ähneln.

„Die reinen Daten allein werden nie genug sein. Sie müssen mit Wissen gepaart sein.“

Der Diskurs der Künstlichen Intelligenz ist also ein Ähnlichkeitsdiskurs, der, wie Sautoy betont, dort an seine mathematischen Grenzen stößt, wo zu kleine Ausschnitte approximiert werden, die zu „algorithmischen Halluzinationen“ führen können, etwa indem in beliebigen Farbflecken „jedes beliebige Motiv erkannt“ wird (S. 85). Das kann dann zu bizarren Verzerrungen führen, wenn solche Diskurse verwendet werden, um Präferenzen auszudrücken, bei denen Hunderte von Millionen Userbewertungen ausgewertet und mit der spezifischen Wahl eines bestimmten Users korreliert werden, um wiederum Vorschläge zu unterbreiten, die er oder sie nicht nur nicht erwartet hat, sondern die seinem oder ihrem Geschmack am Ende sogar zuwiderlaufen. Wahrscheinlichkeiten seien zwar erstaunlich wirkmächtig geworden, doch liege ihre Schwäche in der Indifferenz von Korrelationen gegenüber Kausalitäten, sodass es mitunter schwerfalle, den Maschinen die notorischen Fehldiagnosen abzugewöhnen. „Die Maschine mag lernfähig sein“, resümiert Sautoy, „aber man muss sicherstellen, dass sie das Richtige lernt.“ Und das wiederum ist kein ausschließlich mathematisches Problem: „Die reinen Daten allein werden nie genug sein. Sie müssen mit Wissen gepaart sein.“ (S. 100 f.)

Angewendet auf die Frage der Kreativität, führt dies zu interessanten, manchmal auch überraschenden Einsichten. Versuche, Kunst aus dem Computer zu erschaffen, gibt es schon seit den Anfängen der Computerisierung – erinnert sei etwa an die informatische Ästhetik Max Benses, Frieder Nakes und Abraham Moles oder an Harold Cohens AARON-Programm –, doch beschränkten sich diese im Wesentlichen auf die Gestaltung mittels Zufallsprozessen. Sautoy setzt dagegen ein Verständnis von Mathematik als Strukturwissenschaft, die vor allem der Erkennung, Erforschung und Transformation von Mustern dient. Allerdings verfuhr auch die klassische Computerkunst vollkommen deterministisch über gesteuerte Zufälle, die zwar Neues zu generieren vermögen, nicht aber im eigentlichen Sinne als kreativ gelten können. Zufallsprozesse neigen zur Häufung von Mustern, doch entscheiden sie nicht, wie der Autor hervorhebt, „warum eine bestimmte Konfiguration interessanter ist als jede andere“ (S. 123). Sie sind folglich indifferent und überlassen die Bewertung von interessanten und uninteressanten Mustern den Betrachtenden, nicht dem Rechner, wie überhaupt das Evaluationsproblem in Top-Down-Ansätzen Künstlicher Intelligenzen ungelöst bleibt – und fraglich ist, ob diese Lücke durch die wahrscheinlichkeitstheoretischen Bottom-Up-Ansätze je geschlossen werden kann.

An dieser Stelle fokussiert Sautoy vor allem die Beschreibung von Arbeitsweisen, wie Computer mittels statistischer Funktionen aus bestehenden oder vergangenen Daten – etwa Kunstwerken – neue und ähnliche hervorbringen, denn klar ist, dass das Machine Learning nichts anderes vermag, als die überlieferte menschliche Kunst hochzurechnen, zu verdurchschnittlichen und mittels Mustererkennung zu variieren. Erneut sind wir mit Ähnlichkeitsdiskursen konfrontiert, denn wir erhalten Permutationen: Vom Gewesenen dasselbe, nur etwas anders. Ein anschauliches Beispiel hierfür ist das Projekt The Next Rembrandt, das aus den vorhandenen Rembrandt-Portraits ein weiteres extrapolierte, indem es bestimmte messbare Merkmale der Malweise Rembrandts applizierte. Vorausgegangen waren Studien, die Recognition-Programme auf Kunstwerke anwendeten, um aus Merkmalen wie Bildaufteilung, Textur, Farbgebung, Gestaltung etc. auf den Maler oder die Malerin zu schließen, oder die Bewertungsalgorithmen in Anschlag brachten, wie sie auch Spotify oder Netflix verwenden, wobei, so Sautoy, „im Prinzip […] der Algorithmus das Motiv eines Bildes durch ein Spiel mit 20 Fragen“ identifiziert (S. 148). Die Resultate bestehen aus detailreichen Nachahmungen, sogar zuweilen aufsehenerregenden Schöpfungen, die wir nur schwer von denen der Meister und Meisterinnen der Vergangenheit unterscheiden können. Doch, so der Autor, fehle den Algorithmen „die Fähigkeit, diese einzelnen Teile zu einer Ansicht zusammenzufügen, die als Ganzes befriedigend anmutet“ (S. 131). Diese Erkenntnis korrespondiert mit der Einsicht Jackson Pollocks: „Malen ist Selbsterfindung. Jeder gute Künstler malt, was er ist.“ Der Satz liest sich wie Goethes Aussage über das Wesen des Stils, denn Stil sei ja „der ganze Mensch“.

Die Kunst wird lediglich um Aspekte erweitert, deren Geheimnis vielleicht darin besteht, dass sie einer Black Box entstammen, welche aber zuletzt ohne Sinn dafür bleibt, was Kunst eigentlich ist und was sie ausmacht.

Kehlmanns Problem wird so verständlich: Der Maschine fehlt nicht nur der lange Atem, weil sie nichts anderes leistet als eine Rekombination, ihr fehlt vor allem ein Gefühl für Dramaturgien: Ihr mangelt es am Sinn für den Sinn. Und man kann – das ist das Faszinierende des Buches – diesen grundlegenden Mangel bei Sautoy aus der Praxis der Programme, der Arbeitsweise der im Spiel befindlichen Algorithmen selber entnehmen, denn aus der Verkettung von Merkmalen in vieldimensionalen Räumen und der Berechnung von Koeffizienten zugrundeliegender Funktionen und ihrer Optimierung folgt bestenfalls eine nachgerade obsessive Versessenheit auf den nächsten und übernächsten Schritt, nicht aber ein ganzheitlicher Gestaltungswille. Und das trifft auch auf die jüngsten Versuche kybernetischer Kreativität mittels Wettbewerben zwischen neuronalen Netzwerken zu (sogenannten General Adversarial und Creative Adversarial Networks: GANs und CANs), die aus der Game-Szene stammen und lediglich den Anschein erwecken, als bezögen sie ihre Daten aus der Geschichte, um sie mit Blick auf eine Zukunft zu brechen und weiterzuentwickeln. Nicht die Malerei, noch weniger das Schreiben von Texten oder die Fertigung von Narrativen werden so auf etwas Anderes hin überschritten. Vielmehr wird die Kunst lediglich um Aspekte erweitert, deren Geheimnis vielleicht darin besteht, dass sie einer Black Box entstammen, welche aber zuletzt ohne Sinn dafür bleibt, was Kunst eigentlich ist und was sie ausmacht.

Sautoy bleibt dennoch unentschlossen im Hinblick auf diese Entwicklungen. Fasziniert von den präsentierten ‚Arbeiten‘, und im Grunde noch mehr fasziniert von ihrer Anwendungsweise auf seinem ureigensten Gebiet, nämlich der Mathematik als einer Kunst des Beweisens, sucht er beständig die Produkte aus dem Computer mit dem kurzzuschließen, was wir eigentlich unter Kunst oder einem mathematischen Beweis verstehen – und bleibt auf diese Weise leider nur im Vorhof der eigentlichen Fragestellung. Denn mit Blick auf die in Anschlag gebrachten Kunsttheorien verfährt er letztlich unsystematisch, eher zufällig, was ihm als Mathematiker gewiss nicht zu verdenken ist. Er zitiert Margaret Boden, Ludwig Wittgenstein, sogar Hans-Ulrich Obrist sowie viele Kunstschaffende, gelangt zu erstaunlichen Aussagen, doch bündelt er sie nicht zu einer ästhetischen Theorie, die er mit den großen Theorien der Überlieferung hätte konfrontieren können, um die Expertisen der Machine-Learning-Programme und deren Produktivität angemessen zu bewerten und einzuordnen. Bodens Untersuchung zur Kreativität ist gewiss einschlägig, wie auch ihr Fokus auf die Frage des ‚Wertes‘ kreativer Schöpfungen zum Kern des Rätsels zählt – doch ist der Kreativitätsbegriff in erster Linie ein reflexiver Terminus, der nicht nur ein Denken, sondern vor allem das Denken des Denkens adressiert, von dem es – man lese es bei Heinz von Foerster nach – immer nur unzureichende mathematische Modellierungen gibt. Vor der Fülle des diskutierten Materials stehen Leserinnen und Leser am Ende etwas ratlos, weil unklar bleibt, weshalb es einer ‚Kunst aus dem Computer‘ überhaupt bedarf und was mit derlei Versuchen bewiesen werden soll. Das Argument, dass derartige Rekonstruktionen dazu dienten, uns selbst besser zu verstehen – gewissermaßen als Substitution von Theorie durch praktischen Nachbau – verficht nicht, denn was uns computergenerierte Kunst jeweils sehen oder hören lässt, kann nichts anderes sein als eine Manifestation von Randomisierungen und statistischen Funktionen, deren Nähe zu unseren eigenen Produktionen uns manchmal in Erstaunen versetzen mag. Doch zeigt dies nicht mehr, als dass das bloße Aussehen, der ‚Schein‘ bedeutungslos ist: Was zählt, ist die darin zum Ausdruck gebrachte Erkenntnisarbeit, die Kunst überhaupt erst zu Kunst macht.

Dieser Beitrag wurde redaktionell betreut von Stephanie Kappacher, Jakob Borchers.

Dieter Mersch

Prof. em. Dr. Dieter Mersch, bis 2013 Professor für Ästhetische Theorie und Leiter des Instituts für Theorie der Zürcher Hochschule der Künste sowie Präsident der Deutschen Gesellschaft für Ästhetik. Arbeitsgebiete: Kunsttheorie, Medientheorie, Bildtheorie und Philosophien der Gegenwart

Alle Artikel