Martin Vogel | Rezension |

Vom Rauschen beim Entscheiden

Rezension zu „Noise. Was unsere Entscheidungen verzerrt – und wie wir sie verbessern können“ von Daniel Kahneman, Olivier Sibony und Cass R. Sunstein

Daniel Kahneman / Olivier Sibony / Cass R. Sunstein:
Noise. Was unsere Entscheidungen verzerrt – und wie wir sie verbessern können
übers. von Thorsten Schmidt
Deutschland
München 2021: Siedler
480 S., 30 EUR
ISBN 978-3-8275-0123-3

„Prognosen sind schwierig – besonders, wenn sie die Zukunft betreffen.“ Dieses wahlweise Karl Valentin, Georg Christoph Lichtenberg, Kurt Tucholsky, Winston Churchill oder Marc Twain zugeschriebene Bonmot[1] ließe sich mit Blick auf das neue Buch von Daniel Kahneman, Oliver Sibony und Cass R. Sunstein noch ergänzen: „… weil sie stets verzerrt und fehleranfällig sind!“ Diese Ergänzung klingt zunächst trivial – selbstverständlich sind Prognosen schwierig, weil ja niemand weiß und auch nicht wissen kann, was die Zukunft bringt. Nur deshalb braucht es ja Prognosen: Weil die Gegenwart (und damit auch die Vergangenheit) die Zukunft nicht vollständig determiniert. Dieser Umstand ist letztlich Segen und Fluch zugleich: Er zwingt einerseits zur Entscheidung im Nichtwissen, andererseits macht er (freies) Entscheiden erst möglich. Und natürlich sind Vorhersagen verzerrt und fehleranfällig, weil die jeweilige gegenwärtige Zukunft als Konstruktion eines konkret situierten Beobachters mehr über die Beobachterin als über zukünftige Gegenwarten aussagt. Die Richtigkeit einer Entscheidung zeigt sich immer erst im Nachhinein, erst in der Retrospektive lassen sich systematische Verzerrungen einer Entscheiderin beobachten – zum Beispiel in Form des bekannten „Planungsfehlschlusses“, der die Laufzeit eines Projektes stets kürzer veranschlagt, als sie letzten Endes wirklich ist.

All das weiß man natürlich, selbst wenn man sich nur rudimentär mit menschlichem Entscheidungsverhalten auseinandergesetzt hat. Interessant ist allerdings, dass dieses Wissen in tatsächlichen Entscheidungssituationen erstaunlich wenig Einfluss gewinnt. In der Regel entscheiden Menschen schnell und intuitiv – das hatte Daniel Kahneman bereits im vorangegangenen Buch gezeigt, in dem er weite Teile seiner kognitionspsychologischen Forschungsergebnisse zusammengestellt und einem breiten Publikum zugänglich gemacht hatte.[2] Nun liegt also ein zweiter Band dieser Art vor. Auf fast 500 Seiten, in sechs Teilen und 28 Kapiteln widmen sich Kahneman und seine Kollegen und Ko-Autoren erneut menschlichen Entscheidungen und der Frage, wie Ergebnis und Prozess des Entscheidens verbessert werden können. Im Fokus stehen nun jedoch die Forschungsarbeiten der letzten zehn Jahre der inzwischen seit fünfzig Jahren wirkenden „Heuristics-and-Biases“-Schule, die Kahneman einst mit Amos Tversky in den 1970er Jahren begründet hatte.

Auch im neuen Buch geht es um Verzerrungen beim Entscheiden, allerdings nicht um systematische (Bias), sondern um zufällige Abweichungen (Noise). Gleich in der Einleitung führen die Autoren den Unterschied zwischen beiden Fehlervarianten anhand eines eindrücklichen Beispiels vor: Man stelle sich vor, zwei Gruppen von Sportschützen schießen auf eine Zielscheibe. Nach jeweils zehn Schuss lässt sich die Treffergenauigkeit jedes Schützen und jeder Gruppe ohne größeren Aufwand bestimmen. Ebenso können systematische Abweichungen ermittelt werden, zum Beispiel wenn eine Gruppe in der Tendenz nach links oben geschossen hat (weil etwa die Zieleinrichtungen der Gewehre nicht korrekt eingestellt waren). Darüber hinaus lässt sich die Streuung der jeweiligen Gruppen bestimmen, ob zum Beispiel alle Treffer sich um ein Zentrum ballen oder über die ganze Scheibe verteilt sind.

Schnelle und langsame Irrtümer

Solche unsystematischen Zufallsabweichungen vom „wahren Wert“ nimmt das Buch auf systematische Weise in den Blick. Drei grundsätzliche Punkte sind aus dem Eingangsbeispiel abzuleiten: Zum einen lässt sich die Streuung der Treffer (oder Urteile, wenn man das Beispiel auf Entscheidungssituationen überträgt) auch ohne Kenntnis des „wahren Wertes“ bestimmen. Anders als systematische Abweichungen, anders als Biases, die man nur ,von vorn‘, also mit frontalem Blick auf die Zielscheibe und dem Wissen um den „wahren Wert“ bestimmen kann, lässt sich „Noise“ auch ohne Kenntnis des eigentlichen Ziels, also auch ,von hinten‘ feststellen, etwa wenn man nur das Muster der Durchschläge der Treffer betrachtet. Man weiß dann zwar nicht, wie weit jeder Schuss von der „Zehn“ entfernt liegt, aber man weiß, dass mindestens neun der zehn Schützen danebengelegen haben müssen, und kann bestimmen, wie stark ausgeprägt die Streuungen untereinander sind. Während sich Bias also nur mit Kenntnis des wahren Wertes, bei Entscheidungen also nur in der Retrospektive bestimmen lässt, kann man Noise grundsätzlich immer feststellen, selbst für solche Fälle, in denen man den korrekten Wert gar nicht kennt beziehungsweise niemals erfahren wird – ein aktuelles Beispiel wären etwa die Wahrscheinlichkeitsvorhersagen bezüglich einer weiteren Corona-Welle.

„Bias ist eine bestechende Figur, während Noise der Hintergrund ist, dem wir keine Beachtung schenken.“ (Kahneman/Sibony/Sunstein)

Die zweite Kernthese des Buches lautet: Ausnahmslos alle menschlichen Entscheidungen sind verrauscht! Das gilt auch für die, bei denen man es am wenigsten erwartet, also für ausgewiesene Expertinnen und Experten: Weinkenner, deren wiederholte Urteile über ein und denselben Wein hoch unterschiedlich ausfallen, Medizinerinnen, die auf der Grundlage identischer Befunde unterschiedliche Diagnosen stellen, oder Richter, die im Experiment den gleichen Fall heute so, morgen so beurteilen.

Als dritten zentralen Aspekt fokussiert der Band ein weitverbreitetes Missverständnis: Wer schon einmal einen Grundkurs in Statistik besucht hat, wird sich erinnern, dass dort ein Messwert durch die Addition des wahren Wertes mit einem systematischen Fehler (zum Beispiel durch die Messmethode oder die Zielvorrichtung) und einem Zufallsfehler bestimmt wird (zum Beispiel durch das Raumklima). Will man eine Messung präzisieren, konzentriert man sich auf den systematischen Messfehler (zum Beispiel durch Justierung des Messinstruments), weil dieser durch wiederholte Messung abschätzbar wird. So lassen sich Messungen durch Konstanten korrigieren, etwa indem man zu einer geschätzten Projektlaufzeit drei Monate hinzuaddiert, weil man weiß, dass sich Projektplanende im Mittel um ein Vierteljahr verschätzen (Debiasing, S. 261 ff.).

Zufallsfehler (Noise) jedoch werden sehr viel seltener beachtet, zum einen, weil man sie nicht „mit bloßem Auge“, sondern nur „statistisch“ sehen kann: schnelles Denken – langsames Denken. „Bias ist eine bestechende Figur, während Noise der Hintergrund ist, dem wir keine Beachtung schenken.“ (S. 243) Zum anderen aber – und hier liegt das Missverständnis – findet sich in nahezu allen Statistikbüchern die Annahme, dass sich Zufallsfehler (bei theoretisch unendlich vielen Messungen) gegenseitig aufheben. Das Problem, auf das Kahneman, Sibony und Sunstein hinaus wollen: Diese Annahme ist falsch! Im Arbeitsalltag von Organisationen, bei Abstimmungen in der Politik oder in Gerichtsverfahren werden Entscheidungsverfahren weder theoretisch noch praktisch endlos wiederholt, um sich so dem wahren Wert anzunähern: Die Frage, wer den begehrten Job als Teamleitung bekommt, wird nur einmal beantwortet. Noise, ein zufälliger Fehler, der zu einer fehlerhaften Entscheidung führt, kann also sehr teuer werden, mindestens aber für große Ungerechtigkeiten unter den Beteiligten sorgen.

Von Bias zu Noise

Noise sollte als Problem also ernster genommen werden, so der grundlegende Appell der Autoren, den sie mit umfangreichem Studienmaterial und zahlreichen Belegen plausibilisieren. Dabei gehen sie sehr differenziert vor: In Teil 1 zeigen sie, wie man Noise im Entscheidungsverhalten – etwa in organisationalen Kontexten – sichtbar machen kann. Dazu stellen sie das „Noise-Audit“ als Methode vor und beschreiben es in einem gesonderten Anhang ausführlich (S. 417–423). Teil 2 des Buches fokussiert die Unterscheidung von Bias und Noise und führt das Rauschen in der Urteilsbildung als theoretisch wie praktisch bedeutsamen Fehler ein. Dazu unternehmen die Autoren mehrere Ausflüge in die statistische Fehlertheorie – für die geübte Sozialwissenschaftlerin sicher gut nachzuvollziehen, für den ungeübten Leser möglicherweise entbehrlich, sofern man bereit ist, der These zu folgen, dass nicht nur die Verringerung von Bias, sondern auch die Noise-Reduktion zur Verbesserung von Entscheidungen beiträgt.

Zahlreiche Belege für diese These finden sich in Teil 3: Warum liefern selbst einfachste lineare Regressionsmodelle und Algorithmen, also formale Entscheidungsregeln, im Allgemeinen ,bessere‘ Ergebnisse als menschliche Entscheider? Die Antwort: Weil die so errechneten Urteile frei von Noise sind! Auch Algorithmen können verzerrte Urteile produzieren, etwa wenn die einzelnen Faktoren ungünstig gewichtet sind, aber eine gewisse Formel produziert bei gleichem Input stets dasselbe Ergebnis, weil sie über die Zeit mit sich selbst identisch bleibt, im Gegensatz zu den meisten (menschlichen) Urteilenden und den Bedingungen, unter denen sie entscheiden und urteilen.

Was aber sind nun die Ursachen für das Rauschen beim Entscheiden? Dieser Frage widmen sich die Autoren im vierten Teil des Buches und greifen dazu auf die bereits bekannte Unterscheidung von schnellem und langsamem Denken zurück. Als typische Form intuitiven, schnellen Denkens werden Heuristiken als häufige Quelle von Noise ausgemacht, aber auch situativ unterschiedliche Interpretation von Beurteilungsskalen oder die unbedachte Reduktion komplexer Informationen zu handhabbaren Mustern gehören hierher. Teil 5 ergänzt die Ursachenforschung durch Ausführungen zu den Verbesserungsmöglichkeiten menschlichen Entscheidens. Diskutiert werden beispielsweise die bessere Qualifizierung der Beurteilenden, die Beachtung der „Entscheidungshygiene“ (S. 261 ff.),[3] die Verwendung von Entscheidungsleitlinien oder der Einsatz geschulter Moderatoren in sequenziellen Entscheidungsprozessen (eine entsprechende praktische Vorlage hierzu in Form einer Checkliste findet sich ebenfalls im Anhang).

Die Methode des „strukturierten Entscheidungsprotokolls“ soll eine mögliche Variante für die praktische Umsetzung der Erkenntnisse des Buches darstellen (S. 345 ff.). Wirklich neue Hinweise zur Verbesserung der Entscheidungsfindung finden sich hier allerdings nicht (so ist der Hinweis, dass vor der Diskussion einer Entscheidung jedes Teammitglied zunächst für sich selbst eine Entscheidung trifft, eine lange bekannte Regel des Brainstormings). Dieser Teil des Buches überzeugt vor allem durch die relativ kompakte Zusammenstellung bekannter Verfahren sowie durch die Bereitstellung entsprechender wissenschaftlicher Argumente, warum genau diese Verfahren zur Verbesserung menschlicher Urteile beitragen. Gleichwohl stellt die Reduktion von Noise keinen absoluten Selbstzweck dar. Vielmehr diskutieren die Autoren im abschließenden Teil 6 die Grenzen gezielter Rauschreduktion, die damit verbundenen Kosten oder umgekehrt die Freiheit und Würde des Menschen, die dieser nur als (fehleranfälliger) Entscheider gewinnt und die verloren ginge, wollte man ihm seinen Entscheidungsspielraum durch verzerrungsfreie Algorithmen nehmen.

Das Ungewisse verantworten

Dieser sechste Teil ist zwar der kürzeste des überaus dicht geschriebenen und materialreich aufbereiteten Buches. Dennoch bietet er eine ausreichende Grundlage für ein Fazit, für ein „Urteil“, um sich einer zentralen Begrifflichkeit des Buches zu bedienen, weil in ihm durch die Autoren selbst eine wertende Frage in den Mittelpunkt gestellt wird: Was ist eigentlich „Optimales Noise“? Selbstverständlich wird man den Leistungen nicht gerecht, die hinter den zahlreichen Studien und der umfangreichen Sammlung empirischen Materials aus fünfzig Jahren psychologischer Entscheidungsforschung stehen, wenn man das Buch auf seine letzten vierzig Seiten reduziert. Es sind allerdings die Autoren selbst, die zu Beginn des siebzehnten Kapitels, also nach knapp zwei Dritteln des Buches schreiben: „Wir hoffen, dass Sie jetzt verstehen, dass Noise überall dort anzutreffen ist, wo geurteilt wird.“ (S. 243)

Damit scheint eine einfache Frage erlaubt zu sein: Muss man für diese Hoffnung wirklich 250 Seiten mit zahlreichen eng aneinandergereihten, teils sehr detailliert dargestellten Ergebnissen psychologischer Laborstudien lesen und sich zudem in die Grundlagen statistischer Fehlertheorie einarbeiten? Lesende, die vor allem an den praktischen Implikationen des Buches interessiert sind, müssen dies sicher nicht. Auch die Autoren empfehlen vornehmlich an Lösungen Interessierten, die Teile 3 und 4 auszulassen und stattdessen gleich mit Teil 5 fortzufahren. Wer mit der Einleitung beginnt und die gute Zusammenfassung am Ende liest, dürfte tatsächlich bereits mit den praktischen Implikationen viel anfangen können. Wer vor allem an der Verbesserung menschlichen Entscheidens (nicht zuletzt des eigenen) interessiert ist, der wird auf die Unterscheidung zwischen Bias und Noise möglicherweise sogar verzichten können. Die meisten der beschriebenen Maßnahmen dürften, wenigstens bei wiederholter Anwendung, sowohl systematischen als auch zufälligen Fehlerquellen positiv entgegenwirken (beispielsweise das „strukturierte Entscheidungsprotokoll“ auf S. 345 ff. oder die „Entscheidungshygiene“ auf S. 261 ff.).

Für wissenschaftsaffine Leserinnen und Leser ist die Beschäftigung mit dem gesamten Buch allerdings durchaus lohnenswert. Zum einen aufgrund der erwähnten Materialfülle – sicher finden sich dort Hinweise, wie die ein(e) oder andere Statistik-Lehrveranstaltung oder Vorlesung in kognitiver Psychologie noch unterhaltsamer gestaltet werden kann. Zum anderen aber auch, weil die dargestellten Studien ein Phänomen in den Mittelpunkt setzen, dem sonst nur wenig Aufmerksamkeit zuteilwird: Sowohl Bias als auch Noise werden als Fehler beschrieben, die es selbstverständlich beide zu reduzieren gilt. Was sonst sollte man mit „Fehlern“ machen? Für die Praxis liegt diese Schlussfolgerung nahe, der fünfte Teil des vorliegenden Bandes hielte hierfür Lösungsbeispiele bereit. Für die Forschung hingegen bietet dieser Hinweis noch einen weiteren Ansatzpunkt. Die Idee, auch ohne Kenntnis des „wahren Werts“ sinnvoll forschen zu können, verschiebt den Aufmerksamkeitsfokus: weg vom vordergründigen Phänomen (seinem „wahren“ Kern kann man in den Sozialwissenschaften, die es vorwiegend mit Geschehnissen außerhalb des Labors zu tun haben, ohnehin nur schwer habhaft werden kann), hin zu den Urteilenden.

Keine Beobachtung ohne Beobachtende

Für die traditionell naturwissenschaftlich ausgerichtete psychologische Forschung ergibt sich hier die Chance einer interessanten Ergänzung: die Einführung einer beobachterabhängigen Perspektive. Was der wirklich richtige Richterspruch in einem Strafprozess ist, lässt sich nicht feststellen – aber man kann viel über Richterinnen und Richter und deren Entscheidungen lernen, wenn man ihnen beim Urteilen zusieht: Beobachter beim Beobachten beobachten. Wobei der Begriff des „Beobachters“ bereits eine unerhörte Komplexität reduziert, sodass ihm ein anderer Begriff vorzuziehen ist, wie Heinz von Foerster einst in einem Gespräch mit Theodor Bardmann ausführte:

„Wahrnehmen. Ich kann ja nicht ,falsch-nehmen‘. Es ist ganz wichtig zu bemerken, dass die Sprache mir schon sagt: ‚Was ich wahr-nehme, ist wahr.‘ Das ist ja die einzige Wahrheit, die ich habe, wenn ich schaue. Beobachten macht das schon nicht mehr ganz klar. Wahrnehmen wahrzunehmen ist viel lustiger als Beobachten zu beobachten […]. Die Wahrnehmung wird erst zweifelhaft, wenn ich darüber spreche.“[4]

Verzerrungen und Abweichungen von der ,Wirklichkeit‘ werden zumeist erst in der Auseinandersetzung mit anderen ruchbar, erst wenn mehrere Schützen auf die Zielscheibe schießen: im „Doing-things-together“. Viele der von Kahneman et al. zitierten Studien lassen sich daher sehr viel eher sozial- als naturwissenschaftlich lesen. Und aus der sozialwissenschaftlichen Perspektive stellt sich die abschließende Frage nach „optimalem Noise“ anders. Zu ergänzen wäre nun: Optimal für wen? Das Optimum an Noise lässt sich nicht eindeutig bestimmen, es ist beobachter- oder, besser gesagt, wahrnehmungsabhängig. Wie viel Aufwand zur Reduktion von Rauschen jeweils investiert werden sollte, wird damit wiederum Gegenstand einer Entscheidung, die je individuell verantwortet werden muss. Die Personalverantwortliche einer Organisation trifft bei einer Neueinstellung mithin mindestens zwei Entscheidungen: welche Person sie auswählt und wie viel Aufwand zur Optimierung dieser Entscheidung sie aufwenden will. Dies gilt auch, wenn sie intuitiv, also aus dem Bauch heraus, ,schnell denkend‘, entscheidet. Denn auch in diesem Fall kann man ihr dies später als Entscheidung gegen ein aufwändigeres Verfahren auslegen – mindestens dann, wenn der ausgewählte Mitarbeiter hinter der erhofften Leistung zurückbleibt. Sie muss sich also entscheiden, weil sie nicht weiß, was die Zukunft bringt. Und sie wird sich für ihre Entscheidungen verantworten müssen, obwohl sie es nicht besser wissen konnte.

Für die Organisationssoziologie hatte Niklas Luhmann diesen Gedanken schon früh auf die Unterscheidung zwischen Verantwortlichkeit und Verantwortung zugespitzt: „Verantwortung ist der ungedeckte Informationswert einer Entscheidung, der Überschuss an Information, die jemand gibt, im Vergleich zu der, die er erhalten hat.“[5] Die Verantwortung liegt nicht nur darin, dass jemand das Risiko trägt, sondern auch darin, dass es anderen abgenommen wird: „Man kann Verantwortung daher als einen sozialen Prozess der Informationsverarbeitung beschreiben, der zugleich der Absorption von Unsicherheit und der Bewusstseinsentlastung dient.“[6] In Organisationen gelingt die Absorption dieser Unsicherheit gleich auf zwei Wegen: durch die Ausdifferenzierung von Entscheidungszuständigkeiten und durch die Auslegung von Verantwortung als Verantwortlichkeit, also als Rechenschaftspflicht für Fehler.[7]

Heinz von Foerster wiederum hatte diesen Punkt in seiner KybernEthik noch allgemeiner gefasst.[8] Für ihn spiegelt sich im (erkenntnistheoretischen) Objektivitätspostulat die „Wahnvorstellung“ wider, dass Beobachtungen ohne Beobachter möglich sind. Die Berufung auf Objektivität sei nicht zuletzt deshalb so beliebt, weil sie dazu diene, die eigene Verantwortung zu leugnen.

„Aber was heißt das? Soll man nicht seine eigenen Augen benutzen, soll man nicht hören, nicht riechen, nicht schmecken? Mir ist nie recht klargeworden, was die Anhänger des Objektivitätspostulats überhaupt beobachten wollen, wenn sie einem Menschen seine persönliche Sicht der Dinge untersagen. Was soll ein Beobachter wahrnehmen, der, folgt man der Definition von Objektivität, eigentlich blind, taub und stumm sein müsste und dem es verboten ist, seine Sprache zu verwenden? Was soll er uns mitteilen? Wie soll er kommunizieren? Es ist doch, so würde ich meinen, immer ein Beobachter, der beobachtet. Ohne ihn geht gar nichts.“[9]

Für den Konstruktivisten Heinz von Foerster folgen daraus zwei kontrastierende „Perspektiven“: die des unbeteiligten, von der Welt getrennten, „objektiven“ Beobachters und die der beteiligten, mit der Welt verbundenen Beschreibenden, die sich selbst als Teil der Welt begreift und von der Prämisse ausgehen muss: „Was immer ich tue, verändert die Welt.“ Damit aber bin ich mit der Welt sowie ihrem Schicksal als ihr Erfinder verbunden und verantwortlich für meine Handlungen und – bis zu einem gewissen Grad – auch verantwortlich für den ‚Zustand‘ der Welt.[10]

Daniel Kahneman, Oliver Subony und Cass R. Sunstein führen materialreich und eindrucksvoll aufbereitet das Rauschen vor, das jeglichen Entscheidungsprozess begleitet, lassen allerdings die Möglichkeit ungenutzt, ihre Lesenden mit den Konsequenzen zu konfrontieren, die mit jeglicher Entscheidung verbunden sind. Das jedoch ist auch nur ein Urteil über ein Buch. Und wie jedes andere ist selbstverständlich auch dieses verzerrt und verrauscht.

  1. Niels Bohr könnte es gesagt haben, aber wohl auch nur, weil eine frühe Version des Zitats in dänischer Sprache auffindbar ist. Siehe https://falschzitate.blogspot.com/2020/03/prognosen-sind-schwierig-besonders-wenn.html (6.1.2022).
  2. Vgl. Daniel Kahneman, Schnelles Denken, langsames Denken, übers. von Thorsten Schmidt, München 2012.
  3. Die Analogie zu medizinischen Vorsichtsmaßnahmen wird von den Autoren keineswegs zufällig gewählt: So wie das Händewaschen gegen eine Vielzahl von Erregern schützt (auch wenn man im Einzelfall meist nicht weiß, gegen welchen genau), bietet die Einhaltung der Entscheidungshygiene Schutz vor unbekannten Verzerrungen – verbunden mit einer weitere Parallele: Hygienemaßnahmen werden in beiden Kontexten zuweilen als lästig empfunden und deshalb vernachlässigt, vor allem, weil ihr konkreter Nutzen prinzipiell unsichtbar bleibt.
  4. Theodor Bardmann, „Wir sind verdammt, frei zu sein!“ – ein Gespräch mit Heinz von Foerster, in: ders. (Hg.), Zirkuläre Positionen – Konstruktivismus als praktische Theorie, Opladen 1997, S. 49–56, hier S. 52.
  5. Niklas Luhmann, Funktionen und Folgen formaler Organisation, Berlin 1964, S. 175.
  6. Ebd., S. 174.
  7. Vgl. ebd., S. 178 f.
  8. Heinz von Foerster, Ethik und Kybernetik, in: ders. (Hg.), KybernEthik, Berlin 1993, S. 60–83.
  9. Heinz von Foerster / Bernhard Pörksen, Wahrheit ist die Erfindung eines Lügners. Gespräche für Skeptiker, Heidelberg 2004, S. 155.
  10. Vgl. ebd., S. 158.

Dieser Beitrag wurde redaktionell betreut von Samir Sellami.

Kategorien: Handlungstheorie Interaktion Methoden / Forschung Psychologie / Psychoanalyse

Abbildung Profilbild Martin Vogel

Martin Vogel

Martin Vogel studierte Psychologie in Göttingen und Bielefeld und promovierte in Soziologie in Hannover. Seit 2005 ist er wissenschaftlicher Mitarbeiter am Institut für interdisziplinäre Arbeitswissenschaft der Leibniz Universität Hannover. Schwerpunkte in Forschung und Lehre sind Organisationstheorie, Change Management und Organisationsentwicklung.

Alle Artikel

PDF

Zur PDF-Datei dieses Artikels im Social Science Open Access Repository (SSOAR) der GESIS – Leibniz-Institut für Sozialwissenschaften gelangen Sie hier.

Empfehlungen

Hans-Peter Krüger

Eine bahnbrechende Theorie des Bewusstseins

Literaturessay zu „Bewusstsein erklären“ von Wolfgang Prinz

Artikel lesen

Rainer Schützeichel

Social Ontology, naturalized

Literaturessay zu „Social Change in a Material World” von Theodore R. Schatzki

Artikel lesen

Käthe von Bose

Anschluss gesucht

Rezension zu „Situation und Affekt“ von Basil Wiesse

Artikel lesen

Newsletter