Entscheidungslehre
Wenn man sich mit dem menschlichen Denken beschäftigt, begegnet man verschiedensten Disziplinen, die sich mit Teilaspekten des Denkens beschäftigen und sich teilweise kräftig überlappen. Mathematik, Logik, Algorithmik, (Theoretische) Informatik, Spieltheorie, Ethik, Linguistik, Kognitionspsychologie, KI, Philosophie usw. befassen sich aus diversen Blickwinkeln mit der Frage, was wir wissen und denken können und wie wir dabei vorgehen sollten. Dabei umkreisen sie das Objekt des Interesses wie die berühmten Blinden den Elefanten und beschreiben Teile, ohne das Ganze wirklich zu erfassen.
Eine solche Disziplin ist die Entscheidungslehre, die sich mit dem menschlichen Entscheidungsverhalten befasst und die grob in zwei Teilbereiche unterteilt wird:
- Präskriptive Entscheidungslehre: Wie sollte ein rationaler Entscheider seine Entscheidungen treffen?
- Deskriptive Entscheidungslehre: Wie treffen wir solche Entscheidungen tatsächlich?
Wenig überraschend prallen in den beiden Teildisziplinen Welten aufeinander – unser tatsächliches Entscheidungsverhalten hat erschreckend wenig mit dem zu tun, was ein rationaler Entscheider infolge der mathematischen Modelle tun sollte. Was natürlich die Frage aufwirft, warum das so ist – sind wir wirklich so dumm, wie diese Diskrepanz vermuten lässt?
Beschränkte Modelle
Ein wenig klarer werden die Gründe, wenn man sich anschaut, wie die Modelle der präskriptiven Entscheidungslehre normalerweise gebaut werden. Dabei stoßen wir auf eine ganze Reihe von Einschränkungen wie zum Beispiel:
- Die meisten Modelle gehen davon aus, dass die Zahl der Handlungsalternativen fest vorgegeben ist. Menschen dagegen fangen fast sofort an, nach weiteren Alternativen zu suchen, wenn sie mit den bisher vorhandenen nicht zufrieden sind.
Bsp.: Wenn man eine Frage der Art „Welche der beiden Optionen A und B würden Sie wählen?“ in einem Saal mit halbwegs mitdenkenden Studierenden stellt, wird fast unweigerlich jemand fragen: „Warum kann ich nicht stattdessen Option C nehmen?“. Dozenten schimpfen dann gerne darauf, dass hier versucht wird, der Frage auszuweichen, aber in Wahrheit ist die Suche nach weiteren Alternativen viel rationaler als das sture Beharren auf den vorgegebenen Alternativen. - Die meisten Modelle beschränken sich auf einstufige und einmalige Entscheidungen. Im wirklichen Leben haben Entscheidungen aber Konsequenzen über die jetzige Situation hinaus, und kluge Entscheider werden das zumindest ansatzweise mit berücksichtigen.
Bsp.: Oft ist es leichter, in einem Konflikt nachzugeben. Wir tun dies aber u.U. trotzdem nicht, weil wir wissen, dass künftige Konflikte dadurch noch schwieriger werden. - Die meisten Modelle unterstellen, dass Entscheidungen nur aufgrund von bewussten Zielen getroffen werden und dass es möglich ist, diese auch mit Zahlenwerten zu versehen. In Wahrheit fließen aber viele unbewusste Ziele in Entscheidungen ein, die keinesfalls alle irrational sind.
Bsp.: Das menschliche Gehirn trifft seine Entscheidungen auch aufgrund von Faktoren wie Energieverbrauch oder zugunsten der Gruppe (oder gar des menschlichen Genpools), also keinesfalls aufgrund unserer individuellen Ziele, wie wir gerne glauben. Dieser Umstand wird in den präskriptiven Modellen aber normalerweise nicht mit abgebildet. - Bei der Bewertung von Konsequenzen werden oft lineare Modelle verwendet (man „gewichtet“ einfach die verschiedenen Ausgänge einer Entscheidungssituation), was aber gar nicht der Realität entspricht. Lineare Modelle kommen nicht zum Einsatz, weil sie korrekt sind, sondern weil sie den Vorteil haben, mathematisch besonders leicht darstellbar zu sein!
Bsp.: Wenn wir sagen, dass die Qualität 40% und der Preis 60% unserer Wohnungswahl ausmachen, dann unterstellen wir damit, dass wir eine beliebig schlechte Wohnung akzeptieren würden, wenn sie nur billig genug ist. So entscheiden die meisten Menschen aber nicht; was es hier bräuchte, wäre ein nichtlineares Modell.
Die Liste ließe sich noch verlängern, aber man merkt schon, dass viele Modelle, die von der präskriptiven Entscheidungstheorie vorgeschlagen werden, eben auch davon geprägt sind, was sich gut modellieren und berechnen lässt, und nicht etwa davon, wie die Entscheidungssituation tatsächlich aussieht.
Berechenbarkeit
Ein weiterer Faktor, der in der Entscheidungslehre weitgehend ausgeblendet wird, mit dem sich aber gerade die Theoretische Informatik intensiv beschäftigt, ist die Berechenbarkeit von Lösungen. Dort weiß man, dass es Probleme gibt, die inhärent so komplex sind, dass es unmöglich ist, dafür mit begrenzten Ressourcen (oder in begrenzter Zeit) optimale Lösungen zu berechnen. Das beste, was man erhoffen kann, ist das Finden einer heuristischen Lösung – einer Lösung, die „gut genug“ ist.
Wie es scheint, funktioniert unser Denken in vielen Situationen so. Allen Newell und Herbert A. Simon haben diese Vorgehensweise unseres Gehirns als Satisficing bezeichnet, und Gerd Gigerenzer verteidigt diese positive Sicht auf unser Entscheidungsverhalten in verschiedenen Publikationen. Der Kerngedanke: Wenn es ohnehin nicht möglich ist, mit vertretbarem Aufwand optimale Ergebnisse zu erzielen, dann ist es rational, sich auf zufriedenstellende Ergebnisse zu beschränken. Hier gibt es eine Ähnlichkeit zum Pareto-Prinzip, nach dem mit 20% des Aufwands 80% des Ertrags erzielt werden können und sich ein Mehraufwand häufig gar nicht lohnt.
Der Nachteil dieser Vorgehensweise ist es, dass sie nicht gegen Manipulation gefeit ist. Wenn ein intelligenter Gegenspieler die Entscheidungssituation beeinflussen kann, kann er sie so gestalten, dass sie ein besonders ungünstiges Input für eine Satisficing-Heuristik darstellt. Der Entscheider gibt sich dann mit einer vermeintlich ordentlichen Lösung zufrieden, ohne zu merken, wie schlecht sie im konkreten Fall wirklich ist. Viele Arbeiten von Daniel Kahneman und Amon Tversky basieren darauf, Beispiele für solche Manipulationen zu finden. In der Psychologie spricht man hier von kognitiven Verzerrungen – Situationen, in denen die Heuristiken des menschlichen Gehirns völlig danebenliegen.
Fazit
Zusammenfassend kann man also sagen, dass die präskriptive Entscheidungslehre vor allem für stark vereinfachte Entscheidungssituationen Antworten bereit hält, die in der wirklichen Welt gar nicht so oft vorkommen. Umgekehrt zeigt die deskriptive Entscheidungslehre, dass der Mensch ohnehin oft nicht nach diesen Regeln entscheidet und dass seine Heuristiken in vielen Alltagssituationen besser, in Extremfällen aber auch deutlich schlechter funktionieren als die Algorithmen der Entscheidungslehre, weil sie effizienter sind, Ungenauigkeiten besser verarbeiten und auch unbewusste Faktoren berücksichtigen.
Eine Antwort auf die Frage, wie man denn nun in Alltagssituationen optimal entscheidet, kann keine der beiden Teildisziplinen liefern, und die Erfahrung aus der Informatik lehrt uns, dass ihnen das aufgrund der Komplexität der Entscheidungssituationen in vielen Fällen wohl auch nicht gelingen wird. Stattdessen steht zu befürchten, dass wir lernen müssen, dass „perfekte Entscheidungen“ (ebenso wie auch sonst „perfekte Irgendwas“) wohl ein Wunschtraum bleiben werden.