Kategorien
Uncategorized

Gedanken zum interdisziplinären Arbeiten

Wie man einen Eisberg übersieht

Im letzten Beitrag habe ich ja erwähnt, dass ich vor Kurzem über den Bayes’schen Wahrscheinlichkeitsbegriff gestolpert bin und dass ich einigermaßen fassungslos bin darüber, dass dieses (für etliche wissenschaftliche Diszplinen doch ziemlich wichtige) Thema bisher völlig an mir vorbeigegangen ist. Ich habe mir daher mal ein paar Gedanken gemacht, woran das liegt und ob darin vielleicht ein paar tiefere Einsichten verborgen sind.

Zunächst einmal zum „Warum“. Der Hauptgrund ist natürlich der, dass mein wissenschaftlicher Hintergrund die Informatik ist, und dort gibt es (mit Ausnahme einiger Spezialgebiete wie der KI-Forschung) meist gar keinen Grund, sich mit subjektiven Wahrscheinlichkeiten zu beschäftigen. Daher wird in Grundlagenvorlesungen (genau wie in der Schule übrigens) auch nur die klassische, frequentistische Sicht von Wahrscheinlichkeiten als relativen Häufigkeiten gelehrt. Man hat also ein Fundament, das man gut beherrscht und dessen man sich sicher ist.

Wenn man nun anfängt, in anderen Disziplinen zu wildern – so wie ich es in den letzten Jahren beispielsweise in Psychologie und Kognitionswissenschaft getan habe – gibt es natürlich schon das eine oder andere Buch, das mit Bayes’schen Wahrscheinlichkeiten (also Wahrscheinlichkeiten, mit denen keine relativen Häufigkeiten, sondern subjektives Vertrauen in die Korrektheit einer Hypothese gemeint sind) arbeitet. Dabei gibt es im Grunde zwei Fälle:

  • In manchen Büchern gibt es explizite Einführungskapitel zu Bayes’schen Wahrscheinlichkeiten, aber die habe ich schlicht nicht gelesen. Denn „Wahrscheinlichkeiten“ kenne ich, und „Bayes“ (im Sinne von „Bayes’sches Gesetz“) kenne ich auch. Dass sich hinter „Bayes’sche Wahrscheinlichkeiten“ etwas ganz anderes verbirgt, war mir nicht klar. Und ich kann mich nur damit trösten, dass auch Thomas Bayes höchstselbst überrascht gewesen wäre, denn der Begriff kam erst etwa 200 Jahre nach seinem Tod auf für ein Konzept, das gar nicht von ihm, sondern von Pierre-Simon Laplace stammt.
  • In manchen Büchern wird auch einfach nur implizit mit Bayes’schen Wahrscheinlichkeiten gearbeitet. Was für mich im Grunde auf das gleiche hinausläuft wie explizite Einführungskapitel, die ich überblättert habe. In beiden Fällen muss ich mir eben „on the fly“ einen Reim auf das machen, was ich da lese, und das hat mich noch nicht einmal stutzig gemacht, weil (1) die mathematische Mechanik exakt die gleiche ist wie bei klassischen Wahrscheinlichkeiten ich (2) beim interdisziplinären Lesen ohnehin nicht immer alles verstehe.

Und dann stolpere ich eben irgendwann über die Erkenntnis, dass so manches Buch, das ich in den letzten beiden Jahren in Händen hatte, mit dem Wort „Wahrscheinlichkeit“ etwas ganz anderes meinte als das, was ich darunter verstanden habe. Gerade komme ich mir vor wie der Kapitän, vor dem der sprichwörtliche Eisberg aus dem Nebel auftaucht – das Ding war die ganze Zeit über da, aber ich habe es einfach nicht gesehen. Und ich müsste lügen, wenn ich sagen wollte, ich wäre nicht frustriert.

Das Kugelmodell des Wissens

Nun müsste mir natürlich eigentlich klar sein, dass so etwas immer mal wieder passiert, wenn man mit offenem Geist durch die Welt geht. Schon vor vielen Jahren bin ich über das Kugelmodell des Wissens gestolpert, das das Phänomen wie folgt beschreibt:

Stellen wir uns vor, es gäbe da einen (unendlich großen) Raum angefüllt mit potentiellem Wissen. Und stellen wir uns weiter vor, unser tatsächliches Wissen sei eine Kugel in diesem Raum. Dann ist die Oberfläche dieser Kugel unsere Kontaktfläche mit unserem Unwissen.

Da die Kugel eines Ungebildeten klein ist, ist ihre Oberfläche es auch. Wer wenig weiß, sieht also auch wenig von dem, was er nicht weiß – er fühlt sich seiner Sache oft sicher, obwohl er im Grunde keinen Schimmer hat. Dieses Phänomen wird auch als Dunning-Kruger-Effekt bezeichnet und wird sicherlich irgendwann einmal Thema dieses Blogs sein. Dagegen hat die Kugel des umfassend Gebildeten eine große Oberfläche. Er weiß viel, ist sich aber auch vieler Dinge bewusst, die er noch nicht kennt oder verstanden hat. Im Sinne Sokrates‘ weiß er, dass (oder zumindest: wie viel) er nicht weiß.

Spezialisten…

Nichtsdestotrotz ist dieses Gefühl des Unwissens unangenehm. Unser Geist strebt ja danach, sich selbst als kompetent zu erleben, und paradoxerweise ist eine kleine Wissenskugel dafür besser geeignet als eine große.

Eine verbreitete Lösung dafür ist das Spezialistentum. Man wählt sich ein Spezialgebiet aus – sei es nun eine wissenschaftliche Disziplin, ein Handwerk oder einfach „Fußball“ – und wird darin richtig gut. Wenn man jetzt auch den dazu passenden Beruf ergreift, dann kann man sich die meiste Zeit des Tages über kompetent fühlen, was zu einer hohen Selbstwirksamkeitserwartung führt.

Ich selbst bin beispielsweise ein Informatiker, der sich in seiner Promotion auf Kryptografie spezialisiert hat. Oder noch genauer auf die Kryptoanalyse von Stromchiffren, was wiederum ein ziemlich kleines Teilgebiet ist. Hätte ich meinen Arbeitsschwerpunkt dort belassen, hätte ich mein Berufsleben mit dem Gefühl zubringen können, ein wirklich kompetenter Experte zu sein, der nicht nur alles weiß, was es zu seinem Thema zu wissen gibt, sondern der darüber hinaus auch von anderen als Koryphäe wahrgenommen wird.

Vielleicht darf ich an dieser Stelle eine kleine Anekdote einfügen. Im Jahre 2008 war ich auf einer Kryptographie-Tagung in einer kleinen Universitätsstadt in Kanada. Wir waren in Studentenwohnheimen in Zweierwohnungen untergebracht, und mein „Mitbewohner“ war ein junger Chinese, der zufälligerweise im gleichen Fachgebiet wie ich selbst arbeitete. Er zerfloss fast vor Ehrfurcht und begrüßte mich mit den Worten: „Sie sind der Erik Zenner? Ich habe alle ihre Papers gelesen!“ Ich dachte erst, er wolle mich auf den Arm nehmen, denn in der Welt der Kryptographie war ich ein eher kleines Licht, aber er meinte das völlig ernst. Wie sich herausstellte, bewegte er sich wissenschaftlich genau in der kleinen Nische, in der ich einige für Spezialisten interessante Ergebnisse zustande gebracht hatte, und wusste daher, wer ich bin. Tatsächlich verbrachte er auch die nächsten Jahre in dieser Nische – er überholte mich schon bald in Sachen Output und Reputation und wurde in diesem Spezialgebiet genau der Experte, der ich nicht hatte sein wollen.

Ich denke, dass das gerade in der Wissenschaftswelt, aber auch überall sonst häufig passiert. Spezialistentum ist ein guter Weg, um die eigenen kognitiven (und zeitlichen) Ressourcen zu bündeln, und es ist vermutlich auch der einzige Weg, um wissenschaftliche Disziplinen jenseits des Schwungs der Gründerjahre weiterzuentwickeln.

… und Generalisten

Schwierig wird es aber, wenn alle Spezialisten sein wollen. Dann bekommt man beim Verständnis der Welt das Problem, das das berühmte Gleichnis von den Blinden und dem Elefanten beschreibt: Jeder nimmt nur einen winzigen Teil des Ganzen wahr und versucht, daraus mit den Methoden seiner Disziplin eine Wahrheit abzuleiten.

Dieses Vorgehen mag funktionieren, solange man sich in abstrakten Modellen bewegt, aber für komplexe Zusammenhänge aus der wirklichen Welt ist es eher ungeeignet. Leider beobachten wir es aber in letzter Zeit immer häufiger, und zwar auch an Stellen, wo es Probleme nach sich zieht.

Das aktuellste Beispiel (und den Exkurs kann ich mir leider beim besten Willen nicht verkneifen) ist das einseitige Optimieren von Corona-Maßnahmen ausschließlich unter den Gesichtspunkten einer einzigen Wissenschaft, nämlich der Epidemologie. Dass es dabei haufenweise Kollateralschäden in unberücksichtigten Bereichen wie psychische und körperliche Gesundheit, Persönlichkeitsentwicklung, Risikoeinstellung, Bildung, privat- und volkswirtschaftliche Stabilität, Generationengerechtigkeit, Demokratieakzeptanz usw. geben würde, wurde früh von Experten anderer Disziplinen angemerkt, aber der Einfachheit halber ignoriert. Obwohl „Güterabwägung“ ein beliebtes Schlagwort in der Rechtslehre und der Ethik ist, weiß im Grunde niemand, wie man solch unterschiedliche Güter wirklich gegeneinander abwägen soll. Also lässt man es gleich ganz und befragt stattdessen den Wissenschaftler, dessen Thema gerade zuoberst auf der Tagesordnung liegt. Ein Informatiker würde hier von einem Greedy-Algorithmus sprechen, ein Entscheidungspsychologe von einer Take-the-Best-Heuristik. Beide wären sich aber darin einig, dass man solche Verfahren im Alltag nur einsetzen sollte, wenn die Entscheidung unbedeutend oder der Entscheider kognitiv überfordert ist, denn die Ergebnisse sind (von wenigen Ausnahmen abgesehen) alles andere als optimal.

Weisheit kann man verstehen als die Fähigkeit, auch in komplexen Situationen zu guten Entscheidungen zu kommen. Das erfordert aber ein gutes Verständnis aller beteiligten Disziplinen. Leider ist die Wissensfülle der Menschheit heutzutage jedoch so gewaltig, dass wohl kein lebender Mensch von sich behaupten kann, über alles benötigte Wissen zu verfügen.

Was es bräuchte, wäre also ein gutes Zusammenspiel aus Spezialisten aus verschiedenen Disziplinen, und hier kommen die Generalisten ins Bild. Sie dienen als Vermittler zwischen den einzelnen Teilbereichen, als Übersetzer und Wissensüberträger. In der Network Science (von der wohl künftig noch häufiger die Rede sein wird) modelliert man Wissenschaftler als Knoten (Nodes) und eine Kooperationsbeziehung zwischen ihnen als Kanten (Links). Die daraus resultierenden Netzwerke besitzen dann typischerweise eine Struktur wie im folgenden Beispiel:

Man sieht, dass die Mehrzahl der Wissenschaftler in Clustern, die ihrer Community entsprechen, vernetzt sind. Sie sind Spezialisten, die über gemeinsames Wissen und gemeinsame Methoden verfügen. Vergleichsweise selten dagegen sehen wir Kanten zwischen verschiedenen Wissensgebieten, die auch Brücken genannt werden. Der Bau solcher Brücken ist die Stärke und auch die Rolle der Generalisten – sie sind weniger stark in einer einzigen Community vernetzt, stellen dafür aber die Schnittstelle zwischen verschiedenen Forschungsgemeinschaften und -themen bereit.

Und nun?

Für mich selbst ist es in Frust-Momenten wie dem obigen wichtig, mich daran zu erinnern, dass ich den Weg des Generalisten ganz bewusst gewählt habe. Ich sehe meine Stärke (und auch meine Berufung) heutzutage eher darin, mich in verschiedenen Disziplinen ordentlich auszukennen, interdisziplinäre Probleme zu lösen und Wissen zwischen den Communities zu transportieren. Und dazu gehört es eben auch, ein Stückweit ein „Universaldilettant“ zu sein, immer ein Stückweit ein Suchender und Fragender zu bleiben und manchmal sogar Wissens- und Verständnislücken zu offenbaren, die mich für den Spezialisten angreifbar machen.

Wenn ich so darüber nachdenke, beobachte ich eigentlich häufig, dass gerade die Gefahr des Offenbarens von Wissenslücken so gefürchtet ist, dass es zum Schweigen führt. So scheitert die Diskussion zwischen verschiedenen Communities oft gerade daran, dass die einen gar nicht verstehen, was die anderen sagen. Da sagt der Informatiker: „Dazu müsste man eigentlich nur eine Blockchain mit Proof of Stake einsetzen.“ Oder der Geisteswissenschaftler: „Habermas hat das doch in seiner Diskurstheorie klar herausgestellt“. Und niemand im Raum traut sich zuzugeben, dass er keine Ahnung hat, wovon hier die Rede ist.

Im Grunde müsste an der Stelle jemand den Mut haben aufzustehen und zu sagen: „Ich bin jetzt mal ehrlich – ich kenne mich damit nicht aus. Magst du das mal in fünf Minuten erklären?“ Und wer sollte das tun, wenn nicht der Generalist?

Denken Sie einmal darüber nach. Und wenn Sie beim bloßen Gedanken daran, dass Sie selbst sich in dieser Form vor versammelter Mannschaft als Unwissender „outen“ müssten, ein Gefühl des Unbehagens empfinden, dann verstehen Sie, warum echte Generalisten so selten sind…

Kategorien
Uncategorized

Informationskaskaden

In diesem Blog war ja schon mehrfach die Rede von den Unterschieden zwischen algorithmischem Vorgehen und menschlichem Denken. Insbesondere wird dem menschlichen Denken von mancher Seite vorgeworfen, nicht besonders logisch zu sein, und clever gemachte Experimente zeigen, dass wir uns regelmäßig „in die Denkfalle locken“ lassen. Andererseits gibt es Wissenschaftler wie Gerd Gigerenzer, die die menschliche Intuition vehement verteidigen gegen solche Angriffe verteidigen.

In diesem Zusammenhang bin ich kürzlich auf das Buch „What makes us smart“ des Harvard-Psychologen Samuel Gershman gestoßen, das in der Diskussion einen ganz anderen Ton anschlägt. Es stellt nämlich die These auf, dass das menschliche Denken sogar ausgesprochen rational ist, wenn man sich erst einmal bemüht, all die Faktoren zu berücksichtigen, die wir in unsere Entscheidungen mit einbeziehen, oft ohne es überhaupt zu bemerken. Er verwendet dabei die Argumentation des Bayesianismus, der das Verhalten des Gehirns mit (subjektiven) Wahrscheinlichkeitsannahmen zu erklären versucht und der in der Kognitionswissenschaft in letzter Zeit große Bedeutung gewonnen hat. Leider ist das Buch von Gershman alles andere als leicht zu lesen, weil er seine Ideen für den Quereinsteiger zu wenig ausführt, aber es ist prall gefüllt mit interessanten Denkanstößen, die er aus verschiedensten Disziplinen der Kognitionslehre zusammengesucht hat.

Im Folgenden möchte ich einmal ein Beispiel für diese Denkweise heraussuchen, die unmittelbar einleuchtet und aufzeigt, warum auch vollkommen rationale Entscheider zu Fehlentscheidungen kommen können.

Eine einfache Informationskaskade

Betrachten wir einmal ein etwas formalisiertes Beispiel. Es gibt zwei Urnen A und B, die mit roten und blauen Kugeln gefüllt sind. Urne A enthält zwei rote und eine blaue Kugel, Urne B enthält eine rote und zwei blaue Kugeln:

Nun stehen einige Entscheider vor der Frage, ob eine Urne, deren Inhalt sie nicht sehen können, vom Typ A oder vom Typ B ist. Dazu dürfen Sie jeweils eine Kugel (verdeckt für die anderen) ziehen, dann müssen sie einen Tipp abgeben, um welchen Urnentyp es sich handelt. Die Kugel wird dann wieder in die Urne zurückgelegt, und es kommt der nächste Entscheider an die Reihe. Dieser hat nun aber den Vorteil, dass er das Urteil seiner Vorgänger kennt.

Nehmen wir einmal an, dass es sich in Wahrheit um eine Urne vom Typ A handelt, dass aber der erste Entscheider eine blaue Kugel gezogen hat. Als rationaler Entscheider wird er als Ergebnis „Typ B“ verkünden (was falsch ist, aber das kann er ja mit seinem Informationsstand nicht wissen). Nehmen wir nun weiterhin an, dass auch der zweite Entscheider eine blaue Kugel zieht. Aus seinem Ergebnis und der Aussage des ersten Entscheiders folgert er natürlich ebenfalls (fälschlicherweise), dass es sich um „Typ B“ handelt. Soweit, so gut.

Nun aber kommt der dritte Entscheider an die Reihe. Er zieht eine rote Kugel, weiß aber, dass beide Entscheider vor ihm „Typ B“ gesagt haben, dass sie also vermutlich blaue Kugeln gezogen haben. Er wird daher vermuten, dass in 3 Experimenten zweimal blau und einmal rot vorkam, und seine Antwort lautet daher „Typ B“, obwohl er selbst eine rote Kugel gezogen hat. Nicht nur gibt er damit eine falsche Antwort, er kann damit auch die Information, über die er verfügte (nämlich dass er eine rote Kugel gezogen hat), nicht weitergeben.

Und jetzt läuft das Experiment aus dem Ruder, denn der vierte Entscheider sieht drei Vorgänger, die alle „Typ B“ gesagt haben. Im Grunde muss er nicht mal mehr ziehen – er wird sich als rationaler Entscheider in jedem Fall für „Typ B“ entscheiden. Und genauso alle Entscheider nach ihm – selbst wenn sie alle eine rote Kugel ziehen, wird keiner von ihnen seiner eigenen Information trauen, sondern die zahlreichen „Typ B“-Meldungen vor ihnen höher gewichten.

Ein einziges Ereignis zu Beginn des Experiments, das mit Wahrscheinlichkeit 1/9 eintritt, führt also dazu, dass sich alle Entscheider falsch entscheiden, weil jeder davon ausgeht, dass sich so viele vorherige Entscheider nicht irren können!

Bayes’sche Wahrscheinlichkeiten

Diese Überlegungen basieren auf dem sogenannten Bayes’schen Wahrscheinlichkeitsbegriff, der sich von dem unterscheidet, den man typischerweise in einer Stochastik-Vorlesung lernt. Dort geht man nämlich meist vom sogenannten frequentistischen Wahrscheinlichkeitsbegriff aus, nach dem eine Wahrscheinlichkeit eine relative Häufigkeit ist. Ein Experiment wie das obige unterstellt dagegen, dass die Entscheider die objektiven Wahrscheinlichkeiten ja gar nicht kennen können und dass sie daher stattdessen mit subjektiven Wahrscheinlichkeiten arbeiten, die ihrem Grad an persönlicher Überzeugung (englisch degree of belief) entsprechen.

An diesem Thema faszinieren mich zwei Punkte. Zunächst einmal bin ich tatsächlich fünfzig Jahre lang durch die Welt gegangen (davon mittlerweile über 20 als Wissenschaftler), ohne überhaupt etwas vom Glaubenskrieg zwischen Frequentisten und Bayesianern mitbekommen zu haben. Ich ertappe mich bei solchen Gelegenheiten gerne dabei, mich zu fragen, ob das jetzt an mir liegt oder ob es eine logische Folge des mittlerweile dermaßen unübersichtlich gewordenen Wissens auf der Welt ist und ob es anderen genauso geht.

Darüber hinaus handelt es sich hier aber möglicherweise tatsächlich um ein Werkzeug, um die beiden vermeintlich unvereinbaren Beobachtungen „Der Mensch verhält sich irrational“ und „Der Mensch hat es erfolgreich an die Spitze der Evolution geschafft“ miteinander zu vereinen. Womöglich ist der Mensch doch gar nicht so irrational, wie es manchmal scheint – er benutzt nur andere A-Priori-Wahrscheinlichkeiten als das Modell, gegen das seine Entscheidung getestet wird.

Zurück zur Informationskaskade

Auch wenn das obige Experiment natürlich ziemlich simpel ist, lassen sich ähnliche Überlegungen auf so manche Alltagssituation anwenden, wo wir unsere Hypothesen über die Wirklichkeit zum Teil aus eigener Beobachtung, zum Teil aber auch aus dem Verhalten anderer ableiten. Egal ob Reputationssysteme, Aktienmärkte oder schlicht unsere Einschätzung des neuen Kollegen – stets richten wir uns sowohl nach unserem eigenen Eindruck als auch nach den Aussagen Dritter. Das Ergebnis kann dann von Fehleinschätzungen (oder bewussten Manipulationen) gerade zu Beginn der Informationskette massiv verzerrt werden.

Diese Beobachtung steht im deutlichen Kontrast zur oft postulierten Wisdom of Crowds, derzufolge die Beteiligung vieler Informationsgeber zu besseren Entscheidungen führt. Während dies für Situationen stimmen mag, in der sich alle gleichzeitig ihre Meinung bilden (über die dann ein Mittelwert berechnet wird), ist es zweifelhaft, ob es auch korrekt ist, wenn sich Individuen bei der Meinungsbildung gegenseitig beeinflussen. Da die Art der Vernetzung der Entscheidungsträger dabei eine Rolle zu spielen scheint, wird das Thema nicht nur in der Verhaltensökonomik, sondern auch in der Netzwerkforschung (engl. Network Science) diskutiert. Und in dem Zusammenhang wird künftig sicherlich immer mal wieder in diesem Blog die Rede davon sein, denn dorthin scheint meine wissenschaftliche Reise gerade zu gehen – vielleicht schreibe ich in einem der nächsten Beiträge mehr dazu?