Kategorien
Uncategorized

ChatGPT

Was ist ChatGPT?

ChatGPT ist ein sogenannter ChatBot – ein Programm, mit dem man Gespräche führen kann. Es wurde am 30. November 2022 von der Firma OpenAI veröffentlicht und hat seither das Netz im Sturm erobert. Nun gibt es solche Programme ja schon seit Jahrzehnten, aber ChatGPT besitzt ein Leistungsvermögen, das seinen Vorgängern deutlich überlegen ist und weit über reine Konversation hinausgeht. Wie die Wikipedia (Stand 4.1.2023) schreibt:

While the core function of a chatbot is to mimic a human conversationalist, journalists have also noted ChatGPT’s versatility and improvisation skills, including its ability to write and debug computer programs; to compose music, teleplays, fairy tales, and student essays; to answer test questions (sometimes, depending on the test, at a level above the average human test-taker); to write poetry and song lyrics; to emulate a Linux system; to simulate an entire chat room; to play games like tic-tac-toe; and to simulate an ATM.

Wer sich darunter nicht wirklich etwas vorstellen kann, dem sei ein Gang auf die ChatGPT-Webseite empfohlen, wo man das Tool kostenlos ausprobieren kann. Alternativ – falls man sich das lieber erstmal in Ruhe vorführen lassen will – kann man sich auf Youtube umsehen, wo es von Demo-Videos nur so wimmelt. Studenten berichten, wie sie ihre Aufsätze von ChatGPT haben schreiben lassen und damit durchgekommen sind. Programmierer berichten, wie sie ChatGPT haben Webseiten programmieren lassen und wie das Programm seine Fehler selbständig korrigiert hat, wenn man es einmal darauf hingewiesen hat. Neugierige zeigen, wie sie von ChatGPT haben Namen, Gedichte ja ganze Geschichten erfinden lassen oder wie sie philosophische Diskussionen mit dem Programm geführt haben.

Ja, ChatGPT kann nicht alles, und manchmal macht es Fehler. Aber das tun Menschen auch.

Ja, ChatGPT versteht nicht wirklich, was es da tut. Aber das tun Menschen oft auch nicht.

Das ändert aber nichts daran, dass ChatGPT dem, was wir eigentlich als Domäne des geistigen Arbeitens betrachtet haben, erschreckend nahe gekommen ist. Ja, dass es besser ist als das, was manche Menschen an geistiger Arbeit zustande bringen. Und das, obwohl es hinter den Kulissen nichts anderes ist als eine Maschine, die Sprache mit Hilfe eines Wahrscheinlichkeitsmodells erzeugt. Was sofort die Frage aufwirft, wieso das ausreicht, um den oberflächlichen Betrachter davon zu überzeugen, dass er es mit einem Menschen zu tun hat.

Ich habe mich geirrt

Das, was ich bisher von ChatGPT gesehen habe, zieht vielen von dem, was ich in diesem Blog geschrieben habe, den Teppich unter den Füßen weg. Ich bin kein Insider der KI-Forschung, aber habe mir deren Fortschritte immer mit Interesse von der Seitenlinie aus angesehen. Meine Folgerungen kann man beispielsweise in meinem Beitrag Warum ich keine Angst vor KIs habe vom März 2021 nachlesen:

Die alljährlichen Gewinner des Loebner Prize für den „most human computer“ (eine Art Turing-Test, bei dem es darum geht, so menschlich wie möglich zu kommunizieren) zeichnen sich eben nicht durch intelligente Konversation aus, sondern dadurch, dass sie versuchen, den Partner so lange über ihre Ahnungslosigkeit hinwegzutäuschen, bis das Zeitlimit erreicht ist.

Genau davon kann nun bei ChatGPT nicht mehr die Rede sein. Das Programm versucht nicht, Zeit zu gewinnen, sondern berücksichtigt den bisherigen Verlauf der Konversation in seinen Antworten, reagiert folgerichtig auf das Input seines Gegenübers und ist sogar in gewissem Umfang zum kreativen Problemlösen in der Lage. Zudem ist es längst nicht so sehr „Fachidiot“, wie ich das von einer schwachen KI erwartet hätte – seine Fähigkeit, mit Sprache zu arbeiten, öffnet ihm die Tür zu quasi allen Anwendungen, in denen Sprache vorkommt.

Wie es aussieht, habe ich mit meiner Einschätzung gründlich danebengelegen und muss bei denen, die schon seit Jahren die kühnsten (oder schlimmsten) Visionen hatten, Abbitte leisten. Was mir übrigens in meinem Berufsleben schon zum zweiten Mal in diesem Umfang passiert: Denn auch die Horrorszenarien, dass die US-Regierung sämtliche Kommunikation überwachen würde, habe ich für völlig übertriebene Verschwörungsfantasien gehalten – bis die Snowden Files veröffentlicht wurden.

Auswirkungen auf die Lehre

Ganz egal, wo sich ChatGPT oder ähnliche ChatBots in der Zukunft noch hinentwickeln, wird das Programm bereits in seiner jetzigen Form massive Auswirkungen auf Schule und Hochschule haben. Bevor ich in die Diskussion einsteige, gebe ich mal ein kurzes Beispiel für die Fähigkeiten des Programms:

Meine Frage: Erkläre mir in maximal 200 Wörtern, wie Habermas den Diskursbegriff versteht.

Antwort ChatGPT: Der Diskursbegriff von Jürgen Habermas bezieht sich auf die Möglichkeit, dass Menschen durch argumentativen Austausch zu einem gemeinsamen Verständnis gelangen können. Habermas betont, dass Diskurse nur dann fair und produktiv sind, wenn sie bestimmte Kriterien erfüllen, die er als „kommunikative Rationalität“ bezeichnet. Dazu gehört unter anderem, dass alle Beteiligten frei und gleichberechtigt am Diskurs teilnehmen können und sich an die Regeln der Vernunft und der allgemeinen Sittlichkeit halten. Ziel von Diskursen ist es demnach, durch den Austausch von Argumenten und Informationen ein möglichst umfassendes und tragfähiges Verständnis zu erreichen. Habermas‘ Diskursbegriff hat großen Einfluss auf die moderne politische Theorie und die Demokratieforschung.

Eine offensichtliche Nutzungsmöglichkeit ist also die Recherche. Studierende können sich Dinge, die sie nicht verstanden haben oder daheim nachlesen sollen, erklären lassen. Und im Gegensatz zu einer klassischen Textrecherche können sie bei offenen Punkten auch nachhaken. Wir haben hier also eine Art persönlichen Tutor, den man zu jeder Tages- und Nachtzeit fragen kann. Allerdings hat ChatGPT das Sprachmodell, das seinen Antworten zugrunde liegt, letztlich natürlich aus dem Internet konstruiert und dabei auch dessen Fehler mit übernommen. Wer sich also gar nicht auskennt, läuft Gefahr, völligem Blödsinn aufzusitzen, wenn das Tool gerade auf fehlerhafte Informationen zurückgreift. Das ist allerdings kein Grund, es nicht zu benutzen. Es ist vielmehr ein wenig wie mit einem Navi: Es ist hilfreich, aber man darf das eigene Hirn nicht völlig ausschalten, weil man nie weiß, ob der Kartensatz wirklich aktuell ist.

In der Lehre wird der Segen aber zum Fluch, wenn es um Hausarbeiten geht, denn ChatGPT ist natürlich auch gut dafür geeignet, diese für den unmotivierten oder überforderten Studierenden zu übernehmen. Mag sein, dass die Lösung nicht perfekt ist. Mag sein, dass die Lösung sogar deutliche Fehler enthält. Entscheidend in der Praxis ist aber, dass der Dozent den Täuschungsversuch nicht nachweisen kann, sogar wenn er einen Verdacht hat. Im Gegensatz zu den typischen Plagiaten der letzten Jahre, in denen Texte mehr oder weniger wörtlich aus dem Internet kopiert wurden, erhält der Auftraggeber jetzt einen individuellen Text, den der Dozent selbst bei entsprechender Websuche so nirgends findet.

Für jemanden wie mich, der Klausuren in den meisten Fächern für wenig zielführend hält und Hausarbeiten für eine deutlich sinnvollere Prüfungsform, bei der sich der Prüfling soviel Zeit nehmen kann, wie er eben braucht, ist das natürlich ein herber Schlag. Im Grunde müsste man jetzt jede Hausarbeit die ganze Zeit über beaufsichtigen, was natürlich nicht möglich ist. Darüber, wie man das in Zukunft löst, wird man noch nachdenken müssen – in diesem Moment habe ich noch keine gute Idee, wie man das Problem löst.

Auswirkungen auf die Arbeit

Ein solches Tool (und seine Nachfolger) wird natürlich auch Konsequenzen für die Arbeitswelt haben. Tätigkeiten, bei denen es um reines Wissen oder um vergleichsweise einfache kognitive Tätigkeiten geht, können von einem solchen Werkzeug übernommen werden. Die Aufgabe des Menschen wird dann darin bestehen, die richtigen Fragen zu stellen, die Antworten auf Plausibilität zu überprüfen und ggf. zu einem größeren Ganzen zu kombinieren.

In gewisser Weise stellen solche Tools für die geistige Arbeit also das dar, was das Aufkommen der Maschinen für die körperliche Arbeit war: Der Handwerker muss nicht mehr alles selbst fertigen, er muss auch viele Dinge nicht mehr selbst können. Stattdessen prüft und montiert er fertige Komponenten. Ob das für die Tätigkeit nun gut oder schlecht ist, wage ich an dieser Stelle noch nicht vorherzusagen, aber ein Blick auf die Entwicklungen mit Beginn der Industrialisierung lässt erahnen, was dem Arbeitsmarkt für geistig Arbeitende blühen könnte (und ja, wenn man den Gedanken zu Ende denkt, dann könnten Personen in Lehrberufen durchaus auch betroffen sein).

Für mich selbst kommt aber gerade bei der Anwendung in der Programmierung noch ein anderer Faktor hinzu: der Trend geht immer weiter weg von dem, wofür ich gerade die Informatik geliebt habe. Wie man vielleicht in diesem Blog schon erkennen konnte, schätze ich an „meinem Fach“ die Möglichkeit, auf Wunsch bis ins kleinste Detail gehen, alles verstehen und alles selbst bauen zu können. Die Analogie zum Tischler, der wirklich aus reinem Rohholz alle Komponenten selbst fertigt, oder zum Musiker, der auf seiner Akustikgitarre noch „Musik von Hand“ macht, drängt sich für mich auf. Und genau wie diese wird meine Art, Informatik zu betreiben, allmählich zu einem reinen Hobby oder zu einem Beruf für einige wenige Auserwählte werden. Der Prozess hat ja schon vor vielen Jahren mit dem Aufkommen immer komplexerer Softwarebibliotheken und Frameworks und dem Aufbau immer größerer Entwicklerteams begonnen und wird sich vermutlich über Tools in der Nachfolge von ChatGPT noch beschleunigen. Ein Informatiker wird jemand sein, der mit Methoden des Softwareengineerings Komponenten anfordert und zusammenfügt. Seine Fertigkeiten und seine Ausbildung werden wahrscheinlich deutlich anders sein, als wir dies heute unterrichten. Und wenn Leute wie ich nicht aufpassen, laufen wir Gefahr, die alten Säcke zu sein, die mit Methoden von vorgestern Programme von vorgestern schreiben…

Forschung im 21. Jahrhundert

Als Randnotiz finde ich es übrigens interessant zu beobachten, dass auch dieser Durchbruch in der Informatik-Forschung nicht aus den Universitäten kam, sondern aus der freien Wirtschaft. Das Forschungsunternehmen OpenAI, das ChatGPT entwickelt hat, wurde u.a. von Elon Musk, Peter Thiel und dem Amazon-Clouddienst AWS gegründet und mit einer Milliarde US$ Startkapital versehen (man vergleiche das mal mit der 10-Jahres-Finanzierung einer kompletten deutschen Universität).

Diesen Trend beobachte ich schon seit längerem: egal ob es um maschinelles Lernen, um Quantencomputer, um Computergrafik, um VR oder um Blockchains geht: überall treiben die Macher aus der kommerziellen Forschung die Universitäten vor sich her. Nicht selten schreiben Akademiker nur noch Paper after the fact, sinngemäß mit dem Inhalt: „Es gibt da diese neue Technologie, die ist zwar nicht von uns, aber wir wollen die jetzt mal analysieren (Uni) bzw. ausprobieren (FH)“. Um bei der Forschung auf Weltniveau eine Vorreiterrolle einzunehmen, reichen zumindest in der IT-Branche weder Größe noch Struktur noch Finanzierung akademischer Institutionen aus. Die erforderlichen Teams sind teilweise riesig, die erforderliche Hardware ist es auch. Nichts davon kann eine Universität leisten. Und im Gehälterwettstreit um die besten Köpfe mithalten kann sie auch nicht.

Interessant ist aber auch, dass die Risikobereitschaft und der Mut zum Scheitern inzwischen außerhalb der Hochschulen größer zu sein scheinen. Das Publish-or-Perish-Prinzip und der Zwang zur zeitlich und finanziell eng begrenzten Drittmittelfinanzierung erlaubt den Forschenden an den Hochschulen gar keine wirklich mutigen Projekte mehr.

Der großartige Randy Pausch beschrieb in The Last Lecture, dass er bei seinem Sabbatical bei Disney mit den Worten „Ok, Professor Boy, what can you do for us?“ begrüßt wurde. Professor Boy. Professorchen. Ich frage mich schon seit Jahren, ob es nicht genau das ist, was die Macher in der Welt außerhalb des Elfenbeinturms denken, wenn sie einem Akademiker begegnen…

Ausblick

Natürlich habe ich in der Kürze der Zeit noch keine intensiven Studien zu ChatGPT durchgeführt. Und ich weigere mich auch entschieden, in den Chor der Schwarzseher einzustimmen, die jetzt mal wieder das Ende der Welt heraufdämmern sehen. Aber ich muss zugeben: Nach dem, was ich in den letzten Tagen gesehen habe, halte ich diese Entwicklungsstufe von Sprachmodellen für eine sehr disruptive Technologie, die meiner Einschätzung nach binnen kürzester Zeit massive Veränderungen nach sich ziehen wird.

Manche konzentrieren sich jetzt darauf, aufzuzeigen, wo der Mensch eben doch klüger ist oder wo ChatGPT noch Schwachstellen aufweist. Ich finde aber, dass das den entscheidenden Punkt verfehlt: ChatGPT ist nämlich nur ein Prototyp. Die Entwicklung ist noch nicht zu Ende, und wo ich noch bis vor wenigen Wochen sicher war, wo die Grenzen liegen, ist mir diese Gewissheit völlig abhanden gekommen. Der Zug rollt, und wohin er fährt, kann vermutlich niemand mit Sicherheit sagen.

Kategorien
Uncategorized

Mein Flirt mit der Network Science

Oh je, ist mein letzter Beitrag lange her – volle vier Monate? Solch lange Lücken wollte ich eigentlich nie einreißen lassen!

Der Grund dafür ist meine neue Begeisterung für das Thema „Network Science“, auf das ich in den letzten fünf Monaten ziemlich viel Zeit und Energie verwendet habe und von dem ich im ersten Moment den Eindruck hatte, es würde zu weit vom Blogthema „Algorithmisches Denken“ wegführen, um hier behandelt zu werden. Aber je länger ich mich damit beschäftige, desto klarer ist mir eigentlich, dass das überhaupt nicht der Fall ist. Daher will ich heute erklären, worum es geht und auch, was mich daran gerade so begeistert.

Network Science – Was ist das überhaupt?

Ein Netzwerk besteht aus diskreten Elementen (Knoten) und den Verbindungen zwischen ihnen (manchmal auch Kanten genannt). Dabei kann grundsätzlich jede denkbare Art von Beziehung modelliert werden: Stromnetze, Verkehrsnetze, Kommunikationsnetze, Computernetze, biologische Netze, neuronale Netze, soziale Netze und natürlich das „Netz der Netze“, insbesondere das World Wide Web.

Nun beschäftigt sich die mathematische Disziplin der Graphentheorie schon spätestens seit Leonhard Euler (also seit über 250 Jahren) mit Knoten und Kanten. Was also ist neu an der Netzwerkforschung?

Der wichtigste Unterschied ist, dass die Graphentheorie nur statische, abstrakte Modelle untersucht. Sie fragt nicht danach, was die Knoten oder Kanten repräsentieren, welche zusätzlichen Eigenschaften (abgesehen von Kantengewichten) sie haben, ob sie sich mit der Zeit verändern oder welche Prozesse darin ablaufen. Die Netzwerkforschung dagegen versucht, diese Aspekte realer Netzwerke so gut wie möglich mit einzubeziehen. Sie ist daher quasi per Definition interdisziplinär: im Unterschied zu einem Graphen kann man ein Netzwerk nicht untersuchen, ohne zu wissen, was es in der wirklichen Welt darstellt.

Gibt es keine deutsche Bezeichnung für „Network Science“?

Zunächst einmal: die wörtliche Übersetzung „Netzwerkwissenschaft“ scheint in der Praxis kaum eine Rolle zu spielen. Stattdessen findet man in Deutschland vor allem den Begriff „Netzwerkforschung“, mit dem ich mich aber erstaunlich schwer tue. Das liegt nicht nur daran, dass das Wort selbst recht sperrig klingt, sondern auch daran, dass er quasi ausschließlich von Soziologen verwendet wird.

Das hat leider zur Folge, dass nahezu alle Texte, auf die man in dem Zusammenhang stößt, die Sprache der (deutschen) Soziologie sprechen, und die ist aus Sicht eines Informatikers, eines Ingenieurs oder sogar eines nach 1960 geborenen Betriebs- oder Volkswirts recht speziell. Wer sich mal ein Bild machen will, der schaue sich den deutschen Wikipedia-Artikel zu Netzwerkforschung an und vergleiche ihn mit dem englischen Wikipedia-Artikel zu Network Science. Und nein, es ist nicht nur die Wikipedia, ich könnte auch deutschsprachige Bücher, Paper und Webseiten verlinken, die diese Sprechweise pflegen, bei der durchaus allgemeinverständliche Zusammenhänge unnötig kompliziert ausgedrückt werden. Sogar die Selbstbeschreibung der Deutschen Gesellschaft für Netzwerkforschung klingt, als bestünde das Primärziel darin, Nicht-Soziologen aus der „Netzwerkforschung“ fernzuhalten.

Aus Diskussionen mit deutschen Geisteswissenschaftlern in anderen Zusammenhängen ahne ich, wie die Entgegnung lauten wird: Man müsse sich eben um eine möglichst präzise Formulierung bemühen, denn ohne Klarheit in der Sprache sei Geisteswissenschaft nicht möglich. Seltsamerweise gelingt es aber Geisteswissenschaftlern beispielsweise in angelsächsischen Ländern, dennoch Texte zu verfassen, die auch für Außenstehende lesbar sind und die sogar großen Einfluss erlangen. Nur in Deutschland hält man hartnäckig an einem Sprachstil fest, dem die Ingenieure und Naturwissenschaftler hinter vorgehaltener Hand vorwerfen, er diene schon lange nur noch dazu, fehlende Substanz zu kaschieren.

Dazu mag man stehen, wie man will, aber Fakt ist, dass die Network Science eben keine rein geisteswissenschaftliche Disziplin ist und dass es den internationalen Network Scientists (ja, auch den Soziologen unter ihnen!) deutlich besser gelingt, eine gemeinsame Sprache zu finden. Bei den deutschen Netzwerkforschern fühle ich mich dagegen schon aufgrund der Sprache als Informatiker nicht willkommen.

Nun will ich nicht leugnen, dass aus diesem Abschnitt auch ein gutes Stück persönlicher Frustration spricht. Und ich will auch nicht ausschließen, dass die Realität der deutschen Netzwerkforschung eine ganz andere ist – eigentlich hoffe ich es sogar! In diesem Fall lasse ich mich sehr gerne im Kommentarbereich (mit Quellen) eines Besseren belehren. Bis dahin aber bleibe ich beim englischen Begriff „Network Science“.

Warum jetzt Network Science?

Nun aber zum eigentlichen Thema des heutigen Blogbeitrags. Es geht ja eigentlich um die Frage, was mich an dieser Disziplin fasziniert hat und was ich mir von ihr verspreche.

Vielleicht beginne ich, in dem ich einen alten Witz wiedergebe (der natürlich geschrieben noch schlechter funktioniert als wenn ich ihn erzählen würde):

Ein Polizist geht die nächtliche Straße entlang und sieht einen Betrunkenen, der auf allen Vieren unter einer Straßenlaterne herumkriecht.

„Was tun Sie denn da?“

„Ich suche meinen Haustürschlüssel!“

„Was? Und den haben Sie ausgerechnet hier unter der Lampe verloren?“

„Nee,“ nuschelt der Betrunkene und zeigt in die Dunkelheit der Straße, „irgendwo da hinten.“

„Ja, aber warum suchen Sie denn dann hier?“

„Na Sie sind gut – weil es hier heller ist, natürlich!“

Seit ich mich mit Wissenschaft beschäftige, finde ich, dass dieser Witz den Forschungsbetrieb ganz gut beschreibt. Die meisten Doktoranden beginnen mit großen Plänen, was sie erfinden, verstehen, entdecken wollen. Dann merken sie aber relativ schnell, dass das nicht so einfach ist (die anderen sind eben doch nicht so blöd, wie man dachte), und fangen stattdessen an, dort zu suchen, wo mehr Licht ist. Auf diese Weise löst man zwar das ursprüngliche Problem nicht, aber man findet wenigstens ab und zu etwas, was mit der Zeit zu einer hübschen Publikationsliste heranwächst.

Wenn ich auf die Liste der Wissenschaftsdisziplinen schaue, von denen ich nicht die erhofften Antworten bekommen habe, dann haben sie eines gemeinsam: Sie kommen irgendwann zu der Erkenntnis, dass das eigentliche Problem zu kompliziert ist, und vereinfachen dann solange, bis etwas Lösbares herauskommt. Und eines der Elemente, das fast immer als erstes der Vereinfachung zum Opfer fällt, ist das Zusammenspiel der Komponenten – also genau das, was die Netzwerktheorie in den Vordergrund rückt.

Das erste Buch, das ich zur Network Science in Händen hielt, war durch einen glücklichen Zufall „Networks, Crowds, and Markets“ von David Easley und Jon Kleinberg (das Werk ist auch kostenlos online auf den Webseiten der Autoren verfügbar). Ich konnte nicht ahnen, dass es keine „typische“ Einführung in die Network Science ist, sondern dass es neben den üblichen Grundlagen einen besonderen Schwerpunkt setzt: es verknüpft Konzepte aus Netzwerk-, Spiel- und Markttheorie zu einem kohärenten Ganzen. Und plötzlich hatte ich das Gefühl, dass hier endlich mal jemand versucht, den einen Schritt weiterzugehen und menschliches Verhalten mit einem rigorosen Instrumentarium zu untersuchen, das nicht zu stark vereinfacht und zu dem ich als Informatiker trotzdem einen Zugang finden kann. Sofort konnte ich Anwendungen in der Entscheidungslehre, der Ethik, der Politikwissenschaft und der Ökonomie, aber beispielsweise auch in Peer-to-Peer-Systemen (wie etwa den derzeit so beliebten Blockchains) oder der IT-Sicherheit erkennen. Und ich sah sogar die Möglichkeit, selbst etwas zu diesen Fragestellungen beizutragen.

Also stürzte ich mich ins Selbststudium und habe auch gleich einen Kurs zu dem Thema ins Leben gerufen, den ich in diesem Sommersemester erstmals gehalten habe. Ich habe viel gelernt über das, was ich von der Network Science will, aber auch über das, was mich eigentlich nicht sonderlich interessiert. Jetzt überlege ich, ob ich an der Konferenz NetSci 2022 teilnehme, die im Juli (für mich praktischerweise) als reine Online-Konferenz stattfindet.

Und eigentlich wollte ich mich danach in erste eigene Projekte stürzen, aber dazu wird es wohl aufgrund unerwarteter anderer Verpflichtungen nicht kommen. Ich werde aber versuchen, mich weiter in die Thematik hineinzuwühlen. Daher wird es in diesem Blog in nächster Zeit wohl überwiegend Beiträge zum Thema Network Science, komplexe Systeme und Spieltheorie geben, von denen ich hoffe, dass sie auch für einen Leser ohne große Vorkenntnisse von Interesse sein könnten.

Kategorien
Uncategorized

Komplexitätstheorie

Manchmal stößt man ja auf ein Konzept, einen Vortrag, einen Text oder ein ganzes Buch, das einen so richtig gefangen nimmt. In diesem Blog habe ich schon mehrere solche Inspirationsquellen angesprochen, und heute möchte ich eine weitere vorstellen, die in den letzten Wochen bei mir (wie man so schön auf Neudeutsch sagt) „alle Knöpfe gedrückt hat“.

Mitchell: Complexity

Es geht um das Buch „Complexity: A Guided Tour“ (2009) von Melanie Mitchell. Die Autorin hat ihren Doktor bei keinem Geringeren als Douglas Hofstadter gemacht, dem Autor des legendären Wissenschaftsklassikers „Gödel, Escher, Bach„. Sie hat dann jahrelang über komplexe Systeme, evolutionäre Algorithmen und künstliche Intelligenz geforscht. Das Buch wird weithin als zugleich lesbare und tiefgründige Einführung in das Gebiet der Komplexitätstheorie gelobt, und nachdem ich es gelesen habe, kann ich die Begeisterung verstehen.

Worum geht es überhaupt? Komplexitätstheorie beschäftigt sich mit Systemen, deren Elemente auf komplexe Weise miteinander interagieren, so dass das resultierende Ganze mehr ist als die Summe seiner Teile. Man spricht hier auch von Emergenz – das Verhalten des Ganzen erwächst auf nicht-triviale (mathematisch gesprochen: nicht-lineare) Art aus dem Zusammenspiel seiner (oft erstaunlich simplen) Komponenten.

In Natur und Alltag finden sich zahlreiche Beispiele für solche Systeme: Genetik, Gehirn, Organismen, Immunsystem, Wetter und Klima, Gesellschaften, Städte, Märkte, soziale Netze usw. sind Beispiele für emergente Systeme, zwischen denen die Komplexitätstheorie nach Gemeinsamkeiten sucht.

Zusammenhänge

Wer meinen Blogeintrag von letzter Woche gelesen hat, der ahnt vielleicht, was mich an dem Thema so fasziniert. Denn wo der Publikationsdruck auf Wissenschaftler häufig dazu führt, dass diese nur noch Probleme angehen, die sie mit hoher Wahrscheinlichkeit auch lösen können, wagt man sich hier an die Themen heran, die als sehr schwierig gelten: Man versucht, Zusammenhänge zu finden und das Big Picture zu betrachten statt sich im Klein-Klein eines radikalen (und manchmal auch einfach bequemen) Reduktionismus zu verlieren.

Dabei treffe ich hier auf eine ganze Reihe von Fragen, die ich mir selbst immer schon gestellt habe. Wenn es beispielsweise um das Gehirn, um das Denken, um Informationsflüsse oder um Situationen mit mehreren Entscheidern geht, müssen viele Komponenten und ihr Zusammenspiel betrachtet werden. Es handelt sich (um ein neues Lieblingswort von mir zu strapazieren) um Netzwerke, bestehend aus Knoten und den Verbindungen zwischen ihnen, über die typischerweise Informationen fließen, die wiederum die Zustände der Knoten verändern.

Interessanterweise bin ich im Buch von Mitchell aber auch auf Themen gestoßen, die zwar nicht zu meinen beruflichen oder privaten Hauptinteressen gehören, bei denen mir das Schulwissen aber immer schon suspekt vorkam. Ein Beispiel dafür ist die Genetik, mit der ich zumindest in Form genetischer Algorithmen auch schon beruflich zu tun hatte und bei der ich nie wirklich überzeugt war, dass die klassischen Erklärungen, die man mir gab, ausreichen, um die beobachtete Wirklichkeit zu erklären. Zwei Beispiele:

  • Das Genom eines Menschen besteht aus gerade mal 3 Milliarden DNA-Basenpaaren (zu je 2 Bit Information). Als Informatiker denkt man dann: Gerade mal viermal so viel wie beim Blumenkohl? Weniger als ein Gigabyte (unkomprimiert… komprimiert noch deutlich weniger)? So viel wie ein Satz Urlaubsfotos? Das ist alles? Ernsthaft? Wie soll daraus ein Mensch in all seiner Komplexität entstehen?
  • In der Evolution beobachten wir, dass sich bestimmte Charakteristika in völlig verschiedenen Bereichen der biologischen Stammbäume immer wieder gleich entwickeln. Beispielsweise sieht ein Beutelwolf (der zu den Beuteltieren gehört) einem Hund tatsächlich sehr ähnlich, obwohl er nicht mit ihm, sondern eher mit einer Beutelratte verwandt ist. Wenn tatsächlich nur Mutation, Crossover und Selektion als Mechanismen der Evolution wirken, würde das bedeuten, dass es tatsächlich nur diese eine optimale Form für ein Landraubtier gibt, die sich zwangsläufig entwickeln muss (das Fachwort dafür ist konvergente Evolution). Das hat mich eigentlich noch nie überzeugt.

Im Buch „Complexity“ durfte ich jetzt erfahren, dass mittlerweile zumindest Teile der Forschungscommunity von deutlich komplexeren Wirkmechanismen der Genetik ausgehen. Natürlich wird (wie immer, wenn jemand die alten Paradigmen in Frage stellt) heftig gestritten, aber allein die Tatsache, dass andere die gleichen Zweifel hegen wie ich, hat mich getröstet. Schließlich muss man das Feld ja nicht gleich kampflos den Kreationisten überlassen…

Alte Bekannte

Überhaupt bin ich in dem Buch zahlreichen Themen und Fragestellungen wiederbegegnet, die ich irgendwann schon einmal spannend fand und von denen mir gar nicht bewusst war, dass sie irgendwie alle zusammenhängen. Beispielsweise:

  • Evolutionäre Algorithmen: Die Übertragung klassischer Evolutionstechniken (Mutation, Crossover, Selektion) auf algorithmische Probleme habe ich zu Promotionszeiten einmal vergeblich benutzt, um Kryptoverfahren damit anzugreifen.
  • Gödel, Escher, Bach: Das Buch galt in den 1980ern als Bibel der Nerds; ich habe es mir aber erst vor einigen Jahren gekauft und es nie geschafft, es ganz durchzuarbeiten (und durcharbeiten müsste ich es – um es einfach nur durchzulesen und dabei zu verstehen bin ich nicht intelligent genug).
  • A New Kind of Science: Stephen Wolframs Buch über zelluläre Automaten ist mit seinen 1200 Seiten ein noch gewaltigerer Wälzer als „Gödel, Escher, Bach“ und schießt in seinem Versuch, gleich die ganze Welt erklären zu wollen, sicherlich ein gutes Stück über das Ziel hinaus. Das macht die darin präsentierten Ideen aber nicht per se falsch – das Entstehen komplexer Systeme aus einfachsten Bausteinen ist ebenso relevant wie faszinierend.
  • Chaostheorie.
  • Informationstheorie.
  • Künstliche und natürliche Intelligenz.
  • Theoretische Informatik.
  • Network Science.
  • Evolutionäre Spieltheorie.

Für jemanden wie mich, der zutiefst davon überzeugt ist, dass letztlich alles irgendwie mit allem zusammenhängt, ist ein solches Forschungsgebiet somit eine große Versuchung, in der ich mich rettungslos verlieren könnte, wenn ich nicht aufpasse. Ein wenig Vorsicht scheint mir daher angebracht.

Risiken und Nebenwirkungen

Zumal die Komplexitätstheorie auch dazu zu neigen scheint, sich selbst hier und da grandios zu überschätzen. Der Grund, warum die meisten Wissenschaftler eben nicht mit komplexen Zusammenhängen, sondern mit konsequentem Reduktionismus arbeiten, ist ja, dass reale komplexe Systeme zu kompliziert sind, um vollständig verstanden zu werden. Wir können also bestenfalls Modelle erstellen, die sich der Wirklichkeit ein wenig annähern, und dürfen dann nicht den Fehler machen, sie zur Welterklärung zu erheben. Dieser Fehler scheint in der Community aber ein Stückweit verbreitet zu sein. Wahrscheinlich sollte man hierzu jeden Morgen das Mantra „Ein Modell ist nur ein Modell“ oft genug wiederholen, bis man von der Versuchung geheilt ist, eine Pressemitteilung rauszuhauen, dass man jetzt die Weltformel gefunden habe.

Mitchell schreibst selbst in ihren Schlussbemerkungen, dass die Sehnsucht nach einer großen Theorie, die möglichst viele Arten komplexer Systeme beschreibt, natürlich vorhanden ist. Zugleich muss die eigentliche Forschung aber zunächst mit einem einzelnen System – sei es nun ein Organismus, eine Ameisenkolonie oder das World Wide Web – beginnen. Und solange man das gewissenhaft tut, braucht man eine spektakuläre Überschrift wie „Komplexitätstheorie“ genau genommen auch gar nicht. Als Inspirationsquelle fand ich das Buch aber trotzdem großartig.

Kategorien
Uncategorized

Es ist kompliziert…

Ja, ich weiß. Eigentlich habe ich bei Gründung dieses Blogs vor etwas über einem Jahr angekündigt, dass er in erster Linie vom Denken und Problemlösen handeln würde. In letzter Zeit häufen sich aber eher philosophische Beiträge, bei denen es um die Beschränkungen der Modelle geht, die mir beim Selbststudium zu diesen Themen begegnet sind.

Das ist kein Zufall, denn je mehr ich mich mit der Materie beschäftigt habe, desto größer ist meine Unzufriedenheit geworden. Die Antworten, nach denen ich gesucht habe, habe ich nämlich häufig nicht gefunden. Im heutigen Beitrag will ich versuchen, dieses Problem ein wenig aufzuarbeiten (und dabei hoffentlich nicht zu esoterisch werden). Wie üblich werde ich dabei verschiedene Themen miteinander in Beziehung setzen in der Hoffnung, dass nicht nur für mich, sondern auch für den Leser ein Zusammenhang erkennbar wird.

Beispiel 1: Das Gehirn

Eine meiner Motivationen, von denen ich ja schon im Eröffnungspost des Blogs erzählt habe, ist es, das menschliche Denken besser zu verstehen. Leider ist mir das nur in sehr begrenztem Ausmaß gelungen. Und was noch schlimmer ist: Ich habe gelernt, dass mir die Wissenschaft die Antworten, nach denen ich suche, zum jetzigen Zeitpunkt auch gar nicht geben kann.

So weiß man mittlerweile einiges (aber längst noch nicht alles) über den Aufbau des Gehirns. Die Funktionsweise von Neuronen und Synapsen ist weitgehend bekannt, und man weiß, welche kognitiven Prozesse vorwiegend in welchem Teil des Gehirns stattfinden.

Auch gibt es ansprechende Modelle des menschlichen Denkens wie etwa das von Newell und Simon, das ich in den Einträgen über das Problemlösen als Suchproblem und über Gedanken zum Suchraum-Modell diskutiert habe. Ich finde es unmittelbar einleuchtend, und man kann so manche Alltagsbeobachtung zum Problemlösen damit erklären. Nur kann man es (wie dort bereits beschrieben) nicht wirklich auf die Funktionsweise unseres Gehirns zurückführen – wenn man beim Denken ins Gehirn schauen könnte, würde man eben nirgends einen Suchbaum finden. Die Brücke zwischen dem Denkmodell und der tatsächlichen „Hardware“ fehlt also, und es ist zweifelhaft, ob das Modell überhaupt stimmt.

Zur Erinnerung: Zu Zeiten, als man noch davon überzeugt war, dass sich die Erde um die Sonne drehte, war man auch in er Lage, erstaunlich präzise Vorhersagen über die Position der Gestirne zu machen. Auch hier war die Erklärung intuitiv einleuchtend, die Vorhersagen akzeptabel – nur das Modell war, wie wir heute wissen, völlig falsch.

Beispiel 2: Entscheidungstheorie, Spieltheorie, Ethik

Ein anderes Thema im Umfeld dieses Blogs ist die Frage, wie wir Entscheidungen treffen sollten – bei bekannten Bedingungen, unter Unsicherheit und ggf. sogar im Zusammenspiel oder Wettbewerb mit mehreren Beteiligten, die unterschiedliche Präferenzen und Ziele haben. Hiermit befassen sich die Disziplinen der Entscheidungstheorie (bei nur einem Entscheider) und der Spieltheorie (bei mehreren Entscheidern).

Und auch hier haben wir schicke Modelle für stark vereinfachte Situationen, die zwar beim Verständnis der Grundproblematik helfen, aber nur selten praktisch nutzbar sind. Für kleine Entscheidungsprobleme sind sie schlicht zu aufwändig, und für große Entscheidungsprobleme sind sie nicht berechenbar. In beiden Fällen stellt sich heraus, dass unsere Intuition oft die besseren Antworten gibt. Aber warum sie das tut, wissen wir auch nicht nicht.

Gravierende Folgen hat dies übrigens in der Ethik, denn die meisten ethischen Denkschulen (außer der absoluten Pflichtethik, nach der aber so gut wie niemand lebt) erfordern ein Abwägen möglicher Konsequenzen, und genau dieses Abwägen funktioniert aus den genannten Gründen nicht. Wenn selbst Experten der Entscheidungs- und Spieltheorie unter Einsatz leistungsfähiger Soft- und Hardware solche Entscheidungen für realistische Situationen nicht treffen können – wie soll dann ein einfacher menschlicher Entscheider danach handeln? Also ziehen sich sogar Berufsethiker auf naive, leicht zu modellierende Annahmen zurück und verspielen so beispielsweise in der aktuellen Corona-Diskussion die Akzeptanz für ihre Disziplin in der Bevölkerung.

Beispiel 3: Wirtschaft

Und noch ein Beispiel: Die vorherrschende Philosophie in der Wirtschaftswelt ist immer noch die, dass einfach jeder seinen eigenen Nutzen maximieren möge und dass auf diese Weise das bestmögliche Ergebnis für alle erzielt würde. Westliche Volkswirtschaften werden tendenziell (wenn auch nicht in Reinform) nach diesem Prinzip organisiert, obwohl Spieltheorie und Verhaltensökonomik diese These in den letzten 80 Jahren wiederholt widerlegt haben.

Und nicht nur das: Auch Organisationen wie Unternehmen oder Behörden werden zunehmend nach diesem Prinzip organisiert. Jede Abteilung, jede Gruppe wird einzeln optimiert, was dazu führt, dass man nicht mehr das Große und Ganze im Blick hat, sondern den Vorteil der eigenen Gruppe zu Lasten der anderen verfolgt. Erneut ist es die Spieltheorie, die zahlreiche Beispiele dafür liefert, dass auf diese Weise keinesfalls das Wohl der Gesamtheit maximiert wird, und eigentlich weiß auch jeder Fußballspieler, dass eine Mannschaft aus 11 Egoisten kein Spiel gewinnt, aber auf die betriebliche (oder gesellschaftliche) Praxis hat das erstaunlich wenig Auswirkungen. Was natürlich auch daran liegt, dass erneut niemand weiß, wie man es sonst machen sollte – das Treffen der richtigen Teilentscheidungen zur Maximierung des Gemeinnutzens ist für gewöhnlich jenseits von allem, was modellier- oder berechenbar wäre.

Das Problem der Wissenschaft

Was nun haben diese Beispiele gemein? In allen Fällen – und ich könnte noch viele weitere nennen – stößt die Wissenschaft an ihre Grenzen. Die eigentliche Fragestellung erweist sich als deutlich zu kompliziert, um mit den aktuellen Mitteln gelöst zu werden. Und dann tut man, was in der Vergangenheit (beispielsweise in Physik und Chemie) so gut funktioniert hat: Man zerlegt das Problem in kleinstmögliche Teile und versucht, diese zu verstehen oder zu optimieren in der Hoffnung, dass sich dann auch das Gesamtproblem löst:

  • Wir verstehen nicht, wie unser Denken funktioniert? Dann zoomen wir eben in unser Gehirn hinein und versuchen, die Funktionsweise von Neuronen und Synapsen (oder gleich der DNA) zu verstehen. Wogegen zunächst einmal nichts spricht, außer wenn wir dabei aus dem Blick verlieren, was wir eigentlich wissen wollten.
  • Wir wollen wissen, wie wir richtig entscheiden? Dann erstellen wir ein Entscheidungsmodell, vereinfachen überall (damit es modellierbar bleibt) und ignorieren dabei zahlreiche Faktoren, die aber eigentlich eine Rolle spielen. Das Ergebnis ist dann leider anfechtbar, weil es andere Modelle mit anderen Vereinfachungen gibt, die zu ganz anderen Ergebnissen kommen.
  • Wir wissen nicht, wie wir eine Organisation (sei es eine Firma, eine Behörde oder einen Staat) führen sollen? Dann zerlegen wir sie in kleine Teile, lassen jeden sich selbst optimieren und hoffen dann darauf, dass durch Magie (auch bekannt als „Die unsichtbare Hand des Marktes“) etwas Gutes dabei herauskommt.

Dieses Zerlegen in kleine Teile (Informatiker würden sagen: Divide and Conquer, Wissenschaftstheoretiker sprechen von Reduktionismus) ist so allgegenwärtig, dass wir es kaum noch bemerken. Es hat nur den Nachteil, dass es nirgendwo richtig funktioniert, wo das Ganze mehr ist als die Summe seiner Teile. In der Sprache der Mathematik gesprochen: Wenn die Funktion, die wir hier berechnen wollen, nicht linear ist. Und das ist sie in der wirklichen Welt so gut wie nie.

Seit ungefähr hundert Jahren gibt es Wissenschaftsdisziplinen, die versuchen, sich mit diesen komplexen, nichtlinearen Systemen zu beschäftigen. Sie ändern immer mal wieder die Bezeichnung – in den 1940er Jahren sprach man beispielsweise von Systemtheorie und Kybernetik, später von Dynamischen oder Nichtlinearen Systemen, heute dominiert die Bezeichnung Komplexitätstheorie. Und diese wird in den nächsten Beitragen eine zentrale Rolle spielen, bis ich hoffentlich in ein paar Wochen mit meinen Erkärungen dort lande, wo ich in der nächsten Zeit forschend tätig werden möchte.

Kategorien
Uncategorized

Gedanken zum interdisziplinären Arbeiten

Wie man einen Eisberg übersieht

Im letzten Beitrag habe ich ja erwähnt, dass ich vor Kurzem über den Bayes’schen Wahrscheinlichkeitsbegriff gestolpert bin und dass ich einigermaßen fassungslos bin darüber, dass dieses (für etliche wissenschaftliche Diszplinen doch ziemlich wichtige) Thema bisher völlig an mir vorbeigegangen ist. Ich habe mir daher mal ein paar Gedanken gemacht, woran das liegt und ob darin vielleicht ein paar tiefere Einsichten verborgen sind.

Zunächst einmal zum „Warum“. Der Hauptgrund ist natürlich der, dass mein wissenschaftlicher Hintergrund die Informatik ist, und dort gibt es (mit Ausnahme einiger Spezialgebiete wie der KI-Forschung) meist gar keinen Grund, sich mit subjektiven Wahrscheinlichkeiten zu beschäftigen. Daher wird in Grundlagenvorlesungen (genau wie in der Schule übrigens) auch nur die klassische, frequentistische Sicht von Wahrscheinlichkeiten als relativen Häufigkeiten gelehrt. Man hat also ein Fundament, das man gut beherrscht und dessen man sich sicher ist.

Wenn man nun anfängt, in anderen Disziplinen zu wildern – so wie ich es in den letzten Jahren beispielsweise in Psychologie und Kognitionswissenschaft getan habe – gibt es natürlich schon das eine oder andere Buch, das mit Bayes’schen Wahrscheinlichkeiten (also Wahrscheinlichkeiten, mit denen keine relativen Häufigkeiten, sondern subjektives Vertrauen in die Korrektheit einer Hypothese gemeint sind) arbeitet. Dabei gibt es im Grunde zwei Fälle:

  • In manchen Büchern gibt es explizite Einführungskapitel zu Bayes’schen Wahrscheinlichkeiten, aber die habe ich schlicht nicht gelesen. Denn „Wahrscheinlichkeiten“ kenne ich, und „Bayes“ (im Sinne von „Bayes’sches Gesetz“) kenne ich auch. Dass sich hinter „Bayes’sche Wahrscheinlichkeiten“ etwas ganz anderes verbirgt, war mir nicht klar. Und ich kann mich nur damit trösten, dass auch Thomas Bayes höchstselbst überrascht gewesen wäre, denn der Begriff kam erst etwa 200 Jahre nach seinem Tod auf für ein Konzept, das gar nicht von ihm, sondern von Pierre-Simon Laplace stammt.
  • In manchen Büchern wird auch einfach nur implizit mit Bayes’schen Wahrscheinlichkeiten gearbeitet. Was für mich im Grunde auf das gleiche hinausläuft wie explizite Einführungskapitel, die ich überblättert habe. In beiden Fällen muss ich mir eben „on the fly“ einen Reim auf das machen, was ich da lese, und das hat mich noch nicht einmal stutzig gemacht, weil (1) die mathematische Mechanik exakt die gleiche ist wie bei klassischen Wahrscheinlichkeiten ich (2) beim interdisziplinären Lesen ohnehin nicht immer alles verstehe.

Und dann stolpere ich eben irgendwann über die Erkenntnis, dass so manches Buch, das ich in den letzten beiden Jahren in Händen hatte, mit dem Wort „Wahrscheinlichkeit“ etwas ganz anderes meinte als das, was ich darunter verstanden habe. Gerade komme ich mir vor wie der Kapitän, vor dem der sprichwörtliche Eisberg aus dem Nebel auftaucht – das Ding war die ganze Zeit über da, aber ich habe es einfach nicht gesehen. Und ich müsste lügen, wenn ich sagen wollte, ich wäre nicht frustriert.

Das Kugelmodell des Wissens

Nun müsste mir natürlich eigentlich klar sein, dass so etwas immer mal wieder passiert, wenn man mit offenem Geist durch die Welt geht. Schon vor vielen Jahren bin ich über das Kugelmodell des Wissens gestolpert, das das Phänomen wie folgt beschreibt:

Stellen wir uns vor, es gäbe da einen (unendlich großen) Raum angefüllt mit potentiellem Wissen. Und stellen wir uns weiter vor, unser tatsächliches Wissen sei eine Kugel in diesem Raum. Dann ist die Oberfläche dieser Kugel unsere Kontaktfläche mit unserem Unwissen.

Da die Kugel eines Ungebildeten klein ist, ist ihre Oberfläche es auch. Wer wenig weiß, sieht also auch wenig von dem, was er nicht weiß – er fühlt sich seiner Sache oft sicher, obwohl er im Grunde keinen Schimmer hat. Dieses Phänomen wird auch als Dunning-Kruger-Effekt bezeichnet und wird sicherlich irgendwann einmal Thema dieses Blogs sein. Dagegen hat die Kugel des umfassend Gebildeten eine große Oberfläche. Er weiß viel, ist sich aber auch vieler Dinge bewusst, die er noch nicht kennt oder verstanden hat. Im Sinne Sokrates‘ weiß er, dass (oder zumindest: wie viel) er nicht weiß.

Spezialisten…

Nichtsdestotrotz ist dieses Gefühl des Unwissens unangenehm. Unser Geist strebt ja danach, sich selbst als kompetent zu erleben, und paradoxerweise ist eine kleine Wissenskugel dafür besser geeignet als eine große.

Eine verbreitete Lösung dafür ist das Spezialistentum. Man wählt sich ein Spezialgebiet aus – sei es nun eine wissenschaftliche Disziplin, ein Handwerk oder einfach „Fußball“ – und wird darin richtig gut. Wenn man jetzt auch den dazu passenden Beruf ergreift, dann kann man sich die meiste Zeit des Tages über kompetent fühlen, was zu einer hohen Selbstwirksamkeitserwartung führt.

Ich selbst bin beispielsweise ein Informatiker, der sich in seiner Promotion auf Kryptografie spezialisiert hat. Oder noch genauer auf die Kryptoanalyse von Stromchiffren, was wiederum ein ziemlich kleines Teilgebiet ist. Hätte ich meinen Arbeitsschwerpunkt dort belassen, hätte ich mein Berufsleben mit dem Gefühl zubringen können, ein wirklich kompetenter Experte zu sein, der nicht nur alles weiß, was es zu seinem Thema zu wissen gibt, sondern der darüber hinaus auch von anderen als Koryphäe wahrgenommen wird.

Vielleicht darf ich an dieser Stelle eine kleine Anekdote einfügen. Im Jahre 2008 war ich auf einer Kryptographie-Tagung in einer kleinen Universitätsstadt in Kanada. Wir waren in Studentenwohnheimen in Zweierwohnungen untergebracht, und mein „Mitbewohner“ war ein junger Chinese, der zufälligerweise im gleichen Fachgebiet wie ich selbst arbeitete. Er zerfloss fast vor Ehrfurcht und begrüßte mich mit den Worten: „Sie sind der Erik Zenner? Ich habe alle ihre Papers gelesen!“ Ich dachte erst, er wolle mich auf den Arm nehmen, denn in der Welt der Kryptographie war ich ein eher kleines Licht, aber er meinte das völlig ernst. Wie sich herausstellte, bewegte er sich wissenschaftlich genau in der kleinen Nische, in der ich einige für Spezialisten interessante Ergebnisse zustande gebracht hatte, und wusste daher, wer ich bin. Tatsächlich verbrachte er auch die nächsten Jahre in dieser Nische – er überholte mich schon bald in Sachen Output und Reputation und wurde in diesem Spezialgebiet genau der Experte, der ich nicht hatte sein wollen.

Ich denke, dass das gerade in der Wissenschaftswelt, aber auch überall sonst häufig passiert. Spezialistentum ist ein guter Weg, um die eigenen kognitiven (und zeitlichen) Ressourcen zu bündeln, und es ist vermutlich auch der einzige Weg, um wissenschaftliche Disziplinen jenseits des Schwungs der Gründerjahre weiterzuentwickeln.

… und Generalisten

Schwierig wird es aber, wenn alle Spezialisten sein wollen. Dann bekommt man beim Verständnis der Welt das Problem, das das berühmte Gleichnis von den Blinden und dem Elefanten beschreibt: Jeder nimmt nur einen winzigen Teil des Ganzen wahr und versucht, daraus mit den Methoden seiner Disziplin eine Wahrheit abzuleiten.

Dieses Vorgehen mag funktionieren, solange man sich in abstrakten Modellen bewegt, aber für komplexe Zusammenhänge aus der wirklichen Welt ist es eher ungeeignet. Leider beobachten wir es aber in letzter Zeit immer häufiger, und zwar auch an Stellen, wo es Probleme nach sich zieht.

Das aktuellste Beispiel (und den Exkurs kann ich mir leider beim besten Willen nicht verkneifen) ist das einseitige Optimieren von Corona-Maßnahmen ausschließlich unter den Gesichtspunkten einer einzigen Wissenschaft, nämlich der Epidemologie. Dass es dabei haufenweise Kollateralschäden in unberücksichtigten Bereichen wie psychische und körperliche Gesundheit, Persönlichkeitsentwicklung, Risikoeinstellung, Bildung, privat- und volkswirtschaftliche Stabilität, Generationengerechtigkeit, Demokratieakzeptanz usw. geben würde, wurde früh von Experten anderer Disziplinen angemerkt, aber der Einfachheit halber ignoriert. Obwohl „Güterabwägung“ ein beliebtes Schlagwort in der Rechtslehre und der Ethik ist, weiß im Grunde niemand, wie man solch unterschiedliche Güter wirklich gegeneinander abwägen soll. Also lässt man es gleich ganz und befragt stattdessen den Wissenschaftler, dessen Thema gerade zuoberst auf der Tagesordnung liegt. Ein Informatiker würde hier von einem Greedy-Algorithmus sprechen, ein Entscheidungspsychologe von einer Take-the-Best-Heuristik. Beide wären sich aber darin einig, dass man solche Verfahren im Alltag nur einsetzen sollte, wenn die Entscheidung unbedeutend oder der Entscheider kognitiv überfordert ist, denn die Ergebnisse sind (von wenigen Ausnahmen abgesehen) alles andere als optimal.

Weisheit kann man verstehen als die Fähigkeit, auch in komplexen Situationen zu guten Entscheidungen zu kommen. Das erfordert aber ein gutes Verständnis aller beteiligten Disziplinen. Leider ist die Wissensfülle der Menschheit heutzutage jedoch so gewaltig, dass wohl kein lebender Mensch von sich behaupten kann, über alles benötigte Wissen zu verfügen.

Was es bräuchte, wäre also ein gutes Zusammenspiel aus Spezialisten aus verschiedenen Disziplinen, und hier kommen die Generalisten ins Bild. Sie dienen als Vermittler zwischen den einzelnen Teilbereichen, als Übersetzer und Wissensüberträger. In der Network Science (von der wohl künftig noch häufiger die Rede sein wird) modelliert man Wissenschaftler als Knoten (Nodes) und eine Kooperationsbeziehung zwischen ihnen als Kanten (Links). Die daraus resultierenden Netzwerke besitzen dann typischerweise eine Struktur wie im folgenden Beispiel:

Man sieht, dass die Mehrzahl der Wissenschaftler in Clustern, die ihrer Community entsprechen, vernetzt sind. Sie sind Spezialisten, die über gemeinsames Wissen und gemeinsame Methoden verfügen. Vergleichsweise selten dagegen sehen wir Kanten zwischen verschiedenen Wissensgebieten, die auch Brücken genannt werden. Der Bau solcher Brücken ist die Stärke und auch die Rolle der Generalisten – sie sind weniger stark in einer einzigen Community vernetzt, stellen dafür aber die Schnittstelle zwischen verschiedenen Forschungsgemeinschaften und -themen bereit.

Und nun?

Für mich selbst ist es in Frust-Momenten wie dem obigen wichtig, mich daran zu erinnern, dass ich den Weg des Generalisten ganz bewusst gewählt habe. Ich sehe meine Stärke (und auch meine Berufung) heutzutage eher darin, mich in verschiedenen Disziplinen ordentlich auszukennen, interdisziplinäre Probleme zu lösen und Wissen zwischen den Communities zu transportieren. Und dazu gehört es eben auch, ein Stückweit ein „Universaldilettant“ zu sein, immer ein Stückweit ein Suchender und Fragender zu bleiben und manchmal sogar Wissens- und Verständnislücken zu offenbaren, die mich für den Spezialisten angreifbar machen.

Wenn ich so darüber nachdenke, beobachte ich eigentlich häufig, dass gerade die Gefahr des Offenbarens von Wissenslücken so gefürchtet ist, dass es zum Schweigen führt. So scheitert die Diskussion zwischen verschiedenen Communities oft gerade daran, dass die einen gar nicht verstehen, was die anderen sagen. Da sagt der Informatiker: „Dazu müsste man eigentlich nur eine Blockchain mit Proof of Stake einsetzen.“ Oder der Geisteswissenschaftler: „Habermas hat das doch in seiner Diskurstheorie klar herausgestellt“. Und niemand im Raum traut sich zuzugeben, dass er keine Ahnung hat, wovon hier die Rede ist.

Im Grunde müsste an der Stelle jemand den Mut haben aufzustehen und zu sagen: „Ich bin jetzt mal ehrlich – ich kenne mich damit nicht aus. Magst du das mal in fünf Minuten erklären?“ Und wer sollte das tun, wenn nicht der Generalist?

Denken Sie einmal darüber nach. Und wenn Sie beim bloßen Gedanken daran, dass Sie selbst sich in dieser Form vor versammelter Mannschaft als Unwissender „outen“ müssten, ein Gefühl des Unbehagens empfinden, dann verstehen Sie, warum echte Generalisten so selten sind…

Kategorien
Uncategorized

Informationskaskaden

In diesem Blog war ja schon mehrfach die Rede von den Unterschieden zwischen algorithmischem Vorgehen und menschlichem Denken. Insbesondere wird dem menschlichen Denken von mancher Seite vorgeworfen, nicht besonders logisch zu sein, und clever gemachte Experimente zeigen, dass wir uns regelmäßig „in die Denkfalle locken“ lassen. Andererseits gibt es Wissenschaftler wie Gerd Gigerenzer, die die menschliche Intuition vehement verteidigen gegen solche Angriffe verteidigen.

In diesem Zusammenhang bin ich kürzlich auf das Buch „What makes us smart“ des Harvard-Psychologen Samuel Gershman gestoßen, das in der Diskussion einen ganz anderen Ton anschlägt. Es stellt nämlich die These auf, dass das menschliche Denken sogar ausgesprochen rational ist, wenn man sich erst einmal bemüht, all die Faktoren zu berücksichtigen, die wir in unsere Entscheidungen mit einbeziehen, oft ohne es überhaupt zu bemerken. Er verwendet dabei die Argumentation des Bayesianismus, der das Verhalten des Gehirns mit (subjektiven) Wahrscheinlichkeitsannahmen zu erklären versucht und der in der Kognitionswissenschaft in letzter Zeit große Bedeutung gewonnen hat. Leider ist das Buch von Gershman alles andere als leicht zu lesen, weil er seine Ideen für den Quereinsteiger zu wenig ausführt, aber es ist prall gefüllt mit interessanten Denkanstößen, die er aus verschiedensten Disziplinen der Kognitionslehre zusammengesucht hat.

Im Folgenden möchte ich einmal ein Beispiel für diese Denkweise heraussuchen, die unmittelbar einleuchtet und aufzeigt, warum auch vollkommen rationale Entscheider zu Fehlentscheidungen kommen können.

Eine einfache Informationskaskade

Betrachten wir einmal ein etwas formalisiertes Beispiel. Es gibt zwei Urnen A und B, die mit roten und blauen Kugeln gefüllt sind. Urne A enthält zwei rote und eine blaue Kugel, Urne B enthält eine rote und zwei blaue Kugeln:

Nun stehen einige Entscheider vor der Frage, ob eine Urne, deren Inhalt sie nicht sehen können, vom Typ A oder vom Typ B ist. Dazu dürfen Sie jeweils eine Kugel (verdeckt für die anderen) ziehen, dann müssen sie einen Tipp abgeben, um welchen Urnentyp es sich handelt. Die Kugel wird dann wieder in die Urne zurückgelegt, und es kommt der nächste Entscheider an die Reihe. Dieser hat nun aber den Vorteil, dass er das Urteil seiner Vorgänger kennt.

Nehmen wir einmal an, dass es sich in Wahrheit um eine Urne vom Typ A handelt, dass aber der erste Entscheider eine blaue Kugel gezogen hat. Als rationaler Entscheider wird er als Ergebnis „Typ B“ verkünden (was falsch ist, aber das kann er ja mit seinem Informationsstand nicht wissen). Nehmen wir nun weiterhin an, dass auch der zweite Entscheider eine blaue Kugel zieht. Aus seinem Ergebnis und der Aussage des ersten Entscheiders folgert er natürlich ebenfalls (fälschlicherweise), dass es sich um „Typ B“ handelt. Soweit, so gut.

Nun aber kommt der dritte Entscheider an die Reihe. Er zieht eine rote Kugel, weiß aber, dass beide Entscheider vor ihm „Typ B“ gesagt haben, dass sie also vermutlich blaue Kugeln gezogen haben. Er wird daher vermuten, dass in 3 Experimenten zweimal blau und einmal rot vorkam, und seine Antwort lautet daher „Typ B“, obwohl er selbst eine rote Kugel gezogen hat. Nicht nur gibt er damit eine falsche Antwort, er kann damit auch die Information, über die er verfügte (nämlich dass er eine rote Kugel gezogen hat), nicht weitergeben.

Und jetzt läuft das Experiment aus dem Ruder, denn der vierte Entscheider sieht drei Vorgänger, die alle „Typ B“ gesagt haben. Im Grunde muss er nicht mal mehr ziehen – er wird sich als rationaler Entscheider in jedem Fall für „Typ B“ entscheiden. Und genauso alle Entscheider nach ihm – selbst wenn sie alle eine rote Kugel ziehen, wird keiner von ihnen seiner eigenen Information trauen, sondern die zahlreichen „Typ B“-Meldungen vor ihnen höher gewichten.

Ein einziges Ereignis zu Beginn des Experiments, das mit Wahrscheinlichkeit 1/9 eintritt, führt also dazu, dass sich alle Entscheider falsch entscheiden, weil jeder davon ausgeht, dass sich so viele vorherige Entscheider nicht irren können!

Bayes’sche Wahrscheinlichkeiten

Diese Überlegungen basieren auf dem sogenannten Bayes’schen Wahrscheinlichkeitsbegriff, der sich von dem unterscheidet, den man typischerweise in einer Stochastik-Vorlesung lernt. Dort geht man nämlich meist vom sogenannten frequentistischen Wahrscheinlichkeitsbegriff aus, nach dem eine Wahrscheinlichkeit eine relative Häufigkeit ist. Ein Experiment wie das obige unterstellt dagegen, dass die Entscheider die objektiven Wahrscheinlichkeiten ja gar nicht kennen können und dass sie daher stattdessen mit subjektiven Wahrscheinlichkeiten arbeiten, die ihrem Grad an persönlicher Überzeugung (englisch degree of belief) entsprechen.

An diesem Thema faszinieren mich zwei Punkte. Zunächst einmal bin ich tatsächlich fünfzig Jahre lang durch die Welt gegangen (davon mittlerweile über 20 als Wissenschaftler), ohne überhaupt etwas vom Glaubenskrieg zwischen Frequentisten und Bayesianern mitbekommen zu haben. Ich ertappe mich bei solchen Gelegenheiten gerne dabei, mich zu fragen, ob das jetzt an mir liegt oder ob es eine logische Folge des mittlerweile dermaßen unübersichtlich gewordenen Wissens auf der Welt ist und ob es anderen genauso geht.

Darüber hinaus handelt es sich hier aber möglicherweise tatsächlich um ein Werkzeug, um die beiden vermeintlich unvereinbaren Beobachtungen „Der Mensch verhält sich irrational“ und „Der Mensch hat es erfolgreich an die Spitze der Evolution geschafft“ miteinander zu vereinen. Womöglich ist der Mensch doch gar nicht so irrational, wie es manchmal scheint – er benutzt nur andere A-Priori-Wahrscheinlichkeiten als das Modell, gegen das seine Entscheidung getestet wird.

Zurück zur Informationskaskade

Auch wenn das obige Experiment natürlich ziemlich simpel ist, lassen sich ähnliche Überlegungen auf so manche Alltagssituation anwenden, wo wir unsere Hypothesen über die Wirklichkeit zum Teil aus eigener Beobachtung, zum Teil aber auch aus dem Verhalten anderer ableiten. Egal ob Reputationssysteme, Aktienmärkte oder schlicht unsere Einschätzung des neuen Kollegen – stets richten wir uns sowohl nach unserem eigenen Eindruck als auch nach den Aussagen Dritter. Das Ergebnis kann dann von Fehleinschätzungen (oder bewussten Manipulationen) gerade zu Beginn der Informationskette massiv verzerrt werden.

Diese Beobachtung steht im deutlichen Kontrast zur oft postulierten Wisdom of Crowds, derzufolge die Beteiligung vieler Informationsgeber zu besseren Entscheidungen führt. Während dies für Situationen stimmen mag, in der sich alle gleichzeitig ihre Meinung bilden (über die dann ein Mittelwert berechnet wird), ist es zweifelhaft, ob es auch korrekt ist, wenn sich Individuen bei der Meinungsbildung gegenseitig beeinflussen. Da die Art der Vernetzung der Entscheidungsträger dabei eine Rolle zu spielen scheint, wird das Thema nicht nur in der Verhaltensökonomik, sondern auch in der Netzwerkforschung (engl. Network Science) diskutiert. Und in dem Zusammenhang wird künftig sicherlich immer mal wieder in diesem Blog die Rede davon sein, denn dorthin scheint meine wissenschaftliche Reise gerade zu gehen – vielleicht schreibe ich in einem der nächsten Beiträge mehr dazu?

Kategorien
Uncategorized

Die Reading Challenge

Manchmal schweifen die Gedanken ja ab, kommen von Hölzchen auf Stöckchen und wenn man ganz viel Glück hat dabei sogar auf die eine oder andere verwertbare Beobachtung. Im heutigen Eintrag will ich mal einen solchen Gedankengang, der in einer Diskussion in einem Webforum seinen Anfang nahm und sich dann verselbständigt hat, in Form einer Satire wiedergeben – oder es zumindest versuchen…

Das erste Jahr

In den letzten Jahren sind ja sogenannte „Reading Challenges“ in Mode gekommen. In der einfachsten Form setzt sich ein Teilnehmer – nennen wir ihn mal Johnny – ein Jahresziel in Form von gelesenen Büchern, beispielsweise:

„Ich nehme mir vor, bis zum Ende des Jahres 50 Bücher zu lesen.“

Nun wird es niemanden, der sich mit der menschlichen Psyche beschäftigt, überraschen, dass das bloße Setzen eines solchen Ziels das Leseverhalten in mehr als nur einer Weise verändert. Natürlich könnte Johnny einfach mehr lesen und so dafür sorgen, dass er sein Leseziel locker schafft. Aber als echtes Kind seiner Zeit verwechselt Johnny schon bald das Messbare mit dem Eigentlichen.

So bemerkt Johnny schnell, dass es seinem Ziel nicht eben zuträglich war, als erstes Buch Thomas Pynchons „Mason & Dixon“ von seinem pile of shame zu nehmen. Der Wälzer hat 773 Seiten, und als Johnny sich nach 4 intensiven Lesewochen endlich hindurchgekämpft hat, wird ihm klar, dass er jetzt nur noch 48 Wochen für die verbleibenden 49 Bücher zur Verfügung hat. Er beschließt daher, sich künftig auf handlichere Werke zu konzentrieren, und fasst in den nächsten Wochen nichts mehr an, was mehr als 200 Seiten hat.

Am Ende des Jahres ist Johnny dann ein wenig unzufrieden. Ja, er hat seine 50 Bücher geschafft (gerade so), aber die meisten davon waren von Moritz Matthies, David Safier und Tommy Jaud – unterhaltsam, leicht zu lesen und vor allem nach spätestens 300 Seiten zu Ende. Wenn Johnny so darüber nachdenkt, war das eigentlich nicht das, was er sich vorgestellt hatte, als er sich der Reading Challenge gestellt hat. Damals hatte er seinen Freunden doch noch davon erzählt, wie er durch die Challenge seinen Horizont erweitern würde. Ja, vor seinem geistigen Auge hatte er sich schon als vielseitig gebildeten Menschen gesehen, der mit dem Inhalt seiner Bücherregale seine Gäste beeindrucken würde, zumal er auch mühelos über Gott und die Welt und vor allem die menschliche Natur würde philosophieren können. Nun also Tommy Jaud… irgendetwas musste da unterwegs schiefgegangen sein.

Das zweite Jahr

Johnny erkennt, dass es ein Fehler war, sich bei der Reading Challenge auf die Zahl der Bücher zu konzentrieren. Er hat im Web mit Leuten gechattet, die über 100 Bücher im Jahr lesen, wobei sich die meisten davon bei näherem Hinsehen als „Graphic Novels“ (das klingt vornehmer als „Comics“) entpuppen. Natürlich blickt Johnny verächtlich auf solche Dünnbrettbohrer hinab, aber beim Blick auf seine eigene Leseliste beschleicht ihn das ungute Gefühl, dass sie bei echten Literaten nur wenig besser ankommen würde.

Er gelobt daher Besserung. Und damit er diesmal keinen Grund mehr hat, einen dicken Bogen um Tolstois „Krieg und Frieden“ (1536 Seiten) zu machen, beschließt er, statt der Bücherzahl lieber eine Seitenzahl als Leseziel auszuloben. Er nimmt 250 Seiten als „typisches“ Buch an, multipliziert sie mit 50 und kommt so zum folgenden Ziel:

„Ich nehme mir vor, bis zum Ende des Jahres Bücher im Umfang von 12.500 Seiten zu lesen.“

Wobei… jetzt, wo er angefangen hat darüber nachzudenken, sind Bücher ja auch ganz unterschiedlich groß und ganz unterschiedlich eng bedruckt. Es gibt Bücher, auf denen fasst eine Seite mehr als das Doppelte dessen, was anderswo auf einer Seite zu lesen ist. Und schließlich geht es hier ja nicht darum, einfach nur so viele Seiten „Gregs Tagebuch“ wie möglich zu lesen, nicht wahr?

Also noch mehr Präzisierung, schließlich leben wir im Zeitalter der Digitalisierung! Johnny macht eine Testzählung, kommt bei einem typischen Buchformat auf 30 Zeilen pro Seite und 60 Zeichen pro Zeile und präzisiert sein Leseziel weiter:

„Ich nehme mir vor, bis zum Ende des Jahres Bücher im Umfang von 22.500.000 Zeichen zu lesen.“

Zwar muss er jetzt einiges an Buchführungsaufwand betreiben – er muss für jedes Buch, das er liest, die Zahl der Zeilen und der Zeichen pro Zeile ermitteln und alles in ein Spreadsheet-Programm eingeben, aber vernünftige Kennzahlen gibt es eben nicht zum Nulltarif. Zufrieden macht er sich ans Werk.

Leider merkt er auch in diesem Jahr, dass anspruchsvollere Werke wie David Mitchells „Cloud Atlas“, Umberto Ecos „Der Name der Rose“ oder gar James Joyces „Ulysses“ unberührt im Schrank stehen geblieben sind. Dafür hat er alle Harry-Potter-Bände gelesen sowie alles, was zur „Expanse“-Reihe bisher erschienen ist. Das ergab richtig viele Seiten und hat eine Menge Spaß gemacht. Aber von seinem Ziel, ein belesener Mann zu werden, ist er noch genauso weit entfernt wie zuvor.

Das dritte Jahr

Verärgert macht sich Johnny zwischen den Jahren daran, sein Bewertungsschema erneut zu überarbeiten. Dazu überlegt er sich, dass ein anspruchsvolles Buch mehr zählen sollte als ein anspruchsloses. Er entscheidet sich, bei der Bewertung der Bücher neben der Zeichenzahl künftig noch zwei andere Faktoren einfließen zu lassen:

  • Wie schwer ist das Buch zu lesen? Er vergibt für die Schwierigkeit einen Score zwischen 1 Punkt (für Kinder geeignet) und 5 Punkte (literarisch anspruchsvoll).
  • Welche Bedeutung hat das Buch? Gar nicht so leicht zu messen! Am Ende entscheidet sich Johnny für einen Score, mit dem er abzuschätzen versucht, welchen Wert wohl ein echter Literat dem Buch zuweisen würde – erneut zwischen 1 Punkt (Zeitverschwendung) und 5 Punkten (Pflichtlektüre).

Johnny beschließt, die Schwierigkeit mit 1/3 und Bedeutung mit 2/3 zu gewichten und kommt so zum folgenden Leseziel:

„Der Score eines Buches berechnet sich wie folgt:

Score = Seiten * Zeilen/Seite * Zeichen/Zeile * (Schwierigkeit + 2*Bedeutung) / 1.000

Ich nehme mir vor, bis zum Ende des Jahres einen Score von 200.000 Punkten zu erreichen.“

Nun ist Johnny wirklich zufrieden mit sich – er hat endlich alles, was ihm wichtig ist, in seine Kennzahl einfließen lassen. Ein Buch wie der „Ulysses“ in der englischen Originalausgabe würde nach seiner Rechnung auf einen Score von ungefähr 26.000 kommen, während „Harry Potter und der Stein der Weisen“ auf 7.000 käme und ein Erdmännchen-Krimi von Moritz Matthies bei großzügiger Bewertung gerade mal 3.000 Punkte einbringen würde. Das fühlt sich richtig an, und Johnny findet, dass er diesmal wirklich alles richtig gemacht hat.

Umso überraschter ist Johnny, als seine Reading Challenge im Laufe dieses dritten Jahres heimlich, still und leise einschläft. Irgendwie liest er von Woche zu Woche weniger, sein Leseziel rückt in immer unerreichbarere Ferne, bis er irgendwann im Mai feststellt, dass er seine Abende schon länger nur noch damit zubringt, alte Serien auf Netflix oder Katzenvideos auf Youtube anzuschauen…

Und die Moral von der Geschicht?

Johnny hat bei seinem Versuch, seine Leseerfahrungen mit einem Zahlenwert (neudeutsch: Score) zu versehen, die klassischen Phasen des Arbeitens mit Kennzahlen durchlaufen. Er hat zunächst eine Kennzahl festgelegt, die eigentlich gar nichts mit seinem eigentlichen Ziel zu tun hatte, dafür aber schön leicht zu bestimmen war. Im Ergebnis hat er dann die Kennzahl optimiert, ohne besagtem eigentlichen Ziel wirklich näher zu kommen.

In den nächsten Schritten hat er dann versucht, sich dem eigentlichen Ziel durch immer komplexere Kennzahlen anzunähern, doch irgendwie hat das nicht funktioniert. Denn leider konnte auch die schönste Rechnerei nichts daran ändern, dass Johnny von Anfang an ein Problem hatte: Die ach so großartigen, anspruchsvollen, berühmten Bücher, von denen er meinte, sie lesen zu müssen, um gebildete Bekannte zu beeindrucken, haben ihn genau genommen nie interessiert – sonst hätte er sie nämlich auch ohne aufwändiges Kennzahlen-System schon längst gelesen!

Er war, wie die Psychologen sagen würden, zu keinem Zeitpunkt intrinsisch motiviert. Das Ziel, von dem er glaubte, dass es das seine sei, war in Wahrheit nur eine externe Suggestion aus der langen Liste der „Du solltest eigentlich mal…“-Einflüsterungen, von denen es viel zu viele gibt, als dass man sie wirklich alle umsetzen könnte. Anfangs hat sich sein innerer Schweinehund noch herausgewunden, indem er immer neue Wege gefunden hat, das Jahresziel zu erfüllen, ohne sich wirklich anstrengen zu müssen. Aber je präziser der Score wurde, je systematischer Johnny die Schlupflöcher für den inneren Schweinehund geschlossen hat, desto klarer wurde: Kein Kennzahlensystem der Welt würde je aus unserem Johnny einen echten Literaten machen, weil er im Grunde seines Herzens nie wirklich dafür gebrannt hat.

Und wer jetzt hier eine Moral findet, der darf sie behalten…

Kategorien
Uncategorized

Die Grenzen des Rationalen Entscheidens

Entscheidungslehre

Wenn man sich mit dem menschlichen Denken beschäftigt, begegnet man verschiedensten Disziplinen, die sich mit Teilaspekten des Denkens beschäftigen und sich teilweise kräftig überlappen. Mathematik, Logik, Algorithmik, (Theoretische) Informatik, Spieltheorie, Ethik, Linguistik, Kognitionspsychologie, KI, Philosophie usw. befassen sich aus diversen Blickwinkeln mit der Frage, was wir wissen und denken können und wie wir dabei vorgehen sollten. Dabei umkreisen sie das Objekt des Interesses wie die berühmten Blinden den Elefanten und beschreiben Teile, ohne das Ganze wirklich zu erfassen.

Eine solche Disziplin ist die Entscheidungslehre, die sich mit dem menschlichen Entscheidungsverhalten befasst und die grob in zwei Teilbereiche unterteilt wird:

  • Präskriptive Entscheidungslehre: Wie sollte ein rationaler Entscheider seine Entscheidungen treffen?
  • Deskriptive Entscheidungslehre: Wie treffen wir solche Entscheidungen tatsächlich?

Wenig überraschend prallen in den beiden Teildisziplinen Welten aufeinander – unser tatsächliches Entscheidungsverhalten hat erschreckend wenig mit dem zu tun, was ein rationaler Entscheider infolge der mathematischen Modelle tun sollte. Was natürlich die Frage aufwirft, warum das so ist – sind wir wirklich so dumm, wie diese Diskrepanz vermuten lässt?

Beschränkte Modelle

Ein wenig klarer werden die Gründe, wenn man sich anschaut, wie die Modelle der präskriptiven Entscheidungslehre normalerweise gebaut werden. Dabei stoßen wir auf eine ganze Reihe von Einschränkungen wie zum Beispiel:

  • Die meisten Modelle gehen davon aus, dass die Zahl der Handlungsalternativen fest vorgegeben ist. Menschen dagegen fangen fast sofort an, nach weiteren Alternativen zu suchen, wenn sie mit den bisher vorhandenen nicht zufrieden sind.
    Bsp.: Wenn man eine Frage der Art „Welche der beiden Optionen A und B würden Sie wählen?“ in einem Saal mit halbwegs mitdenkenden Studierenden stellt, wird fast unweigerlich jemand fragen: „Warum kann ich nicht stattdessen Option C nehmen?“. Dozenten schimpfen dann gerne darauf, dass hier versucht wird, der Frage auszuweichen, aber in Wahrheit ist die Suche nach weiteren Alternativen viel rationaler als das sture Beharren auf den vorgegebenen Alternativen.
  • Die meisten Modelle beschränken sich auf einstufige und einmalige Entscheidungen. Im wirklichen Leben haben Entscheidungen aber Konsequenzen über die jetzige Situation hinaus, und kluge Entscheider werden das zumindest ansatzweise mit berücksichtigen.
    Bsp.: Oft ist es leichter, in einem Konflikt nachzugeben. Wir tun dies aber u.U. trotzdem nicht, weil wir wissen, dass künftige Konflikte dadurch noch schwieriger werden.
  • Die meisten Modelle unterstellen, dass Entscheidungen nur aufgrund von bewussten Zielen getroffen werden und dass es möglich ist, diese auch mit Zahlenwerten zu versehen. In Wahrheit fließen aber viele unbewusste Ziele in Entscheidungen ein, die keinesfalls alle irrational sind.
    Bsp.: Das menschliche Gehirn trifft seine Entscheidungen auch aufgrund von Faktoren wie Energieverbrauch oder zugunsten der Gruppe (oder gar des menschlichen Genpools), also keinesfalls aufgrund unserer individuellen Ziele, wie wir gerne glauben. Dieser Umstand wird in den präskriptiven Modellen aber normalerweise nicht mit abgebildet.
  • Bei der Bewertung von Konsequenzen werden oft lineare Modelle verwendet (man „gewichtet“ einfach die verschiedenen Ausgänge einer Entscheidungssituation), was aber gar nicht der Realität entspricht. Lineare Modelle kommen nicht zum Einsatz, weil sie korrekt sind, sondern weil sie den Vorteil haben, mathematisch besonders leicht darstellbar zu sein!
    Bsp.: Wenn wir sagen, dass die Qualität 40% und der Preis 60% unserer Wohnungswahl ausmachen, dann unterstellen wir damit, dass wir eine beliebig schlechte Wohnung akzeptieren würden, wenn sie nur billig genug ist. So entscheiden die meisten Menschen aber nicht; was es hier bräuchte, wäre ein nichtlineares Modell.

Die Liste ließe sich noch verlängern, aber man merkt schon, dass viele Modelle, die von der präskriptiven Entscheidungstheorie vorgeschlagen werden, eben auch davon geprägt sind, was sich gut modellieren und berechnen lässt, und nicht etwa davon, wie die Entscheidungssituation tatsächlich aussieht.

Berechenbarkeit

Ein weiterer Faktor, der in der Entscheidungslehre weitgehend ausgeblendet wird, mit dem sich aber gerade die Theoretische Informatik intensiv beschäftigt, ist die Berechenbarkeit von Lösungen. Dort weiß man, dass es Probleme gibt, die inhärent so komplex sind, dass es unmöglich ist, dafür mit begrenzten Ressourcen (oder in begrenzter Zeit) optimale Lösungen zu berechnen. Das beste, was man erhoffen kann, ist das Finden einer heuristischen Lösung – einer Lösung, die „gut genug“ ist.

Wie es scheint, funktioniert unser Denken in vielen Situationen so. Allen Newell und Herbert A. Simon haben diese Vorgehensweise unseres Gehirns als Satisficing bezeichnet, und Gerd Gigerenzer verteidigt diese positive Sicht auf unser Entscheidungsverhalten in verschiedenen Publikationen. Der Kerngedanke: Wenn es ohnehin nicht möglich ist, mit vertretbarem Aufwand optimale Ergebnisse zu erzielen, dann ist es rational, sich auf zufriedenstellende Ergebnisse zu beschränken. Hier gibt es eine Ähnlichkeit zum Pareto-Prinzip, nach dem mit 20% des Aufwands 80% des Ertrags erzielt werden können und sich ein Mehraufwand häufig gar nicht lohnt.

Der Nachteil dieser Vorgehensweise ist es, dass sie nicht gegen Manipulation gefeit ist. Wenn ein intelligenter Gegenspieler die Entscheidungssituation beeinflussen kann, kann er sie so gestalten, dass sie ein besonders ungünstiges Input für eine Satisficing-Heuristik darstellt. Der Entscheider gibt sich dann mit einer vermeintlich ordentlichen Lösung zufrieden, ohne zu merken, wie schlecht sie im konkreten Fall wirklich ist. Viele Arbeiten von Daniel Kahneman und Amon Tversky basieren darauf, Beispiele für solche Manipulationen zu finden. In der Psychologie spricht man hier von kognitiven Verzerrungen – Situationen, in denen die Heuristiken des menschlichen Gehirns völlig danebenliegen.

Fazit

Zusammenfassend kann man also sagen, dass die präskriptive Entscheidungslehre vor allem für stark vereinfachte Entscheidungssituationen Antworten bereit hält, die in der wirklichen Welt gar nicht so oft vorkommen. Umgekehrt zeigt die deskriptive Entscheidungslehre, dass der Mensch ohnehin oft nicht nach diesen Regeln entscheidet und dass seine Heuristiken in vielen Alltagssituationen besser, in Extremfällen aber auch deutlich schlechter funktionieren als die Algorithmen der Entscheidungslehre, weil sie effizienter sind, Ungenauigkeiten besser verarbeiten und auch unbewusste Faktoren berücksichtigen.

Eine Antwort auf die Frage, wie man denn nun in Alltagssituationen optimal entscheidet, kann keine der beiden Teildisziplinen liefern, und die Erfahrung aus der Informatik lehrt uns, dass ihnen das aufgrund der Komplexität der Entscheidungssituationen in vielen Fällen wohl auch nicht gelingen wird. Stattdessen steht zu befürchten, dass wir lernen müssen, dass „perfekte Entscheidungen“ (ebenso wie auch sonst „perfekte Irgendwas“) wohl ein Wunschtraum bleiben werden.

Kategorien
Uncategorized

Computational Thinking

Was ist „Computational Thinking“?

Als ich vor einigen Jahren erstmals über den Begriff des „Computational Thinking“ (CT) gestolpert bin, war ich zunächst Feuer und Flamme. Der Begriff ist zwar schon alt, wurde aber von Jeanette Wing in einem berühmt gewordenen Artikel im Jahr 2006 neu belebt. Sie schreibt:

Computational Thinking (…) represents a universally applicable attitude and skill set everyone, not just computer scientists, would be eager to learn and use.

(…)

Computational thinking involves solving problems, designing systems, and understanding human behavior, by drawing on the concepts fundamental to computer science

J. Wing (2006): Computational Thinking. Communications of the ACM 49(3), p.33-35

Das klang nach etwas, was ich unbedingt unterschreiben konnte, denn wie ich bereits ganz zu Beginn dieses Blogs schrieb, habe ich mich nicht zuletzt deshalb mit der Informatik beschäftigt, weil ich menschliches Entscheiden und Problemlösen verstehen und verbessern wollte. Und gerade die Forderung, dass solche Powertools des Denkens eigentlich ein Teil moderner Allgemeinbildung sein sollte, erschien mir unmittelbar einleuchtend. Schließlich stellt die Informatik die wohl umfassendste Sammlung von Techniken zum systematischen Problemlösen zur Verfügung, die es in der Menschheitsgeschichte gegeben hat.

Begriffsverwirrung

Aber leider scheint es nicht möglich zu sein, einen Begriff einzuführen, ohne dass dieser von unterschiedlichen Menschen sehr unterschiedlich verstanden wird (Geisteswissenschaftler können davon ein Lied singen). Tatsächlich erregte Wings Artikel nicht nur großes Interesse, sondern trat auch eine wahre Lawine von Begriffsdefinitionen los. Die Tatsache, dass sie in ihrem Artikel den Begriff „Computational Thinking“ zwar mit verschiedenen Eigenschaften umschrieben, aber genau genommen nirgends wirklich definiert hatte, machte die Sache auch nicht eben einfacher. Diese Definition lieferte sie erst 2014 nach:

Computational thinking is the thought processes involved in formulating a problem and expressing its solution(s) in such a way that a computer – human or machine – can effectively carry out.

J. Wing (2014): Computational Thinking Benefits Society. Social Issues in Computer Science, 40th Anniversary Blog.

Wichtig ist hier vor allem, dass ein „Computer“ im Verständnis des Computational Thinking nicht zwingend eine Maschine sein muss, sondern (im ursprünglichen Sinne des Wortes, das ja deutlich älter ist als die erste Rechenmaschine) auch ein denkender Mensch sein kann.

Ich ertappe mich aber dabei, von dieser Definition enttäuscht zu sein. Sie klingt nach einer aufgehübschten Definition von Algorithmik und ist deutlich weniger umfassender als die ursprüngliche Vision, bei er es ja auch darum ging, menschliches Denken zu verstehen.

Es gibt aber auch das umgekehrte Extrem, das schlicht alles, was auch nur entfernt mit Informatik zu tun hat, unter die Überschrift „Computational Thinking“ packt, so wie die folgende Definition von Denning und Tedre:

Computational Thinking is the mental skills and practices for
(1) designing computations that get computers to do jobs for us, and
(2) explaining and interpreting the world as a complex of information processes.

P. Denning, M. Tedre (2019): Computational Thinking, p. 4

Nach dieser Definition ist also nicht nur die komplette Informatik „Computational Thinking“, sondern auch zahlreiche andere Wissenschaften wie beispielsweise Biologie, Physik, Chemie, Psychologie, Sozial- und Kommunikationswissenschaft und letztlich sogar die Kunst. Wie hilfreich ein solches Verständnis von Computational Thinking dann wohl noch ist, wenn eigentlich irgendwie alles CT ist?

Lehrbücher

Inzwischen habe ich mir eine Reihe von Lehrbüchern zugelegt, die das Wort „Computational Thinking“ im Titel führen. Hier zeigt sich, dass in der Praxis eine größere Einigkeit über die Bedeutung des „Computational Thinking“ herrscht als in der Theorie. Ein Überblick:

  • S. De Jesús, D. Martinez (2020): Applied Computational Thinking with Python
    Ein Einführungsbuch in die Informatik, das typische CT-Konzepte und insbesondere das Problemlösen mit einer Einführung in die Python-Programmierung kombiniert. Der Fokus liegt hier auf dem algorithmischen Denken, und das Buch taucht vergleichsweise tief in die Materie ein. Die Zielgruppe sind aber wohl angehende Informatiker (von denen das Buch in Rezensionen auch sehr gelobt wird) – für Nicht-Informatiker ist es dagegen wohl zu ambitioniert und besitzt zu wenige Verbindungen zum Problemlösen im Alltag.
  • P. Denning, M. Tedre (2019): Computational Thinking
    Dieses Buch hat sich zum Ziel gesetzt, zu erklären, was „Computational Thinking“ ist und was alles darunterfällt. Leider wählen die Autoren dazu die oben zitierte extrem breite Definition, unter die dann auch wirklich alle Bereiche der Informatik (einschließlich Hardwareentwurf, Betriebssysteme, Softwareengineering und aller Anwendungsdisziplinen) fallen. Die Inhalte, die hier jeweils kurz skizziert werden, sind für einen Nicht-Informatiker in der Kürze oft gar nicht nachzuvollziehen. So liest sich das Buch denn eher wie eine Kurzeinführung in die Geschichte der Informatik und lässt den Leser mit dem Gefühl zurück, dass CT wohl doch nur etwas für Informatiker ist.
  • K. Beecher (2017): Computational Thinking
    Die ersten 100 Seiten dieses Buches führen den Leser ein in die Themen, die ich für zentral im Computational Thinking halte: Logik, algorithmisches Denken, Problemlösen, Abstraktion, Modellierung, Fehlerbehandlung und Evaluierung. Danach folgen 140 Seiten, in denen diese Konzepte durch Programmierung praktisch umgesetzt werden. So löst der Autor recht elegant das Problem, dass Programmieren natürlich eine besonders elegante Art ist, grundlegende CT-Techniken zu erlernen und anzuwenden, dass es aber schwierig ist, dem unerfahrenen Leser Konzept und Programmierung gleichzeitig beizubringen.
  • P. Wang (2016): From Computing to Computational Thinking
    Der didaktische Ansatz hier ist eigentlich recht vielversprechend: Themen der Informatik werden diskutiert und dann in „CT-Kästchen“ in Beziehung zum Nicht-Informatiker-Alltag gesetzt. Allerdings wirkt die Themenauswahl recht willkürlich und umfasst Themen wie Betriebssysteme, Computernetze, Webseiten, Datenformate oder IT-Sicherheit. Erst ganz am Ende kommt der Autor auf das Thema, das für mich den Kern des Computational Thinking ausmacht, nämlich das problemlösende Denken.
  • D. Riley, K. Hunt (2014): Computational Thinking for the Modern Problem Solver
    Dieses Buch entspricht am ehesten dem, wie ich mir eine Aufbereitung der Thematik vorstelle. Es setzt kaum Vorkenntnisse voraus und führt den Leser durch Themen wie Informationskodierung, Logik, Problemlösen, Algorithmisches Denken, Modellierung, Datenorganisation, Korrektheitsprüfung und Grenzen der Berechenbarkeit. Allerdings wird hier nicht programmiert.

Man kann hier herauslesen, dass mein ursprüngliches Verständnis des Computational Thinking durchaus das ist, was auch von den meisten Buchautoren geteilt wird: Es geht im Kern um Denktechniken (Informationscodierung, Logik, Abstraktion/Modellierung, Algorithmik/Problemlösen, Robustheit, Evaluierung etc.), die beim Programmieren von Computern ebenso zum Einsatz kommen wie im beruflichen oder privaten Alltag.

Fazit

Meine anfängliche Begeisterung für die mögliche Zugkraft des Begriffs „Computational Thinking“ ist inzwischen einer gewissen Vorsicht gewichen, weil mir klar geworden ist, wie groß die Gefahr ist, dass jemand darunter etwas ganz anderes versteht als ich. Dies ist übrigens auch der Grund, warum ich diesen Blog stattdessen unter die Überschrift „algorithmisches Denken“ gestellt habe.

Ich werde den Begriff „Computational Thinking“ auch künftig nur zurückhaltend benutzen. Aber wenn ich es tue, dann ist damit das ursprüngliche Verständnis nach Wing von 2006 gemeint: Es geht mir um diejenigen Techniken der Informatik, die auch außerhalb des Computers von Interesse sind und dazu geeignet sind, das menschliche Denken zu verstehen und zu verbessern.

Kategorien
Uncategorized

Gedanken zum Suchraum-Modell

Es ist schon wieder drei Monate her, dass ich im Beitrag „Problemlösen als Suchproblem“ das Modell von Newell und Simon vorgestellt habe. Dabei wird ein Suchproblem durch einen Suchbaum charakterisiert: Ich habe einen Startzustand (den Wurzelknoten), verschiedene Handlungsalternativen (die Kanten im Baum), verschiedene Zwischenzustände (Knoten im Baum) und schließlich einen oder mehrere Zielzustände unterschiedlicher Güte, die erreicht werden sollen.

Bounded Rationality

Als Beschreibung der Situation beim Lösen von Problemen ist dieses Modell sehr einleuchtend. In der praktischen Anwendung tritt dabei aber das Problem auf, dass der Suchbaum oft exponentiell wächst und daher schnell zu groß wird, um überblickt zu werden. So gibt es beispielsweise beim Schachspiel schon nach sechs Halbzügen (dreimal weiß, dreimal schwarz) rund 107 mögliche Stellungen, und die Zahl der denkbaren Stellungen im Spiel insgesamt wird auf über 1043 geschätzt – eine Zahl, die so riesig ist, dass man sich den zugehörigen Suchraum gar nicht mehr vorstellen kann.

Ein vollständiges Durchsuchen des Suchraums ist also nicht möglich – beim Schach, aber auch bei den meisten Alltagsproblemen, die man lösen möchte. Newell und Simon gehen daher von zwei Annahmen aus:

  • Menschliche Entscheider suchen nicht nach optimalen Lösungen, sondern geben sich mit „zufriedenstellenden Lösungen“ zufrieden. Für dieses Verhalten prägte Herbert A. Simon den Begriff des Satisficings.
  • Menschliche Entscheider verwenden keine vollständigen Suchalgorithmen (wie es ein Computer typischerweise tut), sondern setzen auf Intuition und Daumenregeln. Später kam hierfür der Begriff der Heuristik auf.

Aus diesen beiden Komponenten entstand das Konzept der Bounded Rationality – Problemlöser suchen meist nicht nach optimalen Lösungen (und sind dazu für gewöhnlich auch gar nicht in der Lage), sondern nur nach Lösungen, die ein bestimmtes Zufriedenheitsniveau mit einem bestimmten Aufwand erreichen.

Die Rolle der Intuition

Die Frage, nach welchen Regeln Satisficing und Heuristik bestimmt werden, ist damit aber natürlich noch nicht beantwortet. Eine zentrale Rolle bei menschlichen Entscheidern kommt dabei wohl der Intuition zu – dem unbewussten Wissen, welche Vorgehensweise am ehesten zum Erfolg führt und womit man sich zufriedengeben sollte.

Die Psychologie weiß inzwischen, dass unsere Intuition umso besser ist, je mehr Erfahrung wir in einem bestimmten Anwendungsgebiet haben. Entgegen der landläufigen Auffassung, dass man entweder Sachverstand oder eine gute Intuition benötigt, ist die Intuition also ein Werkzeug, das umso wirksamer ist, je mehr Sachverstand man hat. Sie ist keine Gabe, über die wir alle verfügen und die wir überall anwenden können, sondern ein Ergebnis von anwendungsbezogenem Training.

Die Erkenntnis, dass wir nicht in allem genügend Expertise für gute Intuitionen entwickeln können, hat auch ursprünglich zum Siegeszug der Algorithmen geführt. Denn diese gibt es schon seit Jahrtausenden – nicht, um Computer damit zu füttern, sondern um auch solchen Personen das Bearbeiten bestimmter Probleme zu erlauben, die nicht genügend Erfahrung besitzen, um selbständig eine Lösung zu finden. Für sie liefert der Algorithmus eine Schritt-für-Schritt-Anleitung, mit der auch eine Person mit geringem Sachverstand das Problem bearbeiten kann.

Das Expertenproblem

Der Siegeszug der Computer führt nun aber dazu, dass wir genau solche Personen zunehmend weniger brauchen. Ein Computer mag eine „deprimierend dämliche Maschine“ sein, aber er ist gut darin, eine Schritt-für-Schritt-Anleitung schnell und fehlerfrei auszuführen. Aufgaben, deren Lösung durch einen Algorithmus beschrieben werden können, werden daher immer häufiger von Maschinen gelöst.

Was mich wieder zu einem der Dauerthemen dieses Blogs bringt: Dem Unterricht bzw. der akademischen Lehre. Wie bereits mehrfach erwähnt, konzentrieren sich beide derzeit mehrheitlich auf das Lernen von Fakten und das Anwenden von Standard-Lösungsverfahren, also genau auf die Dinge, die der Computer eigentlich besser kann als wir Menschen. Besonders bedauerlich ist dabei, dass genau das von vielen Studierenden auch noch gefordert wird.

Die Notwendigkeit echter Problemlösungskompetenz dagegen wird zwar von manchen Professoren durchaus erkannt. Doch aus den unter „Probleme lösen lernen“ beschriebenen Gründen ist man oft nicht konsequent genug, die Lehre (und die Prüfungen) so umzustellen, dass die Mehrzahl der Teilnehmer eine realistische Chance hat, sie zu erlernen.

Suchräume und AD(H)S

Beim Lesen des Buches „Mit ADHS erfolgreich im Beruf“ von Heiner Lachenmeier ist mir übrigens eine interessante Verbindung zu AD(H)S aufgefallen. Lachenmeier charakterisiert ADS ausdrücklich nicht als Aufmerksamkeitsstörung (im Gegenteil, unter den richtigen Umständen neigen ADSler ja sogar zum Hyperfokussieren), sondern dadurch, dass ADSler dazu neigen, ihre Gedanken zu weit vom „vorgesehenen Weg“ schweifen zu lassen.

Das kann man ganz gut mit dem Suchraum-Modell erklären. Demnach würde ein ADSler dazu neigen, in seinem Denken weniger „bounded“ im Sinne der bounded rationality zu sein – sein Geist verfolgt auch Pfade, die untypisch sind und die manchmal auch nicht zum Erfolg führen. Der Nachteil ist, dass sein Verhalten so von dem des typischen Denkers abweicht und dass er manchmal selbst vermeintlich einfache Probleme nicht oder nur mit übermäßigem Zeitaufwand löst, weil er sich im Suchbaum „verlaufen“ hat. Der Vorteil ist dafür, dass er manchmal sehr kreative Lösungen findet, weil er Denkwegen folgt, die andere gar nicht erst in Betracht ziehen. Hinzu kommt – und dieser Punkt ist mir wirklich erst durch Lachenmeiers Buch aufgefallen – dass er viel mehr Übung darin hat, größere Suchräume zu bearbeiten. Auf diese Weise ist er (wenn er es schafft, seinen Fokus auf einem Thema zu halten) u.U. in der Lage, Probleme zu lösen, die sonst niemand lösen konnte.

Zugegeben, das ist reine Küchenpsychologie – ich habe keine Studien dazu durchgeführt oder Paper dazu gelesen. Aber es würde den hohen Anteil von ADS-Denkern sowohl unter Künstlern als auch unter erfolgreichen Wissenschaftlern erklären.

Ein offenes Problem

Aber so sehr ich mich für das Suchraum-Modell begeistern kann (für einen Informatiker ist wahrscheinlich alles, was mit Suchbäumen zu tun hat, automatisch reizvoll), so sehr wurmt mich, dass es sich eben nur um ein Modell handelt.

Es beschreibt zwar mathematisch korrekt, wie man ein Suchproblem strukturieren kann. Aber es beschreibt dummerweise nicht, wie unser Gehirn tatsächlich beim Lösen von Problemen vorgeht.

Zur Erinnerung: Unser Gehirn enthält zwar auch „Knoten und Kanten“ (nämlich Neuronen und Synapsen) wie ein Baum oder Graph, aber diese Neuronen entsprechen wohl kaum den Zwischenzuständen beim Lösen eines Problems. Mein Verständnis der „Hardware“ unseres Gehirns ist leider nicht so gut, wie ich es mir wünschen würde, aber je mehr ich mich damit beschäftige, desto mehr beschleicht mich der Verdacht, dass es den (Neuro-)Psychologen da nicht wirklich anders geht. Soweit ich verstanden habe, können wir trotz aller Forschung ganz elementare Fragen wie „Wie speichert unser Gehirn (physisch) eine komplexe Erinnerung?“ oder „Wie findet das Gehirn (physisch) eine Lösung zu einem Optimierungsproblem?“ genau genommen bis heute nicht beantworten. Es gelingt mir daher derzeit noch nicht, das Suchraum-Modell auf unser Modell des menschlichen Gehirns abzubilden.

Vielleicht liest ja ein Neuropsychologe oder KI-Experte mit und versorgt mich im Kommentarbereich mit hilfreichen Links, die meiner pessimistischen Einschätzung widersprechen. Aber bis dahin fürchte ich, dass das schöne Suchraum-Modell eben nur genau das ist: ein Modell.