Kategorien
Uncategorized

Gedanken zum interdisziplinären Arbeiten

Wie man einen Eisberg übersieht

Im letzten Beitrag habe ich ja erwähnt, dass ich vor Kurzem über den Bayes’schen Wahrscheinlichkeitsbegriff gestolpert bin und dass ich einigermaßen fassungslos bin darüber, dass dieses (für etliche wissenschaftliche Diszplinen doch ziemlich wichtige) Thema bisher völlig an mir vorbeigegangen ist. Ich habe mir daher mal ein paar Gedanken gemacht, woran das liegt und ob darin vielleicht ein paar tiefere Einsichten verborgen sind.

Zunächst einmal zum „Warum“. Der Hauptgrund ist natürlich der, dass mein wissenschaftlicher Hintergrund die Informatik ist, und dort gibt es (mit Ausnahme einiger Spezialgebiete wie der KI-Forschung) meist gar keinen Grund, sich mit subjektiven Wahrscheinlichkeiten zu beschäftigen. Daher wird in Grundlagenvorlesungen (genau wie in der Schule übrigens) auch nur die klassische, frequentistische Sicht von Wahrscheinlichkeiten als relativen Häufigkeiten gelehrt. Man hat also ein Fundament, das man gut beherrscht und dessen man sich sicher ist.

Wenn man nun anfängt, in anderen Disziplinen zu wildern – so wie ich es in den letzten Jahren beispielsweise in Psychologie und Kognitionswissenschaft getan habe – gibt es natürlich schon das eine oder andere Buch, das mit Bayes’schen Wahrscheinlichkeiten (also Wahrscheinlichkeiten, mit denen keine relativen Häufigkeiten, sondern subjektives Vertrauen in die Korrektheit einer Hypothese gemeint sind) arbeitet. Dabei gibt es im Grunde zwei Fälle:

  • In manchen Büchern gibt es explizite Einführungskapitel zu Bayes’schen Wahrscheinlichkeiten, aber die habe ich schlicht nicht gelesen. Denn „Wahrscheinlichkeiten“ kenne ich, und „Bayes“ (im Sinne von „Bayes’sches Gesetz“) kenne ich auch. Dass sich hinter „Bayes’sche Wahrscheinlichkeiten“ etwas ganz anderes verbirgt, war mir nicht klar. Und ich kann mich nur damit trösten, dass auch Thomas Bayes höchstselbst überrascht gewesen wäre, denn der Begriff kam erst etwa 200 Jahre nach seinem Tod auf für ein Konzept, das gar nicht von ihm, sondern von Pierre-Simon Laplace stammt.
  • In manchen Büchern wird auch einfach nur implizit mit Bayes’schen Wahrscheinlichkeiten gearbeitet. Was für mich im Grunde auf das gleiche hinausläuft wie explizite Einführungskapitel, die ich überblättert habe. In beiden Fällen muss ich mir eben „on the fly“ einen Reim auf das machen, was ich da lese, und das hat mich noch nicht einmal stutzig gemacht, weil (1) die mathematische Mechanik exakt die gleiche ist wie bei klassischen Wahrscheinlichkeiten ich (2) beim interdisziplinären Lesen ohnehin nicht immer alles verstehe.

Und dann stolpere ich eben irgendwann über die Erkenntnis, dass so manches Buch, das ich in den letzten beiden Jahren in Händen hatte, mit dem Wort „Wahrscheinlichkeit“ etwas ganz anderes meinte als das, was ich darunter verstanden habe. Gerade komme ich mir vor wie der Kapitän, vor dem der sprichwörtliche Eisberg aus dem Nebel auftaucht – das Ding war die ganze Zeit über da, aber ich habe es einfach nicht gesehen. Und ich müsste lügen, wenn ich sagen wollte, ich wäre nicht frustriert.

Das Kugelmodell des Wissens

Nun müsste mir natürlich eigentlich klar sein, dass so etwas immer mal wieder passiert, wenn man mit offenem Geist durch die Welt geht. Schon vor vielen Jahren bin ich über das Kugelmodell des Wissens gestolpert, das das Phänomen wie folgt beschreibt:

Stellen wir uns vor, es gäbe da einen (unendlich großen) Raum angefüllt mit potentiellem Wissen. Und stellen wir uns weiter vor, unser tatsächliches Wissen sei eine Kugel in diesem Raum. Dann ist die Oberfläche dieser Kugel unsere Kontaktfläche mit unserem Unwissen.

Da die Kugel eines Ungebildeten klein ist, ist ihre Oberfläche es auch. Wer wenig weiß, sieht also auch wenig von dem, was er nicht weiß – er fühlt sich seiner Sache oft sicher, obwohl er im Grunde keinen Schimmer hat. Dieses Phänomen wird auch als Dunning-Kruger-Effekt bezeichnet und wird sicherlich irgendwann einmal Thema dieses Blogs sein. Dagegen hat die Kugel des umfassend Gebildeten eine große Oberfläche. Er weiß viel, ist sich aber auch vieler Dinge bewusst, die er noch nicht kennt oder verstanden hat. Im Sinne Sokrates‘ weiß er, dass (oder zumindest: wie viel) er nicht weiß.

Spezialisten…

Nichtsdestotrotz ist dieses Gefühl des Unwissens unangenehm. Unser Geist strebt ja danach, sich selbst als kompetent zu erleben, und paradoxerweise ist eine kleine Wissenskugel dafür besser geeignet als eine große.

Eine verbreitete Lösung dafür ist das Spezialistentum. Man wählt sich ein Spezialgebiet aus – sei es nun eine wissenschaftliche Disziplin, ein Handwerk oder einfach „Fußball“ – und wird darin richtig gut. Wenn man jetzt auch den dazu passenden Beruf ergreift, dann kann man sich die meiste Zeit des Tages über kompetent fühlen, was zu einer hohen Selbstwirksamkeitserwartung führt.

Ich selbst bin beispielsweise ein Informatiker, der sich in seiner Promotion auf Kryptografie spezialisiert hat. Oder noch genauer auf die Kryptoanalyse von Stromchiffren, was wiederum ein ziemlich kleines Teilgebiet ist. Hätte ich meinen Arbeitsschwerpunkt dort belassen, hätte ich mein Berufsleben mit dem Gefühl zubringen können, ein wirklich kompetenter Experte zu sein, der nicht nur alles weiß, was es zu seinem Thema zu wissen gibt, sondern der darüber hinaus auch von anderen als Koryphäe wahrgenommen wird.

Vielleicht darf ich an dieser Stelle eine kleine Anekdote einfügen. Im Jahre 2008 war ich auf einer Kryptographie-Tagung in einer kleinen Universitätsstadt in Kanada. Wir waren in Studentenwohnheimen in Zweierwohnungen untergebracht, und mein „Mitbewohner“ war ein junger Chinese, der zufälligerweise im gleichen Fachgebiet wie ich selbst arbeitete. Er zerfloss fast vor Ehrfurcht und begrüßte mich mit den Worten: „Sie sind der Erik Zenner? Ich habe alle ihre Papers gelesen!“ Ich dachte erst, er wolle mich auf den Arm nehmen, denn in der Welt der Kryptographie war ich ein eher kleines Licht, aber er meinte das völlig ernst. Wie sich herausstellte, bewegte er sich wissenschaftlich genau in der kleinen Nische, in der ich einige für Spezialisten interessante Ergebnisse zustande gebracht hatte, und wusste daher, wer ich bin. Tatsächlich verbrachte er auch die nächsten Jahre in dieser Nische – er überholte mich schon bald in Sachen Output und Reputation und wurde in diesem Spezialgebiet genau der Experte, der ich nicht hatte sein wollen.

Ich denke, dass das gerade in der Wissenschaftswelt, aber auch überall sonst häufig passiert. Spezialistentum ist ein guter Weg, um die eigenen kognitiven (und zeitlichen) Ressourcen zu bündeln, und es ist vermutlich auch der einzige Weg, um wissenschaftliche Disziplinen jenseits des Schwungs der Gründerjahre weiterzuentwickeln.

… und Generalisten

Schwierig wird es aber, wenn alle Spezialisten sein wollen. Dann bekommt man beim Verständnis der Welt das Problem, das das berühmte Gleichnis von den Blinden und dem Elefanten beschreibt: Jeder nimmt nur einen winzigen Teil des Ganzen wahr und versucht, daraus mit den Methoden seiner Disziplin eine Wahrheit abzuleiten.

Dieses Vorgehen mag funktionieren, solange man sich in abstrakten Modellen bewegt, aber für komplexe Zusammenhänge aus der wirklichen Welt ist es eher ungeeignet. Leider beobachten wir es aber in letzter Zeit immer häufiger, und zwar auch an Stellen, wo es Probleme nach sich zieht.

Das aktuellste Beispiel (und den Exkurs kann ich mir leider beim besten Willen nicht verkneifen) ist das einseitige Optimieren von Corona-Maßnahmen ausschließlich unter den Gesichtspunkten einer einzigen Wissenschaft, nämlich der Epidemologie. Dass es dabei haufenweise Kollateralschäden in unberücksichtigten Bereichen wie psychische und körperliche Gesundheit, Persönlichkeitsentwicklung, Risikoeinstellung, Bildung, privat- und volkswirtschaftliche Stabilität, Generationengerechtigkeit, Demokratieakzeptanz usw. geben würde, wurde früh von Experten anderer Disziplinen angemerkt, aber der Einfachheit halber ignoriert. Obwohl „Güterabwägung“ ein beliebtes Schlagwort in der Rechtslehre und der Ethik ist, weiß im Grunde niemand, wie man solch unterschiedliche Güter wirklich gegeneinander abwägen soll. Also lässt man es gleich ganz und befragt stattdessen den Wissenschaftler, dessen Thema gerade zuoberst auf der Tagesordnung liegt. Ein Informatiker würde hier von einem Greedy-Algorithmus sprechen, ein Entscheidungspsychologe von einer Take-the-Best-Heuristik. Beide wären sich aber darin einig, dass man solche Verfahren im Alltag nur einsetzen sollte, wenn die Entscheidung unbedeutend oder der Entscheider kognitiv überfordert ist, denn die Ergebnisse sind (von wenigen Ausnahmen abgesehen) alles andere als optimal.

Weisheit kann man verstehen als die Fähigkeit, auch in komplexen Situationen zu guten Entscheidungen zu kommen. Das erfordert aber ein gutes Verständnis aller beteiligten Disziplinen. Leider ist die Wissensfülle der Menschheit heutzutage jedoch so gewaltig, dass wohl kein lebender Mensch von sich behaupten kann, über alles benötigte Wissen zu verfügen.

Was es bräuchte, wäre also ein gutes Zusammenspiel aus Spezialisten aus verschiedenen Disziplinen, und hier kommen die Generalisten ins Bild. Sie dienen als Vermittler zwischen den einzelnen Teilbereichen, als Übersetzer und Wissensüberträger. In der Network Science (von der wohl künftig noch häufiger die Rede sein wird) modelliert man Wissenschaftler als Knoten (Nodes) und eine Kooperationsbeziehung zwischen ihnen als Kanten (Links). Die daraus resultierenden Netzwerke besitzen dann typischerweise eine Struktur wie im folgenden Beispiel:

Man sieht, dass die Mehrzahl der Wissenschaftler in Clustern, die ihrer Community entsprechen, vernetzt sind. Sie sind Spezialisten, die über gemeinsames Wissen und gemeinsame Methoden verfügen. Vergleichsweise selten dagegen sehen wir Kanten zwischen verschiedenen Wissensgebieten, die auch Brücken genannt werden. Der Bau solcher Brücken ist die Stärke und auch die Rolle der Generalisten – sie sind weniger stark in einer einzigen Community vernetzt, stellen dafür aber die Schnittstelle zwischen verschiedenen Forschungsgemeinschaften und -themen bereit.

Und nun?

Für mich selbst ist es in Frust-Momenten wie dem obigen wichtig, mich daran zu erinnern, dass ich den Weg des Generalisten ganz bewusst gewählt habe. Ich sehe meine Stärke (und auch meine Berufung) heutzutage eher darin, mich in verschiedenen Disziplinen ordentlich auszukennen, interdisziplinäre Probleme zu lösen und Wissen zwischen den Communities zu transportieren. Und dazu gehört es eben auch, ein Stückweit ein „Universaldilettant“ zu sein, immer ein Stückweit ein Suchender und Fragender zu bleiben und manchmal sogar Wissens- und Verständnislücken zu offenbaren, die mich für den Spezialisten angreifbar machen.

Wenn ich so darüber nachdenke, beobachte ich eigentlich häufig, dass gerade die Gefahr des Offenbarens von Wissenslücken so gefürchtet ist, dass es zum Schweigen führt. So scheitert die Diskussion zwischen verschiedenen Communities oft gerade daran, dass die einen gar nicht verstehen, was die anderen sagen. Da sagt der Informatiker: „Dazu müsste man eigentlich nur eine Blockchain mit Proof of Stake einsetzen.“ Oder der Geisteswissenschaftler: „Habermas hat das doch in seiner Diskurstheorie klar herausgestellt“. Und niemand im Raum traut sich zuzugeben, dass er keine Ahnung hat, wovon hier die Rede ist.

Im Grunde müsste an der Stelle jemand den Mut haben aufzustehen und zu sagen: „Ich bin jetzt mal ehrlich – ich kenne mich damit nicht aus. Magst du das mal in fünf Minuten erklären?“ Und wer sollte das tun, wenn nicht der Generalist?

Denken Sie einmal darüber nach. Und wenn Sie beim bloßen Gedanken daran, dass Sie selbst sich in dieser Form vor versammelter Mannschaft als Unwissender „outen“ müssten, ein Gefühl des Unbehagens empfinden, dann verstehen Sie, warum echte Generalisten so selten sind…

Kategorien
Uncategorized

Informationskaskaden

In diesem Blog war ja schon mehrfach die Rede von den Unterschieden zwischen algorithmischem Vorgehen und menschlichem Denken. Insbesondere wird dem menschlichen Denken von mancher Seite vorgeworfen, nicht besonders logisch zu sein, und clever gemachte Experimente zeigen, dass wir uns regelmäßig „in die Denkfalle locken“ lassen. Andererseits gibt es Wissenschaftler wie Gerd Gigerenzer, die die menschliche Intuition vehement verteidigen gegen solche Angriffe verteidigen.

In diesem Zusammenhang bin ich kürzlich auf das Buch „What makes us smart“ des Harvard-Psychologen Samuel Gershman gestoßen, das in der Diskussion einen ganz anderen Ton anschlägt. Es stellt nämlich die These auf, dass das menschliche Denken sogar ausgesprochen rational ist, wenn man sich erst einmal bemüht, all die Faktoren zu berücksichtigen, die wir in unsere Entscheidungen mit einbeziehen, oft ohne es überhaupt zu bemerken. Er verwendet dabei die Argumentation des Bayesianismus, der das Verhalten des Gehirns mit (subjektiven) Wahrscheinlichkeitsannahmen zu erklären versucht und der in der Kognitionswissenschaft in letzter Zeit große Bedeutung gewonnen hat. Leider ist das Buch von Gershman alles andere als leicht zu lesen, weil er seine Ideen für den Quereinsteiger zu wenig ausführt, aber es ist prall gefüllt mit interessanten Denkanstößen, die er aus verschiedensten Disziplinen der Kognitionslehre zusammengesucht hat.

Im Folgenden möchte ich einmal ein Beispiel für diese Denkweise heraussuchen, die unmittelbar einleuchtet und aufzeigt, warum auch vollkommen rationale Entscheider zu Fehlentscheidungen kommen können.

Eine einfache Informationskaskade

Betrachten wir einmal ein etwas formalisiertes Beispiel. Es gibt zwei Urnen A und B, die mit roten und blauen Kugeln gefüllt sind. Urne A enthält zwei rote und eine blaue Kugel, Urne B enthält eine rote und zwei blaue Kugeln:

Nun stehen einige Entscheider vor der Frage, ob eine Urne, deren Inhalt sie nicht sehen können, vom Typ A oder vom Typ B ist. Dazu dürfen Sie jeweils eine Kugel (verdeckt für die anderen) ziehen, dann müssen sie einen Tipp abgeben, um welchen Urnentyp es sich handelt. Die Kugel wird dann wieder in die Urne zurückgelegt, und es kommt der nächste Entscheider an die Reihe. Dieser hat nun aber den Vorteil, dass er das Urteil seiner Vorgänger kennt.

Nehmen wir einmal an, dass es sich in Wahrheit um eine Urne vom Typ A handelt, dass aber der erste Entscheider eine blaue Kugel gezogen hat. Als rationaler Entscheider wird er als Ergebnis „Typ B“ verkünden (was falsch ist, aber das kann er ja mit seinem Informationsstand nicht wissen). Nehmen wir nun weiterhin an, dass auch der zweite Entscheider eine blaue Kugel zieht. Aus seinem Ergebnis und der Aussage des ersten Entscheiders folgert er natürlich ebenfalls (fälschlicherweise), dass es sich um „Typ B“ handelt. Soweit, so gut.

Nun aber kommt der dritte Entscheider an die Reihe. Er zieht eine rote Kugel, weiß aber, dass beide Entscheider vor ihm „Typ B“ gesagt haben, dass sie also vermutlich blaue Kugeln gezogen haben. Er wird daher vermuten, dass in 3 Experimenten zweimal blau und einmal rot vorkam, und seine Antwort lautet daher „Typ B“, obwohl er selbst eine rote Kugel gezogen hat. Nicht nur gibt er damit eine falsche Antwort, er kann damit auch die Information, über die er verfügte (nämlich dass er eine rote Kugel gezogen hat), nicht weitergeben.

Und jetzt läuft das Experiment aus dem Ruder, denn der vierte Entscheider sieht drei Vorgänger, die alle „Typ B“ gesagt haben. Im Grunde muss er nicht mal mehr ziehen – er wird sich als rationaler Entscheider in jedem Fall für „Typ B“ entscheiden. Und genauso alle Entscheider nach ihm – selbst wenn sie alle eine rote Kugel ziehen, wird keiner von ihnen seiner eigenen Information trauen, sondern die zahlreichen „Typ B“-Meldungen vor ihnen höher gewichten.

Ein einziges Ereignis zu Beginn des Experiments, das mit Wahrscheinlichkeit 1/9 eintritt, führt also dazu, dass sich alle Entscheider falsch entscheiden, weil jeder davon ausgeht, dass sich so viele vorherige Entscheider nicht irren können!

Bayes’sche Wahrscheinlichkeiten

Diese Überlegungen basieren auf dem sogenannten Bayes’schen Wahrscheinlichkeitsbegriff, der sich von dem unterscheidet, den man typischerweise in einer Stochastik-Vorlesung lernt. Dort geht man nämlich meist vom sogenannten frequentistischen Wahrscheinlichkeitsbegriff aus, nach dem eine Wahrscheinlichkeit eine relative Häufigkeit ist. Ein Experiment wie das obige unterstellt dagegen, dass die Entscheider die objektiven Wahrscheinlichkeiten ja gar nicht kennen können und dass sie daher stattdessen mit subjektiven Wahrscheinlichkeiten arbeiten, die ihrem Grad an persönlicher Überzeugung (englisch degree of belief) entsprechen.

An diesem Thema faszinieren mich zwei Punkte. Zunächst einmal bin ich tatsächlich fünfzig Jahre lang durch die Welt gegangen (davon mittlerweile über 20 als Wissenschaftler), ohne überhaupt etwas vom Glaubenskrieg zwischen Frequentisten und Bayesianern mitbekommen zu haben. Ich ertappe mich bei solchen Gelegenheiten gerne dabei, mich zu fragen, ob das jetzt an mir liegt oder ob es eine logische Folge des mittlerweile dermaßen unübersichtlich gewordenen Wissens auf der Welt ist und ob es anderen genauso geht.

Darüber hinaus handelt es sich hier aber möglicherweise tatsächlich um ein Werkzeug, um die beiden vermeintlich unvereinbaren Beobachtungen „Der Mensch verhält sich irrational“ und „Der Mensch hat es erfolgreich an die Spitze der Evolution geschafft“ miteinander zu vereinen. Womöglich ist der Mensch doch gar nicht so irrational, wie es manchmal scheint – er benutzt nur andere A-Priori-Wahrscheinlichkeiten als das Modell, gegen das seine Entscheidung getestet wird.

Zurück zur Informationskaskade

Auch wenn das obige Experiment natürlich ziemlich simpel ist, lassen sich ähnliche Überlegungen auf so manche Alltagssituation anwenden, wo wir unsere Hypothesen über die Wirklichkeit zum Teil aus eigener Beobachtung, zum Teil aber auch aus dem Verhalten anderer ableiten. Egal ob Reputationssysteme, Aktienmärkte oder schlicht unsere Einschätzung des neuen Kollegen – stets richten wir uns sowohl nach unserem eigenen Eindruck als auch nach den Aussagen Dritter. Das Ergebnis kann dann von Fehleinschätzungen (oder bewussten Manipulationen) gerade zu Beginn der Informationskette massiv verzerrt werden.

Diese Beobachtung steht im deutlichen Kontrast zur oft postulierten Wisdom of Crowds, derzufolge die Beteiligung vieler Informationsgeber zu besseren Entscheidungen führt. Während dies für Situationen stimmen mag, in der sich alle gleichzeitig ihre Meinung bilden (über die dann ein Mittelwert berechnet wird), ist es zweifelhaft, ob es auch korrekt ist, wenn sich Individuen bei der Meinungsbildung gegenseitig beeinflussen. Da die Art der Vernetzung der Entscheidungsträger dabei eine Rolle zu spielen scheint, wird das Thema nicht nur in der Verhaltensökonomik, sondern auch in der Netzwerkforschung (engl. Network Science) diskutiert. Und in dem Zusammenhang wird künftig sicherlich immer mal wieder in diesem Blog die Rede davon sein, denn dorthin scheint meine wissenschaftliche Reise gerade zu gehen – vielleicht schreibe ich in einem der nächsten Beiträge mehr dazu?

Kategorien
Uncategorized

Die Reading Challenge

Manchmal schweifen die Gedanken ja ab, kommen von Hölzchen auf Stöckchen und wenn man ganz viel Glück hat dabei sogar auf die eine oder andere verwertbare Beobachtung. Im heutigen Eintrag will ich mal einen solchen Gedankengang, der in einer Diskussion in einem Webforum seinen Anfang nahm und sich dann verselbständigt hat, in Form einer Satire wiedergeben – oder es zumindest versuchen…

Das erste Jahr

In den letzten Jahren sind ja sogenannte „Reading Challenges“ in Mode gekommen. In der einfachsten Form setzt sich ein Teilnehmer – nennen wir ihn mal Johnny – ein Jahresziel in Form von gelesenen Büchern, beispielsweise:

„Ich nehme mir vor, bis zum Ende des Jahres 50 Bücher zu lesen.“

Nun wird es niemanden, der sich mit der menschlichen Psyche beschäftigt, überraschen, dass das bloße Setzen eines solchen Ziels das Leseverhalten in mehr als nur einer Weise verändert. Natürlich könnte Johnny einfach mehr lesen und so dafür sorgen, dass er sein Leseziel locker schafft. Aber als echtes Kind seiner Zeit verwechselt Johnny schon bald das Messbare mit dem Eigentlichen.

So bemerkt Johnny schnell, dass es seinem Ziel nicht eben zuträglich war, als erstes Buch Thomas Pynchons „Mason & Dixon“ von seinem pile of shame zu nehmen. Der Wälzer hat 773 Seiten, und als Johnny sich nach 4 intensiven Lesewochen endlich hindurchgekämpft hat, wird ihm klar, dass er jetzt nur noch 48 Wochen für die verbleibenden 49 Bücher zur Verfügung hat. Er beschließt daher, sich künftig auf handlichere Werke zu konzentrieren, und fasst in den nächsten Wochen nichts mehr an, was mehr als 200 Seiten hat.

Am Ende des Jahres ist Johnny dann ein wenig unzufrieden. Ja, er hat seine 50 Bücher geschafft (gerade so), aber die meisten davon waren von Moritz Matthies, David Safier und Tommy Jaud – unterhaltsam, leicht zu lesen und vor allem nach spätestens 300 Seiten zu Ende. Wenn Johnny so darüber nachdenkt, war das eigentlich nicht das, was er sich vorgestellt hatte, als er sich der Reading Challenge gestellt hat. Damals hatte er seinen Freunden doch noch davon erzählt, wie er durch die Challenge seinen Horizont erweitern würde. Ja, vor seinem geistigen Auge hatte er sich schon als vielseitig gebildeten Menschen gesehen, der mit dem Inhalt seiner Bücherregale seine Gäste beeindrucken würde, zumal er auch mühelos über Gott und die Welt und vor allem die menschliche Natur würde philosophieren können. Nun also Tommy Jaud… irgendetwas musste da unterwegs schiefgegangen sein.

Das zweite Jahr

Johnny erkennt, dass es ein Fehler war, sich bei der Reading Challenge auf die Zahl der Bücher zu konzentrieren. Er hat im Web mit Leuten gechattet, die über 100 Bücher im Jahr lesen, wobei sich die meisten davon bei näherem Hinsehen als „Graphic Novels“ (das klingt vornehmer als „Comics“) entpuppen. Natürlich blickt Johnny verächtlich auf solche Dünnbrettbohrer hinab, aber beim Blick auf seine eigene Leseliste beschleicht ihn das ungute Gefühl, dass sie bei echten Literaten nur wenig besser ankommen würde.

Er gelobt daher Besserung. Und damit er diesmal keinen Grund mehr hat, einen dicken Bogen um Tolstois „Krieg und Frieden“ (1536 Seiten) zu machen, beschließt er, statt der Bücherzahl lieber eine Seitenzahl als Leseziel auszuloben. Er nimmt 250 Seiten als „typisches“ Buch an, multipliziert sie mit 50 und kommt so zum folgenden Ziel:

„Ich nehme mir vor, bis zum Ende des Jahres Bücher im Umfang von 12.500 Seiten zu lesen.“

Wobei… jetzt, wo er angefangen hat darüber nachzudenken, sind Bücher ja auch ganz unterschiedlich groß und ganz unterschiedlich eng bedruckt. Es gibt Bücher, auf denen fasst eine Seite mehr als das Doppelte dessen, was anderswo auf einer Seite zu lesen ist. Und schließlich geht es hier ja nicht darum, einfach nur so viele Seiten „Gregs Tagebuch“ wie möglich zu lesen, nicht wahr?

Also noch mehr Präzisierung, schließlich leben wir im Zeitalter der Digitalisierung! Johnny macht eine Testzählung, kommt bei einem typischen Buchformat auf 30 Zeilen pro Seite und 60 Zeichen pro Zeile und präzisiert sein Leseziel weiter:

„Ich nehme mir vor, bis zum Ende des Jahres Bücher im Umfang von 22.500.000 Zeichen zu lesen.“

Zwar muss er jetzt einiges an Buchführungsaufwand betreiben – er muss für jedes Buch, das er liest, die Zahl der Zeilen und der Zeichen pro Zeile ermitteln und alles in ein Spreadsheet-Programm eingeben, aber vernünftige Kennzahlen gibt es eben nicht zum Nulltarif. Zufrieden macht er sich ans Werk.

Leider merkt er auch in diesem Jahr, dass anspruchsvollere Werke wie David Mitchells „Cloud Atlas“, Umberto Ecos „Der Name der Rose“ oder gar James Joyces „Ulysses“ unberührt im Schrank stehen geblieben sind. Dafür hat er alle Harry-Potter-Bände gelesen sowie alles, was zur „Expanse“-Reihe bisher erschienen ist. Das ergab richtig viele Seiten und hat eine Menge Spaß gemacht. Aber von seinem Ziel, ein belesener Mann zu werden, ist er noch genauso weit entfernt wie zuvor.

Das dritte Jahr

Verärgert macht sich Johnny zwischen den Jahren daran, sein Bewertungsschema erneut zu überarbeiten. Dazu überlegt er sich, dass ein anspruchsvolles Buch mehr zählen sollte als ein anspruchsloses. Er entscheidet sich, bei der Bewertung der Bücher neben der Zeichenzahl künftig noch zwei andere Faktoren einfließen zu lassen:

  • Wie schwer ist das Buch zu lesen? Er vergibt für die Schwierigkeit einen Score zwischen 1 Punkt (für Kinder geeignet) und 5 Punkte (literarisch anspruchsvoll).
  • Welche Bedeutung hat das Buch? Gar nicht so leicht zu messen! Am Ende entscheidet sich Johnny für einen Score, mit dem er abzuschätzen versucht, welchen Wert wohl ein echter Literat dem Buch zuweisen würde – erneut zwischen 1 Punkt (Zeitverschwendung) und 5 Punkten (Pflichtlektüre).

Johnny beschließt, die Schwierigkeit mit 1/3 und Bedeutung mit 2/3 zu gewichten und kommt so zum folgenden Leseziel:

„Der Score eines Buches berechnet sich wie folgt:

Score = Seiten * Zeilen/Seite * Zeichen/Zeile * (Schwierigkeit + 2*Bedeutung) / 1.000

Ich nehme mir vor, bis zum Ende des Jahres einen Score von 200.000 Punkten zu erreichen.“

Nun ist Johnny wirklich zufrieden mit sich – er hat endlich alles, was ihm wichtig ist, in seine Kennzahl einfließen lassen. Ein Buch wie der „Ulysses“ in der englischen Originalausgabe würde nach seiner Rechnung auf einen Score von ungefähr 26.000 kommen, während „Harry Potter und der Stein der Weisen“ auf 7.000 käme und ein Erdmännchen-Krimi von Moritz Matthies bei großzügiger Bewertung gerade mal 3.000 Punkte einbringen würde. Das fühlt sich richtig an, und Johnny findet, dass er diesmal wirklich alles richtig gemacht hat.

Umso überraschter ist Johnny, als seine Reading Challenge im Laufe dieses dritten Jahres heimlich, still und leise einschläft. Irgendwie liest er von Woche zu Woche weniger, sein Leseziel rückt in immer unerreichbarere Ferne, bis er irgendwann im Mai feststellt, dass er seine Abende schon länger nur noch damit zubringt, alte Serien auf Netflix oder Katzenvideos auf Youtube anzuschauen…

Und die Moral von der Geschicht?

Johnny hat bei seinem Versuch, seine Leseerfahrungen mit einem Zahlenwert (neudeutsch: Score) zu versehen, die klassischen Phasen des Arbeitens mit Kennzahlen durchlaufen. Er hat zunächst eine Kennzahl festgelegt, die eigentlich gar nichts mit seinem eigentlichen Ziel zu tun hatte, dafür aber schön leicht zu bestimmen war. Im Ergebnis hat er dann die Kennzahl optimiert, ohne besagtem eigentlichen Ziel wirklich näher zu kommen.

In den nächsten Schritten hat er dann versucht, sich dem eigentlichen Ziel durch immer komplexere Kennzahlen anzunähern, doch irgendwie hat das nicht funktioniert. Denn leider konnte auch die schönste Rechnerei nichts daran ändern, dass Johnny von Anfang an ein Problem hatte: Die ach so großartigen, anspruchsvollen, berühmten Bücher, von denen er meinte, sie lesen zu müssen, um gebildete Bekannte zu beeindrucken, haben ihn genau genommen nie interessiert – sonst hätte er sie nämlich auch ohne aufwändiges Kennzahlen-System schon längst gelesen!

Er war, wie die Psychologen sagen würden, zu keinem Zeitpunkt intrinsisch motiviert. Das Ziel, von dem er glaubte, dass es das seine sei, war in Wahrheit nur eine externe Suggestion aus der langen Liste der „Du solltest eigentlich mal…“-Einflüsterungen, von denen es viel zu viele gibt, als dass man sie wirklich alle umsetzen könnte. Anfangs hat sich sein innerer Schweinehund noch herausgewunden, indem er immer neue Wege gefunden hat, das Jahresziel zu erfüllen, ohne sich wirklich anstrengen zu müssen. Aber je präziser der Score wurde, je systematischer Johnny die Schlupflöcher für den inneren Schweinehund geschlossen hat, desto klarer wurde: Kein Kennzahlensystem der Welt würde je aus unserem Johnny einen echten Literaten machen, weil er im Grunde seines Herzens nie wirklich dafür gebrannt hat.

Und wer jetzt hier eine Moral findet, der darf sie behalten…

Kategorien
Uncategorized

Die Grenzen des Rationalen Entscheidens

Entscheidungslehre

Wenn man sich mit dem menschlichen Denken beschäftigt, begegnet man verschiedensten Disziplinen, die sich mit Teilaspekten des Denkens beschäftigen und sich teilweise kräftig überlappen. Mathematik, Logik, Algorithmik, (Theoretische) Informatik, Spieltheorie, Ethik, Linguistik, Kognitionspsychologie, KI, Philosophie usw. befassen sich aus diversen Blickwinkeln mit der Frage, was wir wissen und denken können und wie wir dabei vorgehen sollten. Dabei umkreisen sie das Objekt des Interesses wie die berühmten Blinden den Elefanten und beschreiben Teile, ohne das Ganze wirklich zu erfassen.

Eine solche Disziplin ist die Entscheidungslehre, die sich mit dem menschlichen Entscheidungsverhalten befasst und die grob in zwei Teilbereiche unterteilt wird:

  • Präskriptive Entscheidungslehre: Wie sollte ein rationaler Entscheider seine Entscheidungen treffen?
  • Deskriptive Entscheidungslehre: Wie treffen wir solche Entscheidungen tatsächlich?

Wenig überraschend prallen in den beiden Teildisziplinen Welten aufeinander – unser tatsächliches Entscheidungsverhalten hat erschreckend wenig mit dem zu tun, was ein rationaler Entscheider infolge der mathematischen Modelle tun sollte. Was natürlich die Frage aufwirft, warum das so ist – sind wir wirklich so dumm, wie diese Diskrepanz vermuten lässt?

Beschränkte Modelle

Ein wenig klarer werden die Gründe, wenn man sich anschaut, wie die Modelle der präskriptiven Entscheidungslehre normalerweise gebaut werden. Dabei stoßen wir auf eine ganze Reihe von Einschränkungen wie zum Beispiel:

  • Die meisten Modelle gehen davon aus, dass die Zahl der Handlungsalternativen fest vorgegeben ist. Menschen dagegen fangen fast sofort an, nach weiteren Alternativen zu suchen, wenn sie mit den bisher vorhandenen nicht zufrieden sind.
    Bsp.: Wenn man eine Frage der Art „Welche der beiden Optionen A und B würden Sie wählen?“ in einem Saal mit halbwegs mitdenkenden Studierenden stellt, wird fast unweigerlich jemand fragen: „Warum kann ich nicht stattdessen Option C nehmen?“. Dozenten schimpfen dann gerne darauf, dass hier versucht wird, der Frage auszuweichen, aber in Wahrheit ist die Suche nach weiteren Alternativen viel rationaler als das sture Beharren auf den vorgegebenen Alternativen.
  • Die meisten Modelle beschränken sich auf einstufige und einmalige Entscheidungen. Im wirklichen Leben haben Entscheidungen aber Konsequenzen über die jetzige Situation hinaus, und kluge Entscheider werden das zumindest ansatzweise mit berücksichtigen.
    Bsp.: Oft ist es leichter, in einem Konflikt nachzugeben. Wir tun dies aber u.U. trotzdem nicht, weil wir wissen, dass künftige Konflikte dadurch noch schwieriger werden.
  • Die meisten Modelle unterstellen, dass Entscheidungen nur aufgrund von bewussten Zielen getroffen werden und dass es möglich ist, diese auch mit Zahlenwerten zu versehen. In Wahrheit fließen aber viele unbewusste Ziele in Entscheidungen ein, die keinesfalls alle irrational sind.
    Bsp.: Das menschliche Gehirn trifft seine Entscheidungen auch aufgrund von Faktoren wie Energieverbrauch oder zugunsten der Gruppe (oder gar des menschlichen Genpools), also keinesfalls aufgrund unserer individuellen Ziele, wie wir gerne glauben. Dieser Umstand wird in den präskriptiven Modellen aber normalerweise nicht mit abgebildet.
  • Bei der Bewertung von Konsequenzen werden oft lineare Modelle verwendet (man „gewichtet“ einfach die verschiedenen Ausgänge einer Entscheidungssituation), was aber gar nicht der Realität entspricht. Lineare Modelle kommen nicht zum Einsatz, weil sie korrekt sind, sondern weil sie den Vorteil haben, mathematisch besonders leicht darstellbar zu sein!
    Bsp.: Wenn wir sagen, dass die Qualität 40% und der Preis 60% unserer Wohnungswahl ausmachen, dann unterstellen wir damit, dass wir eine beliebig schlechte Wohnung akzeptieren würden, wenn sie nur billig genug ist. So entscheiden die meisten Menschen aber nicht; was es hier bräuchte, wäre ein nichtlineares Modell.

Die Liste ließe sich noch verlängern, aber man merkt schon, dass viele Modelle, die von der präskriptiven Entscheidungstheorie vorgeschlagen werden, eben auch davon geprägt sind, was sich gut modellieren und berechnen lässt, und nicht etwa davon, wie die Entscheidungssituation tatsächlich aussieht.

Berechenbarkeit

Ein weiterer Faktor, der in der Entscheidungslehre weitgehend ausgeblendet wird, mit dem sich aber gerade die Theoretische Informatik intensiv beschäftigt, ist die Berechenbarkeit von Lösungen. Dort weiß man, dass es Probleme gibt, die inhärent so komplex sind, dass es unmöglich ist, dafür mit begrenzten Ressourcen (oder in begrenzter Zeit) optimale Lösungen zu berechnen. Das beste, was man erhoffen kann, ist das Finden einer heuristischen Lösung – einer Lösung, die „gut genug“ ist.

Wie es scheint, funktioniert unser Denken in vielen Situationen so. Allen Newell und Herbert A. Simon haben diese Vorgehensweise unseres Gehirns als Satisficing bezeichnet, und Gerd Gigerenzer verteidigt diese positive Sicht auf unser Entscheidungsverhalten in verschiedenen Publikationen. Der Kerngedanke: Wenn es ohnehin nicht möglich ist, mit vertretbarem Aufwand optimale Ergebnisse zu erzielen, dann ist es rational, sich auf zufriedenstellende Ergebnisse zu beschränken. Hier gibt es eine Ähnlichkeit zum Pareto-Prinzip, nach dem mit 20% des Aufwands 80% des Ertrags erzielt werden können und sich ein Mehraufwand häufig gar nicht lohnt.

Der Nachteil dieser Vorgehensweise ist es, dass sie nicht gegen Manipulation gefeit ist. Wenn ein intelligenter Gegenspieler die Entscheidungssituation beeinflussen kann, kann er sie so gestalten, dass sie ein besonders ungünstiges Input für eine Satisficing-Heuristik darstellt. Der Entscheider gibt sich dann mit einer vermeintlich ordentlichen Lösung zufrieden, ohne zu merken, wie schlecht sie im konkreten Fall wirklich ist. Viele Arbeiten von Daniel Kahneman und Amon Tversky basieren darauf, Beispiele für solche Manipulationen zu finden. In der Psychologie spricht man hier von kognitiven Verzerrungen – Situationen, in denen die Heuristiken des menschlichen Gehirns völlig danebenliegen.

Fazit

Zusammenfassend kann man also sagen, dass die präskriptive Entscheidungslehre vor allem für stark vereinfachte Entscheidungssituationen Antworten bereit hält, die in der wirklichen Welt gar nicht so oft vorkommen. Umgekehrt zeigt die deskriptive Entscheidungslehre, dass der Mensch ohnehin oft nicht nach diesen Regeln entscheidet und dass seine Heuristiken in vielen Alltagssituationen besser, in Extremfällen aber auch deutlich schlechter funktionieren als die Algorithmen der Entscheidungslehre, weil sie effizienter sind, Ungenauigkeiten besser verarbeiten und auch unbewusste Faktoren berücksichtigen.

Eine Antwort auf die Frage, wie man denn nun in Alltagssituationen optimal entscheidet, kann keine der beiden Teildisziplinen liefern, und die Erfahrung aus der Informatik lehrt uns, dass ihnen das aufgrund der Komplexität der Entscheidungssituationen in vielen Fällen wohl auch nicht gelingen wird. Stattdessen steht zu befürchten, dass wir lernen müssen, dass „perfekte Entscheidungen“ (ebenso wie auch sonst „perfekte Irgendwas“) wohl ein Wunschtraum bleiben werden.

Kategorien
Uncategorized

Computational Thinking

Was ist „Computational Thinking“?

Als ich vor einigen Jahren erstmals über den Begriff des „Computational Thinking“ (CT) gestolpert bin, war ich zunächst Feuer und Flamme. Der Begriff ist zwar schon alt, wurde aber von Jeanette Wing in einem berühmt gewordenen Artikel im Jahr 2006 neu belebt. Sie schreibt:

Computational Thinking (…) represents a universally applicable attitude and skill set everyone, not just computer scientists, would be eager to learn and use.

(…)

Computational thinking involves solving problems, designing systems, and understanding human behavior, by drawing on the concepts fundamental to computer science

J. Wing (2006): Computational Thinking. Communications of the ACM 49(3), p.33-35

Das klang nach etwas, was ich unbedingt unterschreiben konnte, denn wie ich bereits ganz zu Beginn dieses Blogs schrieb, habe ich mich nicht zuletzt deshalb mit der Informatik beschäftigt, weil ich menschliches Entscheiden und Problemlösen verstehen und verbessern wollte. Und gerade die Forderung, dass solche Powertools des Denkens eigentlich ein Teil moderner Allgemeinbildung sein sollte, erschien mir unmittelbar einleuchtend. Schließlich stellt die Informatik die wohl umfassendste Sammlung von Techniken zum systematischen Problemlösen zur Verfügung, die es in der Menschheitsgeschichte gegeben hat.

Begriffsverwirrung

Aber leider scheint es nicht möglich zu sein, einen Begriff einzuführen, ohne dass dieser von unterschiedlichen Menschen sehr unterschiedlich verstanden wird (Geisteswissenschaftler können davon ein Lied singen). Tatsächlich erregte Wings Artikel nicht nur großes Interesse, sondern trat auch eine wahre Lawine von Begriffsdefinitionen los. Die Tatsache, dass sie in ihrem Artikel den Begriff „Computational Thinking“ zwar mit verschiedenen Eigenschaften umschrieben, aber genau genommen nirgends wirklich definiert hatte, machte die Sache auch nicht eben einfacher. Diese Definition lieferte sie erst 2014 nach:

Computational thinking is the thought processes involved in formulating a problem and expressing its solution(s) in such a way that a computer – human or machine – can effectively carry out.

J. Wing (2014): Computational Thinking Benefits Society. Social Issues in Computer Science, 40th Anniversary Blog.

Wichtig ist hier vor allem, dass ein „Computer“ im Verständnis des Computational Thinking nicht zwingend eine Maschine sein muss, sondern (im ursprünglichen Sinne des Wortes, das ja deutlich älter ist als die erste Rechenmaschine) auch ein denkender Mensch sein kann.

Ich ertappe mich aber dabei, von dieser Definition enttäuscht zu sein. Sie klingt nach einer aufgehübschten Definition von Algorithmik und ist deutlich weniger umfassender als die ursprüngliche Vision, bei er es ja auch darum ging, menschliches Denken zu verstehen.

Es gibt aber auch das umgekehrte Extrem, das schlicht alles, was auch nur entfernt mit Informatik zu tun hat, unter die Überschrift „Computational Thinking“ packt, so wie die folgende Definition von Denning und Tedre:

Computational Thinking is the mental skills and practices for
(1) designing computations that get computers to do jobs for us, and
(2) explaining and interpreting the world as a complex of information processes.

P. Denning, M. Tedre (2019): Computational Thinking, p. 4

Nach dieser Definition ist also nicht nur die komplette Informatik „Computational Thinking“, sondern auch zahlreiche andere Wissenschaften wie beispielsweise Biologie, Physik, Chemie, Psychologie, Sozial- und Kommunikationswissenschaft und letztlich sogar die Kunst. Wie hilfreich ein solches Verständnis von Computational Thinking dann wohl noch ist, wenn eigentlich irgendwie alles CT ist?

Lehrbücher

Inzwischen habe ich mir eine Reihe von Lehrbüchern zugelegt, die das Wort „Computational Thinking“ im Titel führen. Hier zeigt sich, dass in der Praxis eine größere Einigkeit über die Bedeutung des „Computational Thinking“ herrscht als in der Theorie. Ein Überblick:

  • S. De Jesús, D. Martinez (2020): Applied Computational Thinking with Python
    Ein Einführungsbuch in die Informatik, das typische CT-Konzepte und insbesondere das Problemlösen mit einer Einführung in die Python-Programmierung kombiniert. Der Fokus liegt hier auf dem algorithmischen Denken, und das Buch taucht vergleichsweise tief in die Materie ein. Die Zielgruppe sind aber wohl angehende Informatiker (von denen das Buch in Rezensionen auch sehr gelobt wird) – für Nicht-Informatiker ist es dagegen wohl zu ambitioniert und besitzt zu wenige Verbindungen zum Problemlösen im Alltag.
  • P. Denning, M. Tedre (2019): Computational Thinking
    Dieses Buch hat sich zum Ziel gesetzt, zu erklären, was „Computational Thinking“ ist und was alles darunterfällt. Leider wählen die Autoren dazu die oben zitierte extrem breite Definition, unter die dann auch wirklich alle Bereiche der Informatik (einschließlich Hardwareentwurf, Betriebssysteme, Softwareengineering und aller Anwendungsdisziplinen) fallen. Die Inhalte, die hier jeweils kurz skizziert werden, sind für einen Nicht-Informatiker in der Kürze oft gar nicht nachzuvollziehen. So liest sich das Buch denn eher wie eine Kurzeinführung in die Geschichte der Informatik und lässt den Leser mit dem Gefühl zurück, dass CT wohl doch nur etwas für Informatiker ist.
  • K. Beecher (2017): Computational Thinking
    Die ersten 100 Seiten dieses Buches führen den Leser ein in die Themen, die ich für zentral im Computational Thinking halte: Logik, algorithmisches Denken, Problemlösen, Abstraktion, Modellierung, Fehlerbehandlung und Evaluierung. Danach folgen 140 Seiten, in denen diese Konzepte durch Programmierung praktisch umgesetzt werden. So löst der Autor recht elegant das Problem, dass Programmieren natürlich eine besonders elegante Art ist, grundlegende CT-Techniken zu erlernen und anzuwenden, dass es aber schwierig ist, dem unerfahrenen Leser Konzept und Programmierung gleichzeitig beizubringen.
  • P. Wang (2016): From Computing to Computational Thinking
    Der didaktische Ansatz hier ist eigentlich recht vielversprechend: Themen der Informatik werden diskutiert und dann in „CT-Kästchen“ in Beziehung zum Nicht-Informatiker-Alltag gesetzt. Allerdings wirkt die Themenauswahl recht willkürlich und umfasst Themen wie Betriebssysteme, Computernetze, Webseiten, Datenformate oder IT-Sicherheit. Erst ganz am Ende kommt der Autor auf das Thema, das für mich den Kern des Computational Thinking ausmacht, nämlich das problemlösende Denken.
  • D. Riley, K. Hunt (2014): Computational Thinking for the Modern Problem Solver
    Dieses Buch entspricht am ehesten dem, wie ich mir eine Aufbereitung der Thematik vorstelle. Es setzt kaum Vorkenntnisse voraus und führt den Leser durch Themen wie Informationskodierung, Logik, Problemlösen, Algorithmisches Denken, Modellierung, Datenorganisation, Korrektheitsprüfung und Grenzen der Berechenbarkeit. Allerdings wird hier nicht programmiert.

Man kann hier herauslesen, dass mein ursprüngliches Verständnis des Computational Thinking durchaus das ist, was auch von den meisten Buchautoren geteilt wird: Es geht im Kern um Denktechniken (Informationscodierung, Logik, Abstraktion/Modellierung, Algorithmik/Problemlösen, Robustheit, Evaluierung etc.), die beim Programmieren von Computern ebenso zum Einsatz kommen wie im beruflichen oder privaten Alltag.

Fazit

Meine anfängliche Begeisterung für die mögliche Zugkraft des Begriffs „Computational Thinking“ ist inzwischen einer gewissen Vorsicht gewichen, weil mir klar geworden ist, wie groß die Gefahr ist, dass jemand darunter etwas ganz anderes versteht als ich. Dies ist übrigens auch der Grund, warum ich diesen Blog stattdessen unter die Überschrift „algorithmisches Denken“ gestellt habe.

Ich werde den Begriff „Computational Thinking“ auch künftig nur zurückhaltend benutzen. Aber wenn ich es tue, dann ist damit das ursprüngliche Verständnis nach Wing von 2006 gemeint: Es geht mir um diejenigen Techniken der Informatik, die auch außerhalb des Computers von Interesse sind und dazu geeignet sind, das menschliche Denken zu verstehen und zu verbessern.

Kategorien
Uncategorized

Gedanken zum Suchraum-Modell

Es ist schon wieder drei Monate her, dass ich im Beitrag „Problemlösen als Suchproblem“ das Modell von Newell und Simon vorgestellt habe. Dabei wird ein Suchproblem durch einen Suchbaum charakterisiert: Ich habe einen Startzustand (den Wurzelknoten), verschiedene Handlungsalternativen (die Kanten im Baum), verschiedene Zwischenzustände (Knoten im Baum) und schließlich einen oder mehrere Zielzustände unterschiedlicher Güte, die erreicht werden sollen.

Bounded Rationality

Als Beschreibung der Situation beim Lösen von Problemen ist dieses Modell sehr einleuchtend. In der praktischen Anwendung tritt dabei aber das Problem auf, dass der Suchbaum oft exponentiell wächst und daher schnell zu groß wird, um überblickt zu werden. So gibt es beispielsweise beim Schachspiel schon nach sechs Halbzügen (dreimal weiß, dreimal schwarz) rund 107 mögliche Stellungen, und die Zahl der denkbaren Stellungen im Spiel insgesamt wird auf über 1043 geschätzt – eine Zahl, die so riesig ist, dass man sich den zugehörigen Suchraum gar nicht mehr vorstellen kann.

Ein vollständiges Durchsuchen des Suchraums ist also nicht möglich – beim Schach, aber auch bei den meisten Alltagsproblemen, die man lösen möchte. Newell und Simon gehen daher von zwei Annahmen aus:

  • Menschliche Entscheider suchen nicht nach optimalen Lösungen, sondern geben sich mit „zufriedenstellenden Lösungen“ zufrieden. Für dieses Verhalten prägte Herbert A. Simon den Begriff des Satisficings.
  • Menschliche Entscheider verwenden keine vollständigen Suchalgorithmen (wie es ein Computer typischerweise tut), sondern setzen auf Intuition und Daumenregeln. Später kam hierfür der Begriff der Heuristik auf.

Aus diesen beiden Komponenten entstand das Konzept der Bounded Rationality – Problemlöser suchen meist nicht nach optimalen Lösungen (und sind dazu für gewöhnlich auch gar nicht in der Lage), sondern nur nach Lösungen, die ein bestimmtes Zufriedenheitsniveau mit einem bestimmten Aufwand erreichen.

Die Rolle der Intuition

Die Frage, nach welchen Regeln Satisficing und Heuristik bestimmt werden, ist damit aber natürlich noch nicht beantwortet. Eine zentrale Rolle bei menschlichen Entscheidern kommt dabei wohl der Intuition zu – dem unbewussten Wissen, welche Vorgehensweise am ehesten zum Erfolg führt und womit man sich zufriedengeben sollte.

Die Psychologie weiß inzwischen, dass unsere Intuition umso besser ist, je mehr Erfahrung wir in einem bestimmten Anwendungsgebiet haben. Entgegen der landläufigen Auffassung, dass man entweder Sachverstand oder eine gute Intuition benötigt, ist die Intuition also ein Werkzeug, das umso wirksamer ist, je mehr Sachverstand man hat. Sie ist keine Gabe, über die wir alle verfügen und die wir überall anwenden können, sondern ein Ergebnis von anwendungsbezogenem Training.

Die Erkenntnis, dass wir nicht in allem genügend Expertise für gute Intuitionen entwickeln können, hat auch ursprünglich zum Siegeszug der Algorithmen geführt. Denn diese gibt es schon seit Jahrtausenden – nicht, um Computer damit zu füttern, sondern um auch solchen Personen das Bearbeiten bestimmter Probleme zu erlauben, die nicht genügend Erfahrung besitzen, um selbständig eine Lösung zu finden. Für sie liefert der Algorithmus eine Schritt-für-Schritt-Anleitung, mit der auch eine Person mit geringem Sachverstand das Problem bearbeiten kann.

Das Expertenproblem

Der Siegeszug der Computer führt nun aber dazu, dass wir genau solche Personen zunehmend weniger brauchen. Ein Computer mag eine „deprimierend dämliche Maschine“ sein, aber er ist gut darin, eine Schritt-für-Schritt-Anleitung schnell und fehlerfrei auszuführen. Aufgaben, deren Lösung durch einen Algorithmus beschrieben werden können, werden daher immer häufiger von Maschinen gelöst.

Was mich wieder zu einem der Dauerthemen dieses Blogs bringt: Dem Unterricht bzw. der akademischen Lehre. Wie bereits mehrfach erwähnt, konzentrieren sich beide derzeit mehrheitlich auf das Lernen von Fakten und das Anwenden von Standard-Lösungsverfahren, also genau auf die Dinge, die der Computer eigentlich besser kann als wir Menschen. Besonders bedauerlich ist dabei, dass genau das von vielen Studierenden auch noch gefordert wird.

Die Notwendigkeit echter Problemlösungskompetenz dagegen wird zwar von manchen Professoren durchaus erkannt. Doch aus den unter „Probleme lösen lernen“ beschriebenen Gründen ist man oft nicht konsequent genug, die Lehre (und die Prüfungen) so umzustellen, dass die Mehrzahl der Teilnehmer eine realistische Chance hat, sie zu erlernen.

Suchräume und AD(H)S

Beim Lesen des Buches „Mit ADHS erfolgreich im Beruf“ von Heiner Lachenmeier ist mir übrigens eine interessante Verbindung zu AD(H)S aufgefallen. Lachenmeier charakterisiert ADS ausdrücklich nicht als Aufmerksamkeitsstörung (im Gegenteil, unter den richtigen Umständen neigen ADSler ja sogar zum Hyperfokussieren), sondern dadurch, dass ADSler dazu neigen, ihre Gedanken zu weit vom „vorgesehenen Weg“ schweifen zu lassen.

Das kann man ganz gut mit dem Suchraum-Modell erklären. Demnach würde ein ADSler dazu neigen, in seinem Denken weniger „bounded“ im Sinne der bounded rationality zu sein – sein Geist verfolgt auch Pfade, die untypisch sind und die manchmal auch nicht zum Erfolg führen. Der Nachteil ist, dass sein Verhalten so von dem des typischen Denkers abweicht und dass er manchmal selbst vermeintlich einfache Probleme nicht oder nur mit übermäßigem Zeitaufwand löst, weil er sich im Suchbaum „verlaufen“ hat. Der Vorteil ist dafür, dass er manchmal sehr kreative Lösungen findet, weil er Denkwegen folgt, die andere gar nicht erst in Betracht ziehen. Hinzu kommt – und dieser Punkt ist mir wirklich erst durch Lachenmeiers Buch aufgefallen – dass er viel mehr Übung darin hat, größere Suchräume zu bearbeiten. Auf diese Weise ist er (wenn er es schafft, seinen Fokus auf einem Thema zu halten) u.U. in der Lage, Probleme zu lösen, die sonst niemand lösen konnte.

Zugegeben, das ist reine Küchenpsychologie – ich habe keine Studien dazu durchgeführt oder Paper dazu gelesen. Aber es würde den hohen Anteil von ADS-Denkern sowohl unter Künstlern als auch unter erfolgreichen Wissenschaftlern erklären.

Ein offenes Problem

Aber so sehr ich mich für das Suchraum-Modell begeistern kann (für einen Informatiker ist wahrscheinlich alles, was mit Suchbäumen zu tun hat, automatisch reizvoll), so sehr wurmt mich, dass es sich eben nur um ein Modell handelt.

Es beschreibt zwar mathematisch korrekt, wie man ein Suchproblem strukturieren kann. Aber es beschreibt dummerweise nicht, wie unser Gehirn tatsächlich beim Lösen von Problemen vorgeht.

Zur Erinnerung: Unser Gehirn enthält zwar auch „Knoten und Kanten“ (nämlich Neuronen und Synapsen) wie ein Baum oder Graph, aber diese Neuronen entsprechen wohl kaum den Zwischenzuständen beim Lösen eines Problems. Mein Verständnis der „Hardware“ unseres Gehirns ist leider nicht so gut, wie ich es mir wünschen würde, aber je mehr ich mich damit beschäftige, desto mehr beschleicht mich der Verdacht, dass es den (Neuro-)Psychologen da nicht wirklich anders geht. Soweit ich verstanden habe, können wir trotz aller Forschung ganz elementare Fragen wie „Wie speichert unser Gehirn (physisch) eine komplexe Erinnerung?“ oder „Wie findet das Gehirn (physisch) eine Lösung zu einem Optimierungsproblem?“ genau genommen bis heute nicht beantworten. Es gelingt mir daher derzeit noch nicht, das Suchraum-Modell auf unser Modell des menschlichen Gehirns abzubilden.

Vielleicht liest ja ein Neuropsychologe oder KI-Experte mit und versorgt mich im Kommentarbereich mit hilfreichen Links, die meiner pessimistischen Einschätzung widersprechen. Aber bis dahin fürchte ich, dass das schöne Suchraum-Modell eben nur genau das ist: ein Modell.

Kategorien
Uncategorized

Menschen und Wahrscheinlichkeiten

So, nach über zwei Monaten Funkstille soll hier auch langsam wieder Leben in den Blog kommen. Wobei ich diesen Artikel eigentlich schon länger im Kopf habe, aber da er auch politische Themen berührt, habe ich ihn lange vor mir hergeschoben.

Ein Impfgegner-Argument

Es gibt ja verschiedene Gründe, aus denen Menschen eine Corona-Impfung ablehnen. Darüber will ich hier gar nicht urteilen, aber ich möchte ein spezielles Argument herauspicken, das ich im letzten halben Jahr insbesondere im Kommentarbereich verschiedener Zeitungen immer wieder gelesen habe und das ein Kernproblem beim rationalen Denken beleuchtet.

Das Argument geht grob wie folgt: „Ja, wer nicht geimpft ist, kann sich mit Corona anstecken / einen schweren Verlauf erleiden. Aber wer geimpft ist, kann sich auch mit Corona anstecken / einen schweren Verlauf erleiden. Also kann man das mit der Impfung auch lassen.“

Dabei ist die erste Hälfte des Arguments zweifellos richtig: Ja, man kann auch trotz Impfung mit Corona infiziert werden bzw. einen schweren Verlauf erleiden. Der Unterschied nach dem aktuellen Stand der Forschung besteht in der Wahrscheinlichkeit, mit der dies geschieht. So sagen die Statistiken, dass die Wahrscheinlichkeit, im August 2021 an Covid zu erkranken, ohne Impfung knapp 7-mal so hoch war wie mit Impfung. Und die Wahrscheinlichkeit, im gleichen Monat als Ungeimpfter wegen Covid auf der Intensivstation zu landen, war sogar 13-mal so hoch wie mit Impfung.

Damit ist die Folgerung „Also kann man das mit der Impfung auch lassen“ natürlich nicht mehr haltbar: Wenn eine Handlung die Wahrscheinlichkeit, mit der ein Ereignis eintritt, verändert, muss dies auch die Bewertung der Handlungsalternative verändern. Das geschieht aber in vielen Fällen nicht, stattdessen wird eine Handlungsalternative als wertlos deklariert, wenn sie keine 100%-ige Erfolgsgarantie gibt.

Ein Blick auf die Wissenschaft

Diese Art der Argumentation trifft man auch in vielen anderen Kontexten, besonders dann, wenn jemand rationalisiert, um mit einer kognitiven Dissonanz ins Reine zu kommen. Der alte Spruch „Saufst, stirbst. Saufst net, stirbst ah!“ mag hier als Beispiel dienen.

Vor kurzem habe ich mir nun die Frage gestellt, ob diese Denkweise auch eine Ursache für die zunehmende Wissenschaftsskepsis in der westlichen Gesellschaft ist. Denn in den meisten Fällen kann Wissenschaft ja auch keine absoluten Wahrheiten verkündet – sie versucht vielmehr, sich durch Versuch und Irrtum der Wahrheit anzunähern. Die Wahrscheinlichkeit, dass die so entwickelten Modelle die Wirklichkeit korrekt vorhersagen, ist zwar für gewöhnlich deutlich höher als bei rein anekdotischem Denken („Ich kenne jemandem, bei dem hat das funktioniert!“), aber sie liegt dennoch nicht bei 100%.

Speziell für den Laien, der mit Wahrscheinlichkeiten nicht umzugehen versteht, ist das nur schwer verständlich. Dieses Problem wird noch verschärft, wenn Wissenschaftler mit einem Wahrheitsanspruch auftreten, den ihre Disziplin gar nicht erfüllen kann. Dann sieht der Laie nur den Experten, der X sagt, und den anderen Experten, der X bestreitet, und kommt zu dem Schluss, dass die ja offensichtlich auch nicht wissen, wovon sie reden. Dass es hinter den Kulissen ebenfalls um Wahrscheinlichkeiten geht (die teilweise nicht einmal wirklich quantifiziert werden können), bleibt für den Außenstehenden unsichtbar und unverständlich.

Wirklich kritisch ist aber, wenn Wissenschaftler selbst vergessen, was Wissenschaft kann und was nicht. Dies gilt zum einen für Anhänger bestimmter Denkschulen, die der Einfachheit halber ihre Schule für „wahr“ und die anderen für „falsch“ deklarieren. Es gilt aber auch für so manchen Philosophen, der aus der korrekten Beobachtung „Wir können nicht zu 100% sicher sein, dass unsere Beobachtung der Wirklichkeit wahr ist“ die völlig überzogene Folgerung „Es gibt keine objektive Wahrheit“ gezogen und damit den alternative facts Tür und Tor geöffnet hat.

Ich würde ja voller Enthusiasmus fordern, dass wir endlich anfangen müssen, schon in den Schulen den Umgang mit Wahrscheinlichkeiten zu lehren. Auch müssten wir den Menschen beibringen, dass ein wissenschaftliches Erklärungsmodell zwar besser ist als seine Vorgänger, wenn es mit höherer Wahrscheinlichkeit korrekte Vorhersagen trifft, dass es aber immer noch ein Erklärungsmodell bleibt und keine absolute, ewige Wahrheit. Aber wenn schon die Wissenschaftler selbst sich darüber oft nicht mehr im Klaren sind, dann haben wir wahrlich einen weiten Weg vor uns.

Kategorien
Uncategorized

Rezension: The Most Human Human

Das Buch „The Most Human Human“ von Brian Christian steht schon auf meiner Rezensionsliste, seit ich es im Frühjahr 2020 gelesen habe. Aber worum geht es dabei überhaupt?

The Most Human Human (2011)

Der Loebner-Preis

Schon zu Zeiten Alan Turings (als Computer noch eher so etwas wie Gedankenexperimente oder bestenfalls Prototypen waren) stellte man sich die Frage, wann eine solche „Denkmaschine“ wirklich als intelligent gelten könne. Turing beantwortete diese Frage mit seinem berühmt gewordenen Imitation Game, bei dem ein menschlicher Juror (z.B. an einer Konsole) herausfinden soll, ob er gerade mit einem Computer oder einem echten Menschen kommuniziert. Wenn ein Computer in einem solchen Test nicht als solcher erkannt werden kann, muss man ihm Intelligenz zugestehen.

Im Jahr 1990 lobte der Erfinder und Aktivist Hugh Loebner erstmals einen Preis aus für dasjenige Computerprogramm, das sich bei einem solchen Turing-Test (wie das Imitation Game heutzutage heißt) am besten schlagen würde. Seither hat der Wettbewerb jährlich stattgefunden, bis das Format im Jahr 2019 geändert wurde. Das erfolgreichste Programm gewinnt dabei den Titel des „Most Human Computer“.

Das Format des Wettbewerbs wurde allerdings von KI-Forschern stark kritisiert. So führt die Beschränkung der Kommunikation auf wenige Minuten dazu, dass erfolgreiche Programme eher mit Tricks als mit echter kommunikativer Intelligenz erfolgreich sind. Manche von ihnen arbeiten einfach mit riesigen Datenbanken echter menschlicher Kommunikation, aus der sie geeignete Antworten auswählen, andere schinden schlicht Zeit (durch Ablenkung, Abschweifen in eigene Spezialgebiete, Witze, das Stellen von Gegenfragen usw.), bis der Gong ertönt.

The Most Human Human

Es gibt aber auch einen zweiten Preis, und zwar für denjenigen menschlichen Teilnehmer, bei dem sich die Juroren am sichersten waren, dass es sich um einen Menschen handelt. Im Jahre 2009 nahm Brian Christian (der Abschlüsse in Informatik und Philosophie hat und sich daher gewissermaßen dafür prädestiniert fühlte) am Loebner-Preis teil mit der festen Absicht, die Ehre der Menschheit zu verteidigen. Tatsächlich wurde er der „The Most Human Human“ – auch, weil er sich sehr gut vorbereitet hatte. In dem Buch, um das es hier geht, beschreibt er, wie er das gemacht und was er dabei über menschliche Intelligenz und Kommunikation gelernt hat.

Tatsächlich sind seine Befunde stellenweise niederschmetternd. Kurz zusammengefasst kann man sagen, dass Computer uns nicht deshalb in immer mehr Bereichen überlegen sind, weil sie intelligenter wären als wir, sondern weil wir immer mehr Situationen so gestalten, dass unsere natürlichen Fähigkeiten zur Kommunikation und zum Problemlösen gar nicht mehr benötigt werden. Wir gehen in Gespräch, in Beruf und Alltag immer schematischer vor, so dass auch eine Maschine diese Aufgaben übernehmen kann, ohne dass wir den Unterschied noch bemerken. Wenn sich unsere Gespräche nur auf dem Niveau von „Gibst du mir mal den Flaschenöffner?“ oder „Wie war’s heute?“ – „Hmm. Okay.“ bewegen, können sie natürlich auch von Siri, Alexa & Co. übernommen werden.

Wirklich erschreckend fand ich die Beobachtung, dass sogar die Vorgehensweise der Pick-Up-Artists, die mit standardisierten Verfahren versuchen, Frauen zu erobern, im Grunde nichts anderes als Algorithmen sind. Was für sich genommen kein Problem wäre, wenn sie nicht immer wieder erfolgreich wären. Vor lauter Schreck habe ich direkt im Anschluss Neil Strauss‘ berüchtigte autobiografisches Buch „The Game“ gelesen, und ich muss sagen: da tun sich Abgründe auf, für die die bösen Informatiker nun wirklich nichts können…

Aber es gibt auch viele andere Beispiele. So führen die Wort- und Satzergänzungen, die von Messenger-Programmen von Handys verwendet werden, dazu, dass so mancher nicht mehr das schreibt, was er eigentlich vorhatte, sondern was das Programm ihm vorschlägt. So wird das stochastische Sprachmodell, das die Software verwendet, zur selbsterfüllenden Prophezeiung, und wie in so manch anderem Bereich (beispielsweise der Google-Suche oder dem Einkauf auf Amazon) wird das, was bereits besonders häufig ist, mit jeder Iteration noch häufiger. Dass Sprache dadurch verarmt, kann jeder bestätigen, der bereits seit längerem Aufsätze korrigiert und die Trends lesen kann. Und die resultierende, verarmte Sprache ist eine, die der Computer deutlich besser imitieren kann…

Ich könnte noch zahlreiche weitere Beispiele aus dem Buch nennen, aber vielleicht reicht ja das, was ich angedeutet habe, bereits aus. „The Most Human Human“ ist ein sehr intelligentes (und überdies sehr lesbares) Buch, das uns zum Nachdenken anregen will darüber, was uns als Menschen ausmacht und auch, was wir aufgeben, wenn wir dem Weg der fortschreitenden Standardisierung weiter folgen.

tl,dr: Leseempfehlung!

Kategorien
Uncategorized

Computer Science Unplugged

Durch den Hinweis eines Kollegen bin ich über einen Artikel von Tim Bell mit dem Titel „CS Unplugged or Coding Classes?“ (Link) gestolpert, der in den Communications of the ACM veröffentlicht wurde. Darin beschreibt der Autor eine Diskussion, die in entsprechenden Kreisen wohl schon länger stattfindet und die mich ein Stück weit ratlos zurücklässt.

Zum Hintergrund: In den 1990er Jahren wurde Informatik teilweise ohne Computer unterrichtet, einfach weil es in Schulen gar keine keine entsprechende Hardware gab. Aber auch als die Ausstattung der Schulen besser wurde, wurden Ideen der Unplugged-Informatik beibehalten als Ergänzung zur Arbeit „an der Maschine“.

Extrempositionen, schon wieder

Das Überraschende für mich ist, dass die Diskussion über die Rolle der Unplugged-Informatik wohl teilweise von Extrempositionen aus geführt wird. Scheinbar gibt es ernsthaft Leute, die die Auffassung vertreten, man solle jede verfügbare Informatik-Minute auch am Computer zubringen. Und es gibt offenbar auch Leute, die der Meinung sind, man könne speziell die Ideen des Computational Thinking (auf das ich demnächst einmal ausführlicher eingehen muss) doch auch prima ganz ohne Computer vermitteln.

Das bringt mich zu einem Punkt, den ich in diesem Blog schon mehrfach angesprochen habe und der allmählich zu einer Art Mantra zu werden scheint: Ist es eigentlich tatsächlich so schwer, Mittelwege gehen? Muss wirklich jede Diskussion auf „alles oder nichts“ hinauslaufen? In welchem Bereich des wirklichen Lebens hätten denn solche Extrempositionen jemals funktioniert?

Käme beispielsweise jemand auf die Idee, das Schreinerhandwerk völlig ohne Kontakt zu Holz zu unterrichten? Oder besteht umgekehrt eine Schreinerlehre ausschließlich aus dem Hand-Werk, ohne Theorie, Material- und Werkzeugkunde oder künstlerischer Anwendung? Wird jemand ein herausragender Musiker, wenn er niemals ein Instrument spielt? Oder indem er endlos Partituren übt ohne sich jemals mit Theorie, Komposition, Geschichte oder der Wirkung von Musik auf Menschen zu beschäftigen?

Selbstwirksamkeit und Selbstkontrolle

Bell bezieht in seinem Artikel auch klar Position gegen eine ausschließliche Unplugged-Informatik. Sein Hauptargument dabei ist, dass das tatsächliche Arbeiten mit dem Computer den Schülern das Gefühl gibt, tatsächlich etwas erschaffen und verändern zu können – die berühmte Selbstwirksamkeit, ein Aspekt, der leider in allzu vielen Bereichen der Schule zu kurz kommt.

An dieser Stelle sei mir ein kleiner Exkurs erlaubt. Ich liebe den TEDx-Talk der großartigen Temple Grandin, in dem sie verschiedene Arten zu denken diskutiert und wie die Schule nicht diese jeweiligen Stärken fördert, sondern den durchschnittlichen Schüler, der ein bisschen von allem kann, bevorzugt. Vor allem aber betont sie auf ihre unnachahmliche Art, dass Selbstvertrauen und die Fähigkeit, Dinge zu erschaffen, nur entstehen, wenn wir aus Erfahrung gelernt haben, dass wir einen Unterschied in der realen Welt machen können. Ein Schulsystem, das Kindern diese fundamentale Erfahrung weitgehend vorenthält, hält sie genau wie ich für eine Katastrophe.

Vor diesem Hintergrund ist die praktische Arbeit mit dem Computer tatsächlich eine der wenigen, die Schülern und Studenten heutzutage überhaupt offenstehen. Darauf zu verzichten (aus welchen Gründen auch immer) beraubt sie der Möglichkeit, wenigstens an dieser Stelle einmal kreativ zu werden, etwas Konkretes, Funktionierendes zu erschaffen und nicht allein der Welt des Abstrakten zu verbleiben.

Ich persönlich schätze aber auch noch eine andere Eigenschaft des Computers in der Ausbildung, und zwar auch dann, wenn das Ziel gar nicht Informatik, sondern „nur“ Computational Thinking heißt: Der Computer ist ein unbestechlicher Schiedsrichter. Er lässt sich auf keine Diskussionen ein, ob die eigene Lösung nicht eigentlich doch brillant ist (und nur der Lehrer zu ignorant, um diese Brillanz zu erkennen) – wenn das Programm nicht läuft oder nicht das tut, was man erwartet hat, dann hat man etwas nicht verstanden und muss so lange weitermachen, bis man den Fehler gefunden hat. In der Informatik-Ausbildung ist das ein Grund, warum manche das Programmieren nicht mögen – es nimmt ihnen die Ausreden und zwingt sie, sich mit dem Thema wirklich so lange auseinanderzusetzen, bis sie den Durchbruch geschafft haben.

Kritische Leser mögen einwenden, dass das ein wenig nach konvergentem Denken klingt, also danach, dass man die eine, richtige Antwort finden soll und dass Kreativität dabei eher fehl am Platz ist. Das ist aber ein weit verbreitetes Missverständnis. Für jedes echte Informatik-Problem gibt es (beweisbar) unendlich viele Lösungen, und das Entwickeln einer guten und effizienten Lösung ist tatsächlich in den meisten Fällen eine kreative Tätigkeit, die in den Bereich des divergenten Denkens fällt. Das bedeutet aber nicht, dass man sich bei der praktischen Umsetzung Schlampigkeit erlauben darf, was die Programmierung übrigens mit dem Kunsthandwerk gemeinsam hat: Wenn ich mein Werkzeug nicht beherrsche, kann ich meine kreativen Ideen eben nicht umsetzen. Und eine Idee, die in der praktischen Umsetzung nicht funktioniert, ist eben doch nicht genial, sondern nur ein Traumgebilde.

Damit schließt sich übrigens auch der Kreis zum Mastery Learning, das ich an anderer Stelle bereits diskutiert habe. Es sollte nicht das Ziel von Ausbildung sein, alles mal angesprochen, aber nichts wirklich verstanden zu haben. Die Arbeit am Computer ist in besonderer Weise dazu geeignet, dem Lernenden ein Mittel zur Selbstkontrolle an die Hand zu geben. So kann er sich eine Arbeitsweise aneignen, bei der ein Thema wirklich verstanden wird – es muss verstanden werden, sonst läuft das Programm nicht.

Zusammenfassend würde ich daher davon ausgehen, dass der Unterricht in Informatik (und auch Computational Thinking) davon profitiert, wenn man den Mittelweg geht, d.h. sowohl Unplugged-Elemente als auch Programmierung einsetzt. Und die Studien, die im Artikel von Tim Bell zitiert wird, deuten darauf hin, dass diese Intuition richtig ist. Zum Glück.

Kategorien
Uncategorized

Problemlösen als Suchproblem

Das Modell von Newell und Simon

Die legendären Psychologen und KI-Pioniere Allen Newell und Herbert A. Simon beschrieben das Problemlösen in ihrem Buch Human Problem Solving (1972) in Form eines Suchproblems. Dazu überlegt man sich Folgendes:

  • Zu Beginn befindet sich das Problem in einem Startzustand. Ziel der Problemlösung ist es, einen Endzustand mit bestimmten Eigenschaften zu finden. Je nach Art des Problems kann es einen oder viele Endzustände geben (oder sogar die Erkenntnis, dass es keinen Endzustand gibt, der die gewünschten Eigenschaften besitzt).
  • Der Problemlöser verfügt über eine Reihe sogenannter Operatoren, mit denen er das Problem in einen neuen Zustand überführen kann.
  • Bei einem „echten“ Problem reicht es nicht aus, nur einen einzigen Operator anzuwenden, um in einen Zielzustand zu gelangen. Man muss eine Kombination von Operatoren finden, mit denen man in mehreren Schritten zum Ziel gelangt.

Die Menge aller möglichen Problemzustände wird auch als Problemraum bezeichnet – die Kunst des Problemlösens besteht dann darin, diesen Problemraum so effizient wie möglich zu durchsuchen.

Beispiel: Verschiebepuzzle

Beginnen wir mit einem künstlichen, stark verregelten Problem mit einem einzigen Zielzustand: einem sogenannten Verschiebepuzzle. Das nachstehende Beispiel zeigt auf der linken Seite einen möglichen Startzustand; Ziel ist es, den auf der rechten Seite abgebildeten Zielzustand zu erreichen. Dabei darf in jedem Schritt immer nur ein Stein verschoben werden, indem er auf das freie Feld bewegt wird.

Verschiebepuzzle – Start- und Zielzustand

Je nach Situation auf dem Brett sind daher pro Schritt maximal 4 verschiedene Züge möglich. Im ersten Zug können beispielsweise die Steine 4, 5, 1 oder 8 bewegt werden. Im zweiten Zug entstehen dann wieder andere Möglichkeiten, wie im folgenden Suchbaum dargestellt:

Verschiebepuzzle – erste Züge

Um eine Lösung zu finden, muss man eben diesen Baum durchsuchen. Da aber bereits ein Suchbaum mit nur 10 Zügen (die meist nicht ausreichen) knapp 75.000 Zustände besitzt und somit von einem Menschen nicht mehr vollständig durchsucht werden kann, braucht man eine Strategie, die klüger ist als „einfach mal alles ausprobieren“. Hilfreich sind dabei beispielsweise ein Qualitätsmaß (Ist der neue Zustand besser oder schlechter als der vorangegangene?), Erfahrung (Routinierte Spieler können oft gedanklich mehrere Züge zu einem einzigen Operator zusammenfassen und sparen so viel Zeit) und die Fähigkeit, mehrere Züge voraus zu denken und zu bewerten, ohne sie tatsächlich ausführen zu müssen.

Real-Life Problems

Nun mag das obige Beispiel noch recht konstruiert wirken, aber letztlich geschieht beim Lösen von Alltagsproblemen auch nichts anderes.

Stellen Sie sich vor, Sie kommen eines Abends aus dem Training und stellen fest, dass ein Reifen an ihrem Auto platt ist. Es ist dunkel, Sie können kaum etwas erkennen. Was tun Sie? Sie können zum Telefon greifen und den ADAC (oder einen kompetenten Freund) anrufen. Sie können ins Fitnessstudio zurückgehen und dort nach Hilfe fragen. Sie können sich selbst an die Arbeit machen und dabei feststellen, dass in Ihrem Auto gar kein Ersatzrad liegt (wie sie es in der Fahrschule vielleicht noch gelernt haben), sondern lediglich ein Reparaturkasten. Lernen Sie jetzt auf die Schnelle, Reifen zu reparieren? Suchen Sie sich jetzt doch Hilfe? Oder fahren Sie den Wagen einfach mit gesetztem Warnblinker auf der Felge heim? Letztlich stehen Sie vor einer Vielzahl von Handlungsalternativen, die unterschiedliche Vor- und Nachteile haben und oft auch nicht in einem Schritt zur Lösung führen, sondern weitere Schritte nach sich ziehen. Was genau Sie tun können, hängt von den Operatoren ab, die Ihnen zur Verfügung stehen, und unterscheidet sich von Person zu Person – der eine hat viele Bekannte, die er um Hilfe bitten könnte, der andere hat schon einmal einen Reifen repariert usw. Und zu guter Letzt mag auch jeder andere Anforderungen an den Zielzustand stellen – der eine will einfach nur nach Hause und hat kein Problem damit, den Wagen morgen von der Werkstatt abholen zu lassen, der andere will seinen fahrbaren Untersatz so schnell wie möglich wieder fahrtauglich bekommen.

Der Hauptunterschied zwischen Alltagsproblemen und konstruierten Problemen vom obigen Typ ist, dass die Zahl der Operatoren und möglichen Zustände bei Alltagsproblemen für gewöhnlich deutlich größer ist. Auch gibt es meist nicht nur einen einzigen Zielzustand, sondern eine ganze Reihe möglicher „Lösungen“, die unterschiedlich gut sind und mit unterschiedlichem Aufwand erreicht werden können. Unser Gehirn verwendet daher zum Problemlösen Heuristiken – es macht sich gar nicht erst die Mühe, eine perfekte Lösung zu finden, sondern versucht mit einem Näherungsverfahren eine akzeptable Lösung zu finden, die mit überschaubarem Aufwand erreicht werden kann.

Letztlich handelt es sich aber auch hier um ein Suchproblem, das durch einen Baum modelliert werden kann (auch wenn der Baum wahrscheinlich zu groß ist, um ihn aufzuschreiben). Informatiker erkennen die Art von Algorithmen, mit denen man solche Bäume durchsucht, sofort, und wir werden sie uns in den nächsten Beiträgen genauer ansehen – auch, weil sie uns helfen, die verschiedenen Klassen von Problemen und die dafür geeigneten Suchstrategien zu unterscheiden.