Kategorien
Uncategorized

Ein Lob der Prokrastination

„Prokrastination“ ist eines dieser Modewörter, die vor 25 Jahren noch kaum jemand kannte und die heute in aller Munde sind. Auf Deutsch spricht man auch von „Aufschieberitis“: Wer prokrastiniert, schiebt seine Aufgaben vor sich her, statt sie zu erledigen. Morgen, morgen, nur nicht heute… Gearbeitet wird erst, wenn die Deadline so nahe ist, dass die Panik sich auch von der besten Netflix-Serie nicht mehr unterdrücken lässt.

Prokrastination ist gerade für Personen, die sich ihre Zeit selbst einteilen können, ein riesiges Problem. An Hochschulen beispielsweise wird von Studierenden, aber sicherlich auch von so manchem Professor prokrastiniert, was das Zeug hält. So mag es nicht überraschen, dass es sogar Anti-Prokrastinationskurse gibt, und in so manchem Kurs zum Zeitmanagement wird ausgiebig diskutiert, was man gegen Prokrastination tun kann.

Die Phasen des kreatives Problemlösens

Wer schon einmal in der Verlegenheit war, ein größeres Denkproblem lösen zu müssen, und dabei erfolgreich war, der kennt vermutlich die folgenden Phasen des kreativen Problemlösens (z.B. nach Graham Wallas: The Art of Thought):

  1. Vorbereitung (preparation): Man beschäftigt sich anfangs intensiv mit dem Thema – man denkt darüber nach, schmiedet Pläne, sammelt Informationen, probiert Ideen aus usw. Dabei stellt sich irgendwann heraus, dass die gewohnten Methoden nicht zum Ziel führen – man steckt fest.
  2. Inkubation (incubation): Die eigentliche Erkenntnis, die man sucht, lässt sich häufig durch bewusstes Nachdenken nicht erzwingen. Der Verstand benötigt Zeit, um das Problem umzustrukturieren – ein unbewusster Prozess, der nicht selten stattfindet, während man etwas gänzlich anderes tut.
  3. Erkenntnis (illumination): Irgendwann fällt der sprichwörtliche Groschen – die Erkenntnis trifft den Problemlöser nicht selten wie der sprichwörtliche Blitz aus heiterem Himmel.
  4. Überprüfung (verification): Nicht jede Idee, die man hat, ist auch wirklich eine brauchbare Lösung. Sie muss daher überprüft werden – sie wird überdacht, ausprobiert, diskutiert o.ä.

Nach meiner Erfahrung sind alle vier Schritte beim kreativen Problemlösen unumgänglich. Gerade Schritt 2 wird dabei bei planerisch veranlagten Menschen gerne vergessen: Man schreibt einfach in den Kalender „8:00-12:00: Problem X lösen“ und vergisst dabei, dass das so gar nicht funktioniert. Ja, man muss sich intensiv mit dem Problem beschäftigen, aber dann muss man loslassen und das Unterbewusstsein seine Arbeit tun lassen. Ob man in der Zeit spazierengeht (wie es erstaunlich viele berühmte Mathematiker getan haben), eine Raucherpause einlegt, mit den Kollegen oder Kommilitonen quatscht oder Tischfußball spielt, ein Nickerchen macht, Sport treibt oder den Abwasch erledigt, spielt dabei keine große Rolle. Wichtig ist nur, dass das Gehirn sich nicht übermäßig anstrengen muss, damit Ressourcen für das Lösen des Problems zur Verfügung stehen. Und nicht selten wird man dann irgendwann mit einem Heureka-Moment belohnt. Bei mir selbst ist dies beispielsweise oft morgens direkt nach dem Aufwachen der Fall – das Gehirn hat mein Problem vom Vortag sprichwörtlich im Schlaf gelöst. Nicht jede Idee, die dabei herauskommt, taugt auch etwas (dafür hat man dann ja Schritt 4), aber ohne die Inkubationspause gibt es gar nicht erst eine Idee.

Zurück zur Prokrastination

In einem TED-Talk erklärt Psychologe Adam Grant, dass die so gefürchtete Prokrastination in Wirklichkeit genau hier ihren Nutzen hat: Sie zwingt uns, die Pause einzulegen, die das Gehirn benötigt, um das Problem zu lösen. Als kreative Denker sind nach seiner Analyse vor allem solche Menschen erfolgreich, die ein Projekt zunächst intensiv starten, dann prokrastinieren und dann gegen Ende (z.B. zur Deadline) hin wieder Vollgas geben.

Natürlich gibt es dafür eine Reihe von unabdingbaren Voraussetzungen. Zunächst einmal bringt natürlich auch das intensivste Prokrastinieren nichts, wenn man es versäumt hat, sich zuvor intensiv mit dem Thema auseinanderzusetzen. Und „intensiv“ ist hier wirklich das Zauberwort: Es genügt nicht, sich mal eben die Aufgabenstellung durchzulesen und dann vor den Fernseher zu fallen in der Erwartung, dass die Ideen dann schon kommen werden. Man muss mit der Fragestellung kämpfen, bis man guten Gewissens sagen kann: „Ich habe alles gemacht, was mir jetzt eingefallen ist“. Aber dann ist der richtige Zeitpunkt zum Prokrastinieren: dafür, etwas ganz anderes zu tun, damit das Unterbewusstsein seinen Job erledigen kann.

Ebenfalls wichtig ist es, die Prokrastination irgendwann zu beenden. Denn nicht selten gibt das Gehirn die neuen Ideen erst dann frei, wenn man wieder anfängt, sich mit dem Thema zu beschäftigen. Und es muss ja auch noch genügend Zeit sein, um diesen Prozess zu wiederholen, falls die erste Idee nicht gleich der Gewinner ist.

Mir ist schon klar, dass es pathologische Fälle von Prokrastination gibt, bei denen die Betroffenen überhaupt nichts mehr fertig bekommen und dringend Hilfe benötigen. Aber die „kleine Prokrastination“, die ich selbst mir als Student immer wieder zum Vorwurf gemacht habe (Aufgabenblatt anfangen, nicht mehr weiterkommen, Minesweeper spielen, Aufgabenblatt kurz vor der Deadline doch noch lösen), ist in Wahrheit ein ziemlich cleverer Mechanismus unseres Gehirns, um uns dazu zu bringen, die dringend benötigte Denkpause einzulegen, die neue Erkenntnisse überhaupt erst ermöglicht.

Natürlich muss man das Ganze nicht „Prokrastination“ nennen, und natürlich kann man solche Pausen auch ganz bewusst im Tagesplan vorsehen. Es mag kein Problem sein, acht oder zehn Stunden am Stück Routineaufgaben nachzugehen. Aber wenn die eigene Tätigkeit darin besteht, neue Probleme zu lösen (oder beispielsweise neuen Stoff zu verstehen), dann sind Inkubationspausen unabdingbar. Man sollte sie nicht verteufeln, indem man sie als „Aufschieberitis“ schlechtredet, sondern sie ganz bewusst zu einem festen Teil des Tagesablaufs machen.

Kategorien
Uncategorized

Wenn plötzlich der Groschen fällt

Insight Problems

In den letzten Tagen habe ich mich unter anderem mit sogenannten „Insight Problems“ beschäftigt. Dabei handelt es sich um solche Probleme, die man nicht einfach lösen kann, indem man eine bekannte Methode darauf anwendet (wie beispielsweise bei einer Rechenaufgabe). Man braucht ein Aha-Erlebnis, also einen wie auch immer gearteten Durchbruch (eben die Insight), um sie zu lösen.

Man kann sich dazu vorstellen, dass das Gehirn zu Beginn der Problemlösung eine Art mentalen Suchraum erstellt. Wie schon in den letzten Beiträgen beschrieben, sind verwandte Konzepte im Gehirn miteinander vernetzt; auf diese Weise wird gewissermaßen ein Graph aufgespannt, der dann durchsucht wird. Wird auf diese Weise keine Lösung gefunden, so spricht man von einem Impasse (einer Sackgasse).

Bei Insight-Problemen ist es üblicherweise so, dass man diesen mentalen Suchraum verändern muss, um zu einer Lösung zu gelangen. Durch eine andere Sicht auf das Problem können plötzlich falsche Wege wegfallen (und das Problem so übersichtlicher machen), neue Wege hinzukommen (und so neue Lösungen ermöglichen) oder die Wege neu angeordnet werden.

Eine Möglichkeit ist dabei die Constraint Relaxation. Der Gordische Knoten ist ein berühmtes Beispiel dafür: Angeblich hatte ein Orakel vorhergesagt, dass derjenige, der diesen Knoten lösen könne, die Herrschaft über Asien erringen würde. Natürlich haben es viele versucht, und alle sind gescheitert. Bis Alexander der Große die Idee hatte, den Knoten schlicht mit dem Schwert zu durchschlagen: Er hatte erkannt, dass der Constraint, an dem alle anderen gescheitert waren (nämlich dass es darum ging, den Knoten aufzubinden), gar nicht wirklich Teil der Aufgabenstellung war. Es ging schließlich nur darum, den Knoten zu lösen – davon, dass das Seil hinterher noch an einem Stück sein muss, war nirgends die Rede.

Ein anderes bekanntes Beispiel für Constraint Relaxation ist das Neun-Punkte-Problem, das man immer mal wieder in Rätselheften findet. Gegeben sind neun Punkte in der folgenden Anordnung:

Neun-Punkte-Problem

Die Aufgabe besteht nun darin, diese Punkte ohne den Stift abzusetzen durch vier zusammenhängende, gerade Linien zu verbinden. Wer das Problem nicht kennt, wird dabei typischerweise zunächst scheitern – es scheint keine Möglichkeit zu geben, mit weniger als 5 Linien auszukommen. Das Problem wird erst lösbar, wenn man sich von der Vorstellung löst, dass jede Linie an einem der Punkte beginnen und enden muss: Lässt man Linien zu, die über den „Rand“ des obigen Quadrats hinausgehen, so wird das Problem lösbar (siehe Anhang).

Im Alltag haben wir es erstaunlich häufig mit Problemen zu tun, die auf den ersten Blick nicht lösbar scheinen, bis man sich von Einschränkungen trennt, die man aufgrund der Ausgangssituation gemacht hat, die aber genau genommen gar nicht wirklich erforderlich waren. Im Folgenden will ich von einem Beispiel berichten, wo mir dies diese Woche selbst passiert ist.

Flipped Classroom

Auch aufgrund dessen, was ich in diesem Blog über den Sinn und Unsinn unserer derzeitigen Lehrmethoden geschrieben habe, habe ich mich immer mal wieder mit dem Prinzip des Flipped Classroom beschäftigt. Dieses invertiert die Rolle von Präsenz- und Heimlernen wie folgt:

  • In der klassischen Lehre wird in erster Linie der Stoff in Präsenz (z.B. in Form von Vorlesungen) vermittelt. Eingeübt wird er dann daheim. Auf diese Weise wird in der Vorlesung nur die unterste Stufe der Bloom’schen Taxonomie (siehe z.B. unter „Wer will wirklich Probleme lösen?„) durch den Dozenten gelehrt. Die oberen Stufen (also den anspruchsvolleren Teil) dagegen sollen sich die Lernenden dagegen selbst beibringen.
  • Beim Flipped Classroom geht man umgekehrt vor. Die Lernenden erhalten Lehrmaterial (z.B. Lernvideos oder Lehrbriefe), das sie daheim zur Vorbereitung des Unterrichts durcharbeiten. Der Unterricht selbst besteht dagegen in der Anwendung des Stoffes. Der Dozent fungiert hier nicht länger als Vortragender, sondern als Coach – er gibt Hilfestellungen, verbessert und motiviert.

Gerade in der jetzigen Zeit, in der viele Dozenten ihr Lehrmaterial aufgrund der Coronakrise ohnehin zur Online-Verwendung aufbereitet haben, scheint der Weg frei, stärker mit dem Flipped-Classroom-Modell zu arbeiten. Allerdings gibt es (zumindest an meiner Hochschule) ein erwartbares Problem: Viele Studierende kommen zwar regelmäßig an die Hochschule, investieren aber so gut wie keine Zeit in die Vor- oder Nachbereitung. Solche Studierende würde man in einem Flipped-Classroom-Modell sehr schnell abhängen – sie wären bereits nach wenigen Wochen mit dem Stoff so weit hintendran, dass sie von den gemeinsamen Übungen nicht mehr profitieren würden.

Daher habe ich es bisher trotz aller Begeisterung für den neuen Ansatz für unabdingbar gehalten, den Stoff doch in Präsenz vorzutragen – lieber habe ich Studierende, die dann eben nur Teile des Stoffs verstanden haben (weil sie nur in die Vorlesung kommen, aber daheim nichts machen), als Studierende, die überhaupt nichts verstanden haben (weil sie in den ersten beiden Wochen die Vorbereitung versäumt haben und dann den Rückstand nie mehr aufholen konnten).

Flipped Mastery

Diese Woche bin ich nun aber über das Konzept der „Flipped Mastery“ gestolpert, und dabei ist mir klargeworden, dass ich bei meinen Überlegungen zum Flipped Classroom von einer Beschränkung ausgegangen bin, die in Wirklichkeit für diese Lehrmethode überhaupt nicht existiert.

Beim Mastery Learning (das ebenfalls von Benjamin Bloom in den 1960er Jahren formalisiert wurde, obwohl es natürlich schon früher entsprechende Ansätze gegeben hat) stellt man sicher, dass der Lernende das Lernziel eines Themas wirklich erreicht hat, bevor er zum nächsten Thema weitergeht. Eigentlich macht das natürlich Sinn – ein Großteil unserer Schwierigkeiten mit inkrementellen Fächern wie Mathematik basieren ja gerade darauf, dass die Lernenden oft von jedem Thema nur einen Teil verstanden haben und dass die Lücken dann in ihrer Summe so übermächtig werden, dass ein weiterer Fortschritt fast unmöglich ist. Salman Khan von der Khan Academy verwendet hierzu in einem TED-Talk das Beispiel des Hausbaus: Wenn man sich beim Fundament mit 80% zufriedengeben würde und beim Erdgeschoss mit 75%, kann man sicher sein, dass das ganze Gebäude irgendwann einstürzt.

Beim Mastery Learning gilt daher die Grundregel: Jeder arbeitet so lange an dem Thema, wie er eben braucht, um es wirklich zu durchdringen. Erst dann wird zum nächsten Thema weitergegangen. Auf diese Weise dauert es zwar hier und da länger, aber die Fundamente sind überall vorhanden.

Nun ist natürlich der Flipped Classroom für diese Art der Lehre besonders geeignet, weil im Grunde (und hier lag mein Denkfehler, meine unnötige Beschränkung) ja nichts dagegen spricht, dass jeder in der gemeinsamen Übung an einem anderen Thema arbeitet. Wer etwas langsamer gestartet ist oder noch Grundlagen nacharbeiten musste, ist vielleicht noch bei Thema 2, während andere schon bei Thema 4 sind und ihren Kommilitonen schon selbst Hilfestellungen geben können. Und da der eigentliche Stoff ja in Form von Videos, Skripten o.ä. zeitlos zur Verfügung steht, kann der langsamere Student auch später noch den Stoff von Thema 4 aufarbeiten.

Natürlich gibt es bei einer solchen Form der Lehre noch sehr viele praktische Fallstricke zu beachten (Aufwand bei der Vorbereitung, Bewertung, Gruppenarbeit und Mitläufer, Kompetenz des Dozenten und vieles mehr). Auf diese werde ich vielleicht in einem zukünftigen Blogbeitrag eingehen. An dieser Stelle finde ich aber vor allem zwei Beobachtungen interesserant: Dass der Flipped Classroom ein geeignetes Mittel sein könnte, die hier immer wieder diskutierten Lernziele auf den höheren Ebenen der Bloom’schen Taxonomie (insbesondere das selbständige Problemlösen) zu erreichen. Und dass das Wissen, dass wir uns oft selbst unnötige Beschränkungen beim Lösen von Problemen auferlegen, nicht unbedingt dabei hilft, genau diesen Denkfehler auch zu vermeiden…

Anhang: Lösung des Neun-Punkte-Problems

Das Neun-Punkte-Problem kann beispielsweise wie folgt gelöst werden:

Lösung Neun-Punkte-Problem

Es sind verschiedene Lösungen möglich, sie alle erfordern jedoch, dass die Linien den durch die ursprünglichen Punkte definierten Bereich verlassen.

Kategorien
Uncategorized

Warum Auswendiglernen und Theorie so beliebt sind

Bereits im letzten Eintrag habe ich ja diskutiert, dass Informationen im Gehirn nur so lange nützlich sind, wie sie gut mit anderen Informationen vernetzt sind. Beim Lesen in der kognitionswissenschaftlichen Literatur ist mir aufgefallen, dass sich daraus noch zwei weitere Beobachtungen ergeben, die die meisten von uns aus Schule und Alltag zur Genüge kennen:

  • Auswendiglernen ist bei vielen Studierenden beliebter als Anwenden
  • Theorie ist bei vielen Dozenten beliebter als Praxis

Vom Reiz des Auswendiglernens

Der Grund ist erneut die Art, wie unser Gehirn mit Konzepten arbeitet. Psychologen gehen davon aus, dass ein Konzept in Form eines sogenannten Schemas im Gehirn gespeichert wird. Dieser Vorgang fällt dem Gehirn vergleichsweise leicht. Dagegen ist es für das Gehirn vergleichsweise aufwändig, ein Schema mit anderen Schemata zu verknüpfen. Genau das müsste man aber tun, damit es gut wieder aufzufinden ist und somit nützlich wird.

Wenn man sich das vor Augen hält, wird klar, warum das Bulimielernen eine solch beliebte Strategie für die Prüfungsvorbereitung ist. Es ist kognitiv vergleichsweise leicht und kann daher auch dann noch geleistet werden, wenn man eigentlich kognitiv überfordert ist oder schlicht zu wenig Zeit hat. Die Informationen werden als reine Fakten ohne allzuviele Verknüpfungen zum restlichen Wissen abgespeichert. Für die Klausur reicht das, weil all diese Informationen um den gemeinsamen Kern „Klausur“ herum organisiert sind und in diesem Kontext auch wieder aufgefunden werden können. Leider gehen sie aber anschließend wieder verloren, weil sie kaumVerbindungen zum übrigen Wissen aufweisen und daher auch in Zukunft nicht mehr genutzt werden können.

Sinnvoll wäre es daher, viel stärker darauf zu setzen, das Erlernte auf möglichst viele Arten zu betrachten und zu nutzen. Das dauert zwar länger, verankert das Wissen aber solide mit vielen Verbindungen zu anderen Konzepten im Gehirn und sorgt dafür, dass es später auf mannigfaltige Weise wieder abgerufen werden kann. Leider funktioniert das aber nur, wenn (1) die Stoffmenge so überschaubar gehalten wird, dass man sich mit jedem Konzept auch ausführlich beschäftigen kann, und (2) mit dem Lernen nicht erst zwei Wochen vor der Klausur begonnen wird.

Vom Reiz der Theorie

Aber auch über die Professoren (zur Erinnerung: der Autor ist auch einer) kann man aus dem Umgang mit Schemata etwas lernen. Wie alle Theoretiker sind sie so ausgebildet, dass sie vor allem mit Modellen arbeiten. Modelle sind potentiell sehr mächtige Schemata, weil sie (mit etwas Glück) auf eine Vielzahl von Situationen angewandt werden können. Allerdings gilt natürlich alles, was bereits oben und in vorangegangenen Blogbeiträgen geschrieben wurde: Ein Modell ist nur dann nützlich, wenn es hinreichend gut vernetzt wurde, so dass es aufgefunden wird, wenn es benötigt wird.

Leider neigen Theoretiker dazu, die Theorie vor allem mit anderen Theorien zu verknüpfen. Das führt zu dem bereits früher beschriebenen Phänomen, dass selbst Experten übersehen, dass Wissen (Modelle, Vorgehensweisen, …) aus ihrem Spezialgebiet auch in einem anderen Feld eingesetzt werden können. Wichtig wäre also, die Theorie breit mit so vielen Konzepten wie möglich zu verknüpfen, auch und gerade solchen, die eher im Alltag oder in der Berufspraxis angesiedelt sind.

Es gibt aber noch ein anderes Problem, das von Maslow mit dem berühmten „Law of the Instrument“ beschrieben wurde:

I suppose it is tempting, if the only tool you have is a hammer, to treat everything as if it were a nail.

Abraham Maslow, 1966

Das Arbeiten mit Modellen birgt immer auch das Risiko, dass man anfängt zu glauben, dass die Welt sich wirklich so verhalten würde wie von den Modellen vorhergesagt. Wer genügend Kontakt mit der Praxis hat, weiß eigentlich immer, dass dem nicht so ist: Das Modell liefert eine oberflächliche Beschreibung, kann aber nie alle Phänomene der wirklichen Welt erklären.

Wer daher regelmäßig praktische Probleme bearbeitet, der kennt die Ausnahmen und Besonderheiten der wirklichen Welt. In seinem Kopf findet sich daher nicht nur das Schema für das grundlegende Modell, sondern davon abgeleitet auch das Schema für den Spezialfall, in dem das Modell nicht oder nicht gut genug funktioniert. Und wahrscheinlich (bei genügend Erfahrung) auch für den Spezialfall des Spezialfalls…

Das Erlernen all dieser Schematas erfordert natürlich deutlich mehr Aufwand (und Übung) als das Entwickeln eines einzigen Modells. Und so mag es nicht überraschen, dass so mancher Theoretiker die Welt lieber durch die Brille seines Master-Modells betrachtet und alle Abweichungen zu Messfehlern erklärt, als sich in die Niederungen der Praxis zu begeben und sich dem kognitiv deutlich aufwändigeren Arbeiten mit Dutzenden von Sonder- und Spezialfällen auszusetzen…

Lessons learned

Auch wenn der Blog jetzt schon mehrfach um das gleiche Thema gekreist ist, möchte ich hier noch einmal in Erinnerung rufen, worum es bei Beiträgen wie diesen im Kern geht: Wenn man die Erkenntnisse der Kognitionsforschung ernst nimmt, dann muss man beim Aufbau von Kompetenzen (also zum Beispiel in Schule und Hochschule) dafür sorgen, eine gute Mischung von Theorie und Praxis zu schaffen. Die Theorie hat den Vorteil, dass sie Modelle erschafft, die auf sehr viele Situationen angewandt werden können. Und die (möglichst breite) Praxis sorgt dafür, dass diese Modelle auch in möglichst vielen Situationen erinnert werden und hinreichend ausdifferenzt sind, um von tatsächlichem Nutzen zu sein.

Es sollte einleuchten, dass dieses kombinierte Erlernen von Theorie und Praxis länger dauert als die gängige Vorgehensweise, möglichst große Stoffmengen in möglichst kurzer Zeit zu pauken. Andererseits bietet weniger, dafür aber wirklich beherrschtes Wissen aber letztlich mehr Nutzen als viel Stoff, den man theoretisch mal irgendwann (auswendig) gelernt hat, im Bedarfsfall aber weder auffinden noch anwenden kann.

Kategorien
Uncategorized

Warum das Lösen neuer Probleme schwierig ist

Ich habe mir in diesem Blog ja schon mehrfach Gedanken darüber gemacht, warum sich die meisten Menschen so schwer damit tun, neue Probleme zu lösen. Im Folgenden will ich einmal einen ersten Blick darauf werfen, was ich als Nicht-Psychologe beim Lesen von Psychologie-Büchern verstanden zu haben glaube.

Übertragen von Lösungen

Zunächst einmal: Das Narrativ vom Erfinder, der aus dem Nichts heraus brillante Ideen hat, ist ein Mythos. Nichts deutet darauf hin, dass wir dazu in der Lage sind. In Wahrheit lösen wir Probleme, indem wir auf dem Aufbauen, was andere vor uns gedacht (und was wir verstanden) haben. Wir können dann existierende Ideen und Lösungen geringfügig modifizieren, neu kombinieren oder auf neue, nicht zu weit entfernte Probleme übertragen. Aber wir stehen, um es mit den berühmten Worten Isaac Newtons zu sagen, immer auf den Schultern der Riesen, die vor uns zum Wissensschatz der Menschheit beigetragen haben.

Das Problem beim Anwenden bekannter Ideen auf neue Probleme ist aber, dass wir umso schlechter darin sind, je weniger sich diese Probleme an der Oberfläche ähneln. Eine berühmte Aufgabenstellung sieht wie folgt aus:

Tumorproblem: Ein Patient leidet unter einem Tumor. Diesen könnte man im Grunde genommen durch Bestrahlung zerstören. Das Problem ist aber, dass die Strahlung auch das gesunde Gewebe zwischen der Strahlenquelle und dem Tumor zerstören würde. Eine schwächere Strahlung wäre für das Gewebe ungefährlich, würde aber auch dem Tumor nicht schaden. Wie kann der Arzt vorgehen, um den Tumor trotzdem zu bekämpfen?

K. Duncker (1945): On Problem Solving

Denken Sie einen Moment darüber nach – können Sie das Problem lösen? Falls nicht: wie sieht es mit dem folgenden Problem aus?

Festungsproblem: Ein Diktator beherrscht von einer Festung aus das Land. Zahlreiche Wege führen zu dieser Festung, allerdings sind sie so vermint, dass nur kleinere Gruppen darüber marschieren können, ohne die Bomben auszulösen. Nun ist es den Rebellen gelungen, eine ansehnliche Armee an der Grenze zusammenzuziehen. Diese Armee könnte die Festung einnehmen, aber wie soll sie dorthin gelangen, ohne von den Minen zerrissen zu werden?

M.L. Gick und K.J. Holyoak (1980): Analogical Problem Solving

Die meisten Menschen tun sich mit der Lösung des zweiten Problems deutlich leichter (die Lösung finden Sie im Anhang dieses Beitrags). Dabei sind beide Probleme strukturell gleich. Warum also kennen viele Menschen eine Lösung für ein Problem, können aber gleichzeitig ein ganz ähnlich gelagertes Problem nicht lösen?

Das Problem der Auffindbarkeit

Der Grund scheint in der Organisation unseres Gehirns – genauer gesagt unseres Gedächtnisses – zu liegen. Wir speichern Informationen assoziativ: Jedes Konzept in unserem Kopf wird mit vielen anderen Konzepten verknüpft, die irgendetwas damit zu tun haben. So wäre das Konzept „Auto“ verknüpft mit Bildern von Autos, mit seinen Komponenten (Räder, Karosserie, Lenkrad, …), mit anderen Fortbewegungsmitteln (Lkw, Motorrad, …), mit Infrastruktur (Straße, Parkplatz, Tankstelle, …), mit Erlebnissen (in Urlaub fahren, zur Arbeit fahren, …) usw.

Wenn unser Gehirn jetzt eine Information sucht, die etwas mit einem Auto zu hat, dann klappert es gewissermaßen diese Verbindungen ab. Existiert eine Verbindung, wird die Information gefunden. Wenn nicht, geht es noch 1-2 Schritte weiter (also beispielsweise von Auto über Lkw zu Container), aber wenn das gesuchte Konzept zu weit entfernt ist, wird es nicht gefunden.

Im Falle von Problemlösungen kann dies leicht zu Problemen führen. Nicht nur werden Konzepte als verwandt erkannt, die es gar nicht sind (Blut ist rot, Rotwein ist rot, also ist Rotwein gut für die Durchblutung). Auch erkennt das Gehirn zwei strukturell ähnliche Probleme nicht als verwandt, wenn sie keine solch oberflächlichen Gemeinsamkeiten aufweisen. Sie befinden sich an zwei völlig unterschiedlichen Stellen in unserem Vorstellungsraum; die Verwandtschaft wird dadurch schlicht nicht bemerkt.

Erinnern Sie sich noch an das Feynman-Beispiel aus dem Beitrag „Lernen von den Großen“? Der Physiker hat seine Kommilitonen genarrt, indem er Wissen, über das sie eigentlich alle verfügten (das Konzept eines lokalen Tiefpunkts aus der Analysis) auf eine andere Situation (die Betrachtung eines Kurvenlineals) übertrug. Dabei handelt es sich um ein Beispiel für das obige Problem: Im Gehirn der Studierenden gab es schlicht keine Verknüpfung zwischen den beiden Konzepten, also übersahen sie, was doch eigentlich hätte offensichtlich sein sollen.

Und nun?

Was also kann man nun tun, um seine Fähigkeit zum Problemlösen zu verbessern? Zwei Besonderheiten fallen mir beim Lesen von Biographien der wirklich erfolgreichen Denker und Problemlöser (wie eben beispielsweise Newton oder Feynman) immer wieder auf:

  • Sie verfügen über ein großes Arsenal von Wissen, insbesondere von Modellen. Diese Modelle haben wie viele Abstraktionen den Vorteil, dass man sie auf eine Vielzahl von Situationen anwenden kann.
  • Zudem verankern sie diese Modelle im Gedächtnis, indem sie sie auf so viele realweltliche Szenarien wie möglich anwenden: Sie ziehen immer wieder Verbindungen zwischen diversen Phänomenen in der wirklichen Welt.

Wenn wir zum obigen Problem der Auffindbarkeit zurückkehren, tun sie also Folgendes: Sie legen ein Konzept (hier: ein Modell) in ihrem Kopf an, das zu möglichst vielen Situationen in der wirklichen Welt passt. Indem sie dieses auch immer wieder auf praktische Probleme und Beobachtungen anwenden, sorgen sie dafür, dass das Modell viele Verknüpfungen zu passenden Konzepten aufweist und entsprechend leicht aufgefunden werden kann.

Ein Beispiel: Wenn man sich (wie es in vielen neueren Elektronik-Lehrbüchern empfohlen wird) die Elektronen in einer Leitung als eine Sammlung von Wassertropfen vorstellt, die aufgrund von Druck (Spannung) angetrieben werden, dann hat man das Konzept des elektronischen Stroms mit dem Konzept von Wasser verknüpft. Da „Wasser“ in unserem Gehirn mit sehr vielen anderen Konzepten verknüpft ist, wird so auch das Konzept „Strom“ leichter auffindbar – auch von anderen Konzepten aus, die ebenfalls eine Verbindung zu „Wasser“ aufweisen.

Natürlich betreibe ich hier noch ein Stück weit Küchenpsychologie. Ich bin kein Experte, sondern schildere, wie ich das, was ich in Psychologiebüchern gelesen habe, verstehe. Aber zumindest passen diese Überlegungen gut zu einer ganzen Reihe von Beobachtungen, die ich im Umgang mit dem Lösen von Problemen (sei es durch mich oder durch andere) gemacht habe. Es wird daher sicherlich nicht der letzte Beitrag zum Thema „Probleme lösen lernen“ sein. Und falls ich die Vorstellungen, die ich derzeit dazu habe, wieder revidieren muss, dann verspreche ich, ehrlich dazu zu stehen.

Anhang: Lösung der Probleme

Sind Sie darauf gekommen? Das Festungsproblem lässt sich durch die Moltke-Taktik „Getrennt marschieren, vereint schlagen“ lösen. Man teilt die Armee der Rebellen auf, marschiert getrennt und versammelt sich dann vor der Festung zur Schlacht.

Das Tumorproblem ist strukturell sehr ähnlich: Es kann gelöst werden, indem man mit mehreren Strahlenquellen arbeitet, die Strahlung von erträglicher Intensität absondern. Diese werden so angeordnet, dass sie sich am Punkt des Tumors treffen, wo sich ihre Wirkung addiert. Während das gesunde Gewebe also nur niedrige Strahlung aushalten muss, wird der Tumor mit hoher Strahlenlast beschossen und somit zerstört.

Kategorien
Uncategorized

Was ist überhaupt ein Problem?

Wer schon einmal eine wie auch immer geartete geisteswissenschaftliche Diskussion geführt hat, weiß um die Wichtigkeit, zunächst einmal die zentralen Begriffe sauber zu definieren. In den Ingenieurwissenschaften (zu denen große Teile der praktischen Informatik gehören) spielen Definitionen dagegen keine so große Rolle – wie ich jetzt ein Auto genau definiere, ist nicht annähernd so wichtig, wie dass es fährt.

Für das Thema dieses Blogs ist es aber nicht uninteressant, einmal einen Blick darauf zu werfen, was in den betroffenen Disziplinen unter einem Problem verstanden wird – warum, wir hoffentlich im Verlaufe des Textes deutlich.

Das Problem in der Informatik

In der Informatik wird ein Problem beschrieben, indem man sein Input und das gewünschte Output angibt sowie die Beziehung, die zwischen den beiden bestehen soll. Dieser Begriff geht natürlich auf die Mathematik zurück, aus der wir auch entsprechende Beispiele kennen:

  • Input: Zwei ganze Zahlen a und b
  • Output: Eine ganze Zahl c, so dass c=a*b

Natürlich kann man nach diesem Schema auch deutlich komplexere Probleme definieren:

  • Input: Ein Spielstand beim Schach
  • Output: Eine Strategie für Spieler Weiß, so dass er am Ende gewinnt

Für gewöhnlich sind Probleme in der Informatik wohldefiniert, d.h. sie enthalten alle Informationen, die erforderlich sind, um sie zu lösen. Das ist zwar nicht gleichbedeutend damit, dass man sie auch wirklich lösen kann (so gibt es keinen bekannten Algorithmus, mit der Spieler Weiß eine Schachpartie garantiert immer gewinnt), aber zumindest ist es hilfreich.

Probleme im wirklichen Leben sind dagegen oft nicht wohldefiniert. Hier könnte eine Problembeschreibung eher wie folgt aussehen:

  • Input: Meine gesamte Lebenssituation und meine impliziten und expliziten Präferenzen
  • Output: Eine Vorgehensweise, wie ich den idealen Partner finde und für mich gewinne

Allein mit dem Versuch, die „gesamte Lebenssituation“ sachlich zu erfassen, wäre man vollständig überfordert. Und wer schon einmal (z.B. im Rahmen eines Kurses in Entscheidungslehre) versucht hat, seine eigenen Präferenzen in Zahlen zu gießen, weiß, dass das ebenfalls nie mehr als Stückwerk ist und in vielen Fällen sogar auf Selbstbetrug hinausläuft. Das Input bleibt also vage, das Konzept des „idealen Partners“ auch, und das gesuchte Verfahren kann daher nie mehr sein als eine Heuristik – eine Annäherung an das Gewünschte, die hoffentlich ganz brauchbar, aber mit Sicherheit nicht optimal sein wird. Ein Computer wäre mit dieser Aufgabenstellung wohl überfordert (und wird es auch noch auf Jahre hin sein), aber darum geht es ja hier auch gar nicht: die Problembeschreibung entspricht dennoch dem Schema der Informatik.

Das Problem in der Psychologie

In der Psychologie treffen wir zwar im Detail recht unterschiedliche Definitionen eines Problems an. Im Kern geht es aber darum, dass ein Lebewesen ein Ziel erreichen möchte und zunächst einmal nicht weiß, wie man dazu vorgeht.

Das entspricht der umgangssprachlichen Verwendung des Wortes „Problem“. Schließlich würde kaum jemand sagen: „Kannst du mal das Problem lösen, mir den Kaffee rüberzureichen?“ oder „Mr. Spock, das Problem lautet: Berechne 2 plus 2!“ Damit aus einer Aufgabe ein Problem wird, muss es eine Schwierigkeit geben, die dabei überwunden werden muss.

Kognitiv bedeutet das, dass für ein Problem im Sinne der Psychologie noch kein Lösungsverfahren im Gehirn vorhanden ist. Um das Problem zu lösen, muss erst ein solches Verfahren entwickelt werden, und dazu benötigen wir die in diesem Blog so oft bemühte Problemlösungskompetenz.

Aufgaben, Anwendungen und Probleme

Die Probleme im Sinne der Psychologie stellen also eine Teilmenge der Probleme im Sinne der Informatik dar. Für diesen Blog wirft das die Frage auf, wie künftig mit dem Begriff umgegangen werden soll, zumal es in der Psychologie wohl keinen Konsens gibt dazu, wie man Probleme mit bekannter Lösung bezeichnen sollte. Alan Schoenfeld spricht hier von exercises (also Übungen), aber das passt leider nicht zu allen Anwendungsfällen.

Ich selbst werde daher versuchen, im Folgenden so konsequent wie möglich mit den Begriffen Aufgabe, Anwendung und Problem zu arbeiten:

  • Eine Aufgabe ist definiert durch einen Startzustand, einen Zielzustand und ggf. die Einschränkungen, die beim Erreichen des Zielzustands eingehalten werden müssen. Dies entspricht im Wesentlichen dem Problembegriff der Informatik.
  • Eine Anwendung ist eine Aufgabe, für die dem Betroffenen (sei es nun ein Mensch, ein Tier oder eine Maschine) bereits ein Lösungsverfahren bekannt ist.
  • Ein Problem ist eine Aufgabe, für die dem Betroffenen zu Beginn noch kein Lösungsverfahren bekannt ist. Dies entspricht im Wesentlichen dem Problembegriff der Psychologie.

Ich hoffe, dass mit dieser begrifflichen Trennung im Folgenden vieles klarer wird und dass insbesondere die permanente Verwechslung von „Lösungsverfahren kennen“ (für Anwendungen nämlich) und „Problemlösungskompetenz“ (für echte, also neue Probleme) vermieden werden kann.

P.S.: Sollte der eine oder andere geneigte Leser bessere Ideen für diese Bezeichnungen haben, freue ich mich über einen entsprechenden Kommentar!

Kategorien
Uncategorized

The Middle Ground

Ich habe gerade das Bedürfnis, mal eine Art Rant zu schreiben. Vielleicht nicht zu 100% on-topic, aber da mir das Thema in letzter Zeit immer und immer wieder begegnet, möchte ich hier einfach mal Dampf ablassen.

Es geht um die (bereits im Blogbeitrag „Intuition – zwischen den Extremen“ angesprochenen) Extrempositionen, die nach meinem Empfinden mittlerweile so gut wie jede Diskussion dominieren. Einige Beispiele aus dem thematischen Umfeld dieses Blogs:

  • Im Buch „Teaching Minds“ von Roger Schank (siehe auch im Blogeintrag „Programmieren als Denktraining„) vertritt der Autor die These, dass es eigentlich die wichtigste Aufgabe von Schule und Hochschule sein sollte, jungen Menschen das selbständige Denken beizubringen. Dem würde ich unbedingt zustimmen, doch dann kippt der Autor das Kind mit dem Bade aus: Das faktenbasierte Lernen gehöre auf den Müllhaufen der Geschichte, und überhaupt lernten Menschen nur das, wofür sie intrinsisch motiviert sind. Ganz ehrlich: Wenn jeder nur das lernen würde, worauf er Lust hat, wie viele Menschen könnten dann lesen und schreiben? Und braucht es nicht auch ein Grundgerüst aus Faktenwissen, um über etwas nachdenken zu können? Ja, um überhaupt erkennen zu können, was von Interesse sein könnte? Wäre es nicht vielleicht sinnvoller, Mischformen zu finden, in denen faktenbasiertes Lernen mit „Denken lernen“ zu einem sinnvollen Ganzen vereinigt wird?
  • Vor einigen Wochen war ich in einer Kurzeinführung zum Thema „Flipped Classroom“. Diese Lehrmethode geht davon aus, dass es sinnvoller ist, wenn Studierende sich das Faktenwissen bereits vor dem Unterricht aneignen und dass im Mittelpunkt des gemeinsamen Lernens das betreute Üben und Anwenden dieses Faktenwissens steht. Dieser Ansatz ist die genaue Umkehrung des klassischen Lehrens an Hochschulen, wo die Faktenvermittlung per Vorlesung und das Einüben daheim erfolgt. Aber beides sind erneut Extrempositionen – im Alltag an einer HAW unterrichten viele Kollegen erfolgreich mit Mischformen, bei denen im Unterricht sowohl das Vermitteln von Fakten und das aktive Arbeiten damit stattfindet. Und meines Wissens funktioniert diese Art zu lehren sehr gut und wird auch von den Studierenden oft so gefordert – aber weil sie nicht so extrem ist, ist sie in der didaktischen Diskussion nicht so präsent.
  • Sobald die Diskussion auf das Thema „Künstliche Intelligenz“ kommt, erleben wir ebenfalls eine deutliche Polarisierung. Diejenigen, die Freude am Forschen haben oder eine Chance auf eine Karriere darin sehen, bauen ohne jedwede moralische Hemmschwelle Systeme, die ethisch mehr als fragwürdig sind. Und die Besorgten schreiben Buch um Buch darüber, wie das Aufkommen der KI den Untergang des selbständigen Denkens, des Arbeitsmarktes und überhaupt des westlichen Abendlandes darstellen wird.

Ich könnte die Liste beliebig fortsetzen. Digitale Lehre, soziale Medien, Transhumanismus, Open Source, Blockchain – überall wird die Diskussion von idealistischen Zukunftsgläubigen auf der einen und Weltuntergangspropheten auf der anderen Seite dominiert. Zwar suchen (und finden) die Pragmatiker – die nach meiner Erfahrung die breite Mehrheit stellen – beständig Mittelwege und Kompromisse zwischen den Extrema, aber in der öffentlichen Diskussion kommen sie kaum vor. Klar, denn für eine Mittelposition muss man deutlich mehr wissen, deutlich differenzierter betrachten und auch deutlich mehr abwägen als für ein entschiedenes „Ja“ oder „Nein“ ohne Wenn und Aber.

Mir wäre es wichtig, dass wir uns dieser Fokussierung auf Extrempositionen bewusst werden, denn wir erleben sie derzeit auch im Alltag an allen Ecken und Enden. „Alle Migranten aufnehmen“ steht einem kompromisslosen „Ausländer raus“ gegenüber. „Es kann keine Gleichheit geben, bevor nicht die gesamte Sprache gegendert ist“ prallt ungebremst auf „Gendering sollte gesetzlich verboten werden“. „Vegetarier sind immer noch Mörder, nur strikte Veganer sind gute Menschen“ ist meilenweit entfernt von „Finger weg von meinem Steak, und das Kilo darf höchstens 10 € kosten“. Man bekommt so das Gefühl, dass Kompromisse oder schrittweise Verbesserungen gar nicht möglich oder gewollt sind, stattdessen versucht jede Extremposition, so viele Anhänger wie möglich um sich zu scharen und sich als die Besitzer der einzigen Wahrheit (oder als die einzig Guten) darzustellen.

Nun ist Politik eigentlich nicht nicht das Thema dieses Blogs, aber Wissenschaft und Lehre sind es. Und da reagiere ich zunehmend genervt, wenn mir wieder und wieder irgendwelche Extrempositionen – möglichst noch garniert mit absolutem Wahrheits- oder sogar religiösem Erweckungsanspruch – serviert werden. Wissenschaft sollte der Suche nach der Wahrheit verpflichtet sein, und die Wahrheit ist (speziell bei gesellschaftlichen Themen) fast immer kompliziert. Sie lässt sich für gewöhnlich weder mit einigen wenigen markanten Thesen beschreiben, noch waren all die anderen da draußen jahrzehntelang zu blöd, sie zu erkennen. Wer überzeugt ist, im alleinigen Besitz der Erkenntnis zu sein, sagt damit mehr über sich aus als über die Erkenntnis an sich.

Wahren Wissenschaftler bleiben neugierig, hören einander zu, versuchen alle Seiten zu verstehen. Und sie sind bereit, ihre Überzeugungen und Lehrmeinungen regelmäßig auf den Prüfstand zu heben und gegebenenfalls anzupassen. Aber Hand aufs Herz: Wie viele Lehrer, Dozenten und Professoren, die wir selbst in unserer akademischen Laufbahn erleben durften, haben diesen Eindruck erweckt? Oder ist es nicht vielmehr so, dass die meisten Lehrenden den Saal betreten mit dem Anspruch, jetzt die WahrheitTM zu verkünden, und dass die meisten Lernenden auch genau das von ihnen erwarten?

Wenn ich so darüber nachdenke, müssen wir vielleicht gar nicht so weit suchen, um Gründe für die Dominanz einfacher, mit Überzeugung vorgetragener Lehrsätze zu finden…? Nein, natürlich gibt es dafür eine Vielzahl von Gründen, aber wenn ich die meisten davon ignoriere, mich auf eine einzige Ursache konzentriere, diese in einem halben Dutzend Thesen zuspitze und mit einem Schwung anschaulicher Anekdoten unterfüttere, kann ich damit sicherlich ein einigermaßen erfolgreiches Buch schreiben und es vielleicht sogar bis in die Talkshows schaffen…

Kategorien
Uncategorized

Programmieren als Denktraining

Teaching Minds

Derzeit lese ich das Buch „Teaching Minds“ von Roger Schank, in dem der Autor die Auffassung vertritt, dass man in Schule und Hochschule nicht in erster Linie Fakten, sondern denken lernen sollte. Dabei breitet er zwar auf 220 Seiten aus, was auch auf 50 Seiten gepasst hätte, und er verzichtet leider auch darauf, wissenschaftliche Belege für seine Thesen zu liefern, obwohl er als jahrelang sehr aktiver Kognitionswissenschaftler sicherlich welche nennen könnte. Aber die Grundidee halte ich dennoch für richtig und wichtig (wie man ja auch schon manchen meiner Beiträge entnehmen konnte).

Schank greift dabei eine Reihe kognitiver Prozesse heraus, die er für besonders wichtig hält und die seiner Meinung nach beständig trainiert werden müssen. Auf zwei davon will ich an dieser Stelle besonders eingehen, weil sie für das Thema „algorithmisches Denken“ eine besondere Rolle spielen.

Prediction

Der erste kognitive Prozess heißt bei bei Schank „Prediction“, gemeint ist aber im Wesentlichen der Umgang mit den Skripten, auf die wir Menschen bei so gut wie allem zurückgreifen, was wir tun. Das gilt im Kleinen (z.B. wenn wir uns einen Schnürsenkel zuzubinden), aber auch im Großen (z.B. wenn wir auf Partnersuche sind).

Im Grunde handelt es sich bei diesen Skripten um genau die Heuristiken, von denen in diesem Blog ja schon öfter die Rede war: unbewusste Methoden, die das Gehirn abgespeichert hat und meist ohne unser Zutun nutzt, um konkrete Probleme zu lösen. Solche Skripte sind nicht zwingend ein Zeichen von Intelligenz, denn auch das Handeln von Tieren ist von Skripten geprägt.

Interessant wird die Sache, wenn für eine gegebene Situation kein Skript vorhanden ist. Merken wir das überhaupt, oder schätzen wir die Situation fälschlicherweise als bekannt ein und verwenden ein vorhandenes Skript? Und falls nicht: was tun wir, wenn eine Situation als anders erkennen, aber kein Skript dafür haben? Nach Schank müssten die folgenden Kompetenzen trainiert werden:

  • Ein Vorrat an Skripten für typische Situationen muss angelegt (d.h. durch Wiederholung eingeübt) werden.
  • Wir müssen lernen zu erkennen, wenn wir es mit einer neuen Situation zu tun haben, und kritisch hinterfragen, ob wir sie mit bekannten Skripten angehen sollten oder nicht.
  • Wir müssen lernen, Skripte an neue Situationen anzupassen oder völlig neue Skripte zu erlernen (oder gar selbst zu entwickeln).

Und all das ist nichts anderes als eine Blaupause für die Problemlösungskompetenz, von der in diesem Blog immer wieder die Rede war und weiter sein wird.

Modelling

Den zweiten kognitiven Prozess nennt Schank „Modelling“, und hier geht es darum, ein mentales Modell eines Prozesses zu erstellen. Für viele Abläufe im Leben benötigen wir ein solches Modell: Wir wissen (hoffentlich), wie wir vorgehen müssen, wenn wir mit der Bahn (oder dem Flugzeug) verreisen, welche Regeln beim Essen in einem Restaurant gelten, wie man einem Colaautomaten ein Kaltgetränk entlockt oder wie man ein Formular ausfüllt.

Diese kognitive Kompetenz heißt an anderer Stelle „Prozessmodellierung“, und kurioserweise wird sie (genau wie „Problemlösen“ übrigens) fast ausschließlich im Kontext von Geschäftsprozessen gelehrt. Aber natürlich ist sie keinesfalls auf Unternehmen beschränkt, sondern nützt jedem von uns auch im Alltag.

Und hier kommen wir endlich zum heutigen Thema, denn gerade das Modellieren von Prozessen ist etwas, was man in der Informatik andauernd übt. Nicht von ungefähr ähneln die Werkzeuge aus der Geschäftsprozessmodellierung denen der Informatik stark, denn ein Programmierer tut ja nichts anderes: Er beschreibt einen Prozess (nämlich den Algorithmus) so präzise, dass ihn auch ein völliger Trottel (der Computer eben) ausführen kann.

Modellierung in der Informatik

Tatsächlich ist dies meiner Meinung nach ein Grund, warum die Beschäftigung mit Informatik auch für Nicht-Informatiker großen Nutzen hat: Weil man dadurch das eigene strukturierte Denken und insbesondere die Fähigkeit zum Modellieren von Prozessen trainiert. Dem Computer fällt dabei die Rolle des unbestechlichen Schiedsrichters zu: Wenn das Programm am Ende nicht tut, was es tun sollte, dann war die Modellierung fehlerhaft.

Laien vertreten oft die Auffassung, dass Menschen ja auch ohne die Beschäftigung mit Programmierung in der Lage wäre, funktionierende Modelle von Prozessen zu erstellen. Wer das behauptet, hat aber noch nie eine Aufgabe der folgenden Art gestellt:

Beschreiben Sie alle Schritte, die erforderlich sind, um ein Frühstücksei zu kochen!

Wer einige Jahre lang die Grundlagen der Informatik unterrichtet hat, hat diesbezüglich alle Illusionen verloren: die meisten Menschen sind zwar sehr wohl in der Lage, ein 5-Minuten-Ei zu kochen, aber sie sind völlig außerstande, den Vorgang auch systematisch zu beschreiben. Da wird das Ei mit dem Wasser in den Topf gegeben und dann erst auf den Herd gestellt, da wird der Herd gar nicht erst angeschaltet, das Einschalten des Timers vergessen (aber natürlich auf das Klingeln des Timers gewartet) oder am Ende der Herd einfach angelassen. Psychologen sprechen hier von implizitem Wissen (oder auf Englisch richtiger: tacit knowing): Wir können es, wir können es auch vormachen, aber wir können es nicht beschreiben. Und wenn wir es nicht beschreiben können, dann können wir auch keine bewussten Anpassungen oder Veränderungen vornehmen, sondern bleiben allein auf unsere Intuition beschränkt.

Wer dagegen Erfahrung im Programmieren hat, hat deutlich weniger Probleme damit, ein solches Modell eines Prozesses zu erstellen. Zwar kann auch er nicht jede Form von implizitem Wissen explizit machen – als besonders pathetisches Fremdschämbeispiel sei an dieser Stelle das autobiographische Buch „The Game“ von Neil Strauss empfohlen, in dem männliche Nerds (aka Pick-Up Artists) versuchen, einen Algorithmus zu entwerfen, wie man Erfolg bei Frauen hat. Nichtsdestotrotz gibt es eben auch viele Prozesse, bei denen dies sehr wohl funktioniert, und hier kommt der Programmierer bedeutend weiter als der Ungeübte.

Für das Thema des Blogs bedeutet das also nicht nur, dass wir Techniken aus der Informatik verwenden können, um unser Denken zu verbessern – es bedeutet auch, dass es hier und da hilfreich wäre, tatsächlich Informatik zu betreiben. Und sei es nur, weil unser Denken dann nicht rein abstrakt bleibt, sondern einem Wirklichkeitstest (ähnlich dem in den Naturwissenschaften) unterzogen wird: nur dann, wenn eine Ausführung des Prozessmodells das tut, was erwartet wird, handelt es sich auch um ein korrektes Modell.

Kategorien
Uncategorized

Probleme lösen lernen

In den vergangenen Beiträgen (zum Beispiel unter „Wer will wirklich Probleme lösen?„) habe ich ja bereits angedeutet, dass ich Zweifel habe an der Art, wie wir in Schulen und Hochschulen unterrichten. Da dieser Punkt noch wichtig wird, wenn es darum geht, wie man Algorithmik als Problemlösungstechnik lernen kann, möchte ich ihn heute einmal vertiefen.

Ein Bekenntnis

Ich oute mich an dieser Stelle mal und gebe zu, dass ich diese Zweifel schon als Kind und später als Student hatte. Nun war es nicht so, dass ich in Schule und Hochschule nicht zurecht gekommen wäre: ich war ein typischer Zweierschüler (und später ein Zweierazubi, ein Zweierstudent und irgendwann sogar ein Zweierdoktorand). Nicht überragend, aber ich hatte auch nie wirklich Probleme, mitzukommen. Abgesehen davon, dass ich zu keinem Zeitpunkt das Gefühl hatte, den Stoff wirklich verstanden zu haben, und dass nur sehr wenig davon langfristig in meinem Gedächtnis hängengeblieben ist.

Lange Zeit habe ich geglaubt, das läge an mir. Vielleicht war ich einfach zu perfektionistisch? Andere gute Schüler / Studierende schienen dieses Problem ja auch nicht zu haben. Es machte mich zwar etwas stutzig, dass ich alles, worin ich mich wirklich kompetent fühlte, eher außerhalb der Schule bzw. der Uni gelernt hatte (beispielsweise als Hobby oder im Nebenjob). Aber das lag – so redete ich mir ein – wahrscheinlich einfach daran, dass meine ADS mir nicht nur ein eher schlechtes Gedächtnis beschert, sondern auch dafür sorgt, dass ich nicht sonderlich gut damit zurechtkomme, stillzusitzen und zuzuhören, ohne selbst etwas tun zu können.

It’s not you… it’s the system!

Nun stehe ich aber schon seit Jahren auf der anderen Seite des (metaphorischen) Lehrpults, und mit jedem Jahr, das vergeht, wird das Gefühl stärker, dass es keineswegs nur mir so geht. Ich beobachte, dass auch die meisten Studierenden den Stoff nicht wirklich verstanden haben, und zwar auch dann nicht, wenn sie einen Kurs mit einer guten Note abschließen. Denn wenn man mal nachhakt, eine Verständnisfrage stellt oder gar ein halbes Jahr später nochmal nachfragt (beispielsweise, weil man etwas braucht, was im letzten Semester behandelt wurde), dann sind sie blank. Und zwar nicht einer oder zwei, sondern fast alle.

Und genau wie bei mir selbst habe ich den Eindruck, dass diejenigen Studierenden, die den Stoff wirklich drauf haben, diese Fähigkeit neben dem Studium erworben haben. Sie haben ein passendes Hobby, nehmen an freiwilligen Praxisveranstaltungen teil, gehen einem Nebenjob in der Branche nach oder haben eine relevante Berufsausbildung absolviert.

Wenn das nur in meinen Veranstaltungen so wäre, müsste ich mir ja die Frage stellen, ob es vielleicht einfach daran liegt, dass ich kein guter Dozent bin. Aber ich weiß, dass es bei den Veranstaltungen der Kollegen genauso aussieht – auch bei solchen Kollegen, von denen ich weiß, dass sie didaktisch sehr gut und persönlich sehr engagiert sind.

Natürlich mache ich mir so meine Gedanken, woran das liegen kann. Einige meiner Hauptverdächtigen nennt die folgende Liste:

  • Stoffmenge: Der Stoffumfang der meisten Lehrveranstaltungen ist so bemessen, dass man alle 1-2 Wochen ein neues Thema behandeln muss. Für ein wirkliches, tiefes Verständnis ist das viel zu schnell: man müsste sich dem Thema eigentlich von verschiedenen Seiten nähern, Theorie und Praxis beleuchten und in Anwendungsszenarien damit arbeiten. In der gegebenen Zeit ist das schlicht nicht möglich.
  • Interesse: Oft sind Studierende auch nicht wirklich intrinsisch für eine Veranstaltung motiviert. Dozenten bedauern oft, dass die Studierenden noch nicht soweit sind, die Bedeutung dieses oder jenes Faches für ihr künftiges Berufsleben zu schätzen. Ich habe aber den Verdacht, dass es oft umgekehrt ist: die Studierenden haben ein sehr viel besseres Gefühl dafür, was sie später wirklich brauchen werden, als ihre Dozenten. Um eine faire Antwort auf die Relevanzfrage zu bekommen, müsste man eigentlich eher erfolgreiche Praktiker als erfolgreiche Professoren fragen. Aber Hand aufs Herz: wer hat das für seinen Studiengang schon mal gemacht?
  • Frontalunterricht: Die klassische Vorlesung ist ja eigentlich ein Relikt aus dem Mittelalter, als der Buchdruck noch nicht erfunden war und Professoren den Studenten daher Bücher vorlasen. Seltsamerweise hat sie sich auch in Zeiten erhalten, in denen jede Menge Alternativen (wie Bücher, Lernvideos oder interaktive Lehrformen) zur Verfügung stehen. Das wäre per se nicht schlimm, hätte die Vorlesung nicht einen entscheidenden Nachteil: Menschen lernen nur sehr, sehr schlecht, indem sie einfach jemandem zuhören. Und ja, inzwischen habe ich verstanden, dass das keinesfalls nur mir so geht…
  • Prüfungen: In den meisten Lehrveranstaltungen ist die Klausur (typischerweise 60 oder 90 Minuten) die gängige Prüfungsform. Das macht es fast unmöglich, ein wirkliches Verständnis des Stoffes abzuprüfen; dafür reicht die Zeit einfach nicht aus. Stattdessen werden also Faktenwissen und kleine Beispiele abgefragt. Das, worum es eigentlich gehen müsste – die Fähigkeit, in echten Anwendungsszenarien mit dem gelernten Material zu arbeiten – findet hier keinen Platz. Und was in der Prüfung nicht drankommt, spielt natürlich auch in der Vorbereitung keine Rolle.
  • Ausbildung der Dozenten: Au weia, ganz dünnes Eis, dabei sprechen die Studierenden das natürlich (wenn wir gerade nicht in der Nähe sind) in aller Deutlichkeit aus: Professoren sind in den meisten Fällen keine Praktiker. Um Professor zu werden, muss man promovieren, und allein das zeigt schon, dass der Weg zur Professur nur über die Theorie führt. Praxis ist in den meisten Fällen optional, und nur wenige schaffen den Spagat, wirklich beides zu beherrschen (und dann auch zu vermitteln).

Die Liste ließe sich verlängern, es handelt sich aber stets um strukturelle Gründe: Die Art, wie wir (teils aus Gewohnheit, teils aus Bequemlichkeit, teils aus Kostengründen) unterrichten, geht an den Erkenntnissen der Kognitionspsychologie vorbei und lehrt die Studierenden häufig auch nicht das, was wichtig wäre.

Problemlösungskompetenz unterrichten

Nun soll es in diesem Blog ja nicht um eine Generalabrechnung mit den Bildungssystemen der westlichen Welt gehen (auch wenn ich manchmal gute Lust dazu hätte, wenn ich an die unfassbare Menge von Lebenszeit und Energie junger Menschen denke, die da verschwendet wird). Ich bin aber davon überzeugt, dass das Wichtigste, was Studierende an einer Hochschule lernen, nicht ein gewaltiger Vorrat an Faktenwissen ist (das ja meist auch recht schnell veraltet) und auch nicht das Lösen von Übungsaufgaben, die im wirklichen Leben ohnehin schon längst der Computer für sie löst. Entscheidend sind meiner Meinung nach vielmehr Methodenkompetenzen wie kritisches Denken, Problemlösungskompetenz, Selbstmanagement, Selbststudium, Kommunikation, soziale Interaktion usw.

Und hier kehre ich dann endlich wieder zum Thema dieses Blogs zurück, denn meine Kernthese ist ja, dass die Algorithmik einen umfangreichen Werkzeugkasten zum Lösen von Problemen bereitstellt. Nur leider wird das Fach (wie so viele andere auch) eben oft nicht so unterrichtet, dass die Problemlösungskompetenz im Vordergrund steht (siehe „Meta-Algorithmik„): Der Schwerpunkt liegt allzu oft nur auf dem Erlernen bekannter Algorithmen und nicht darauf, neue Lösungsverfahren für neue Probleme zu finden.

Im letzten Wintersemester habe ich den Kurs „Algorithmen und Datenstrukturen“ stärker als bisher auf die Entwicklung genau dieser Problemlösungskompetenz ausgerichtet. Die Studierenden wurden bei jedem neuen Problem aufgefordert, dieses zunächst selbständig algorithmisch zu lösen, und die Lösungen wurden auch gleich dem Praxistest unterzogen, indem sie an Ort und Stelle implementiert wurden. Das Ziel war es, neues Faktenwissen, Methodenkompetenz und Praxisanwendung viel enger als bisher zu verzahnen. Zugleich gab es eine klare Ansage, dass in der Klausur weder Faktenwissen noch kleine Übungsaufgaben abgefragt würden – um zu bestehen, musste man in der Lage sein, selbständig Algorithmen zu entwickeln und zu implementieren.

Aufgrund der Corona-Einschränkungen musste konnte der Kurs dann leider doch nicht wie geplant als Live-Coaching in einem Rechnerpool stattfinden, sondern musste über weite Teile im Selbststudium anhand eines Skripts mit zahlreichen Trainingsaufgaben absolviert werden. Dennoch waren die Ergebnisse vielversprechend: Obwohl die Klausur sicherlich schwieriger war als in vergangenen Semestern, fiel sie deutlich besser aus. Vor allem aber waren die Teilnehmer besser als in früheren Jahren in der Lage, Lösungsalgorithmen für neue Probleme zu entwickeln.

Natürlich gäbe es auch die Möglichkeit, einen solchen Kurs komplett im Wege des problemorientierten Lernens zu unterrichten, und vielleicht probiere ich das auch eines Tages einmal aus. Aber im Augenblick bin ich mit der jetzigen Mischung aus Lernen und Ausprobieren, Theorie und Praxis ungewöhnlich zufrieden. Es steht zu hoffen, dass kommende Semester ohne Corona-Beschränkungen die Möglichkeit bieten, die Sicht der Studierenden auf das neue Lehrkonzept zu evaluieren. Und spätestens eine Vertiefungsveranstaltung im Hauptstudium wird zeigen, ob im Kurs auch bleibende Kompetenzen entwickelt wurden.

Kategorien
Uncategorized

Warum ich keine Angst vor KIs habe

Mir ist bewusst, dass ich mich mit diesem Beitrag auf ziemlich dünnes Eis begebe, denn bekanntlich kann man mit nichts so sehr daneben liegen wie mit dem Versuch, in die Zukunft zu schauen. Aber nachdem ich letzte Woche angemerkt habe, dass ich keine übermäßige Angst vor Künstlichen Intelligenzen habe, finde ich, dass ich dafür eine Erklärung schuldig bin. Diese Erklärung ist aber wirklich eher eine (hoffentlich nicht völlig unqualifizierte) persönliche Meinung als eine unumstößliche Wahrheit.

Zwei Arten von KIs

Zunächst einmal ist es wichtig zu verstehen, dass mit „Künstliche Intelligenz“ zwei sehr unterschiedliche Dinge bezeichnet werden. Das Klischee eines Computers, der einem Menschen kognitiv ebenbürtig oder sogar überlegen ist, wird als Starke KI bezeichnet. Solche KIs existieren derzeit noch nicht, und wie es aussieht, wird das auch noch eine Zeitlang so bleiben.

Relevanter für die Gegenwart ist die Schwache KI, mit der ein Verfahren bezeichnet wird, das nur ein eng begrenztes Problem lösen kann – beispielsweise Schach zu spielen, Gesichtsdaten auszuwerten oder ein Auto zu steuern. Im Unterschied zu einem klassischen Algorithmus muss die KI dabei selbständig lernen und in der Lage sein, mit Unsicherheiten umzugehen. Solche schwachen KIs haben in den vergangenen Jahren bedeutende Fortschritte erlebt, und wir sehen ihr Wirken an immer mehr Stellen im Alltag.

Starke KI (1): Energieverbrauch

Die meisten Informatiker kennen das Moore’sche Gesetz, nach dem sich die Anzahl der Transistoren, die auf eine bestimmte Fläche passen, alle zwei Jahre verdoppelt. Dieses Gesetz bestimmte seit den 1960er Jahren die Entwicklung immer besserer Chips, aber es ist absehbar, dass es in nicht allzu ferner Zukunft zum Erliegen kommen wird. Für die Entwicklung von KIs wäre das aber grundsätzlich kein Problem, schließlich könnte man einfach größere Chips bauen, um die gewünschte Leistungsfähigkeit zu erreichen.

Relevanter ist daher in der Praxis eher der Energieverbrauch des Chips. Ein Beispiel: Der berühmte IBM-PC aus dem Jahr 1981 verwendete als CPU einen Prozessor namens Intel 8088. Dieser hatte 29.000 Transistoren und eine Leistungsaufnahme von 1 Watt. Ein moderner Prozessor (aus dem Jahr 2020) hat dagegen rund 10 Milliarden Transistoren – wäre die Leistungsaufnahme in gleichem Ausmaß gestiegen wie die Anzahl der Transistoren, dann würde solch ein Prozessor über 300 Kilowatt verbrauchen und könnte mit seiner Abwärme 25 Einfamilienhäuser beheizen.

Es ist also wichtig, dass sich nicht nur die Rechenleistung erhöht, sondern dass gleichzeitig auch der Energieverbrauch sinkt. Das war lange Zeit der Fall, und diese Beziehung wurde ein halbes Jahrhundert lang durch das Koomey’sche Gesetz beschrieben: Der Energieverbrauch bei gleicher Rechenleistung fiel alle anderthalb Jahre um die Hälfte.

Dem Anschein nach kommt aber diese Faustregel, die über 50 Jahre lang gültig war, allmählich zum Stillstand. Bei vielen Chips sieht man bereits eine Verlangsamung auf eine Halbierung der Leistungsaufnahme alle zweieinhalb Jahre. Vor allem aber nähern wir uns allmählich einer harten Grenze: in spätestens 25 Jahren muss das Koomey’sche Gesetz einfach deshalb zum Stillstand kommen, weil die Gesetze der Physik keine weitere Steigerung mehr zulassen.

Das ist deshalb wichtig, weil es bedeutet, dass das Ziel, eine starke KI zu bauen, nicht erreicht werden kann, indem man einfach nur auf immer leistungsfähigere Rechner setzt. Tatsächlich funktioniert das menschliche Gehirn ja auch ganz anders als ein Computerchip. Man wird daher wohl ganz andere Hardware benötigen als bisher, und es ist noch völlig unklar, in welchem Umfang diese Umstellung gelingt.

Starke KI (2): Soll und Ist

Derweil können wir aber einen Blick werfen auf das, was derzeit technisch möglich ist. Und dabei deutet eben vieles darauf hin, dass die künstlichen Intelligenzen, die derzeit gebaut und in den Medien diskutiert werden, noch meilenweit von einer starken KI entfernt sind.

  • Die alljährlichen Gewinner des Loebner Prize für den „most human computer“ (eine Art Turing-Test, bei dem es darum geht, so menschlich wie möglich zu kommunizieren) zeichnen sich eben nicht durch intelligente Konversation aus, sondern dadurch, dass sie versuchen, den Partner so lange über ihre Ahnungslosigkeit hinwegzutäuschen, bis das Zeitlimit erreicht ist.
  • Manche dieser Programme „lernen“ auch einfach massenhaft menschliche Kommunikationen auswendig und wählen jeweils eine geeignete Antwort aus – eine Strategie, die so ähnlich auch von der KI IBM Watson angewandt wurde, um beim Jeopardy-Spiel gegen die amtierenden Champions zu gewinnen.
  • Der Computer AlphaGo, der durch seinen überragenden Sieg gegen den besten Go-Spieler der Welt berühmt wurde, ist dem Menschen nur in einem sehr schmalen Bereich überlegen: dem Spielen eines Spiels mit festen Regeln, die sich auf weniger als 3 Seiten beschreiben lassen.

Solche und ähnliche Erfolge künstlicher Intelligenzen sagen leider sehr wenig darüber aus, wie weit der Weg zu einer starken KI ist – sie sind auf enge Themengebiete beschränkt und durchgehend nicht in der Lage, abstrakt zu denken oder gar ein neues Problem zu lösen, was aber gerade das Hauptkriterium menschenähnlicher Kognition wäre.

Schwache KI

Ich vermute daher, dass die Singularität noch lange auf sich warten lässt und wir es auf absehbare Zeit vor allem mit schwachen KIs zu tun haben werden: Computersystemen, die in der Lage sind, ein klar abgegrenztes Problem zu lösen. In diesem Bereich sehen wir tatsächlich seit einigen Jahren große Fortschritte. KIs erkennen Gesichter, fälschen Videos, steuern Autos, komponieren Musik, zeichnen Bilder oder suchen in gewaltigen Datenmengen nach Mustern. Dabei wissen sie zwar nicht, was sie tun, aber die Ergebnisse sind beeindruckend.

Interessanterweise stellt sich dabei heraus, dass gerade solche menschliche Tätigkeiten, die jahrelang als „intelligent“ angesehen und entsprechend teuer bezahlt wurden (ärztliche Analyse, die Suche nach passenden Rechtstexten, das Schreiben von Computerprogrammen etc.) für KIs vergleichsweise gut zu bewältigen sind, und viele Experten gehen davon aus, dass hier in der Zukunft viele Arbeitsplätze wegfallen werden. Das gleiche gilt sicherlich auch für die gewaltige Anzahl von Arbeitsplätzen, bei denen es eben um den Umgang mit Daten in allen Formen geht (beispielsweise in Buchhaltung, Verwaltung etc.).

Große Schwierigkeiten haben KIs dagegen immer noch mit vielem, was für Menschen selbstverständlich ist: Bewegung, Sinneswahrnehmung, Empathie, Kommunikation, Sozialverhalten und vor allem das Handeln in komplexen Umgebungen. Es zeichnet sich ab, dass in der näheren Zukunft eine Zweiteilung von Aufgaben eintreten wird: Jene, die leicht von Computern übernommen werden können, und solche, die weiter dem Menschen vorbehalten bleiben.

Das eigentliche Problem

Das Problem ist also nicht so sehr, dass die KIs in den Bereich dessen eindringen würden, was wir als zutiefst menschlich empfinden. Sie werden vielmehr vor allem solche Tätigkeiten übernehmen, die nur vergleichsweise wenigen von uns wirklich liegen, sondern von den meisten schon zu Schulzeiten als unangenehm und langweilig empfunden wurden. Natürlich wird das Vordringen der KIs zu Veränderungen führen (und nicht alle werden diese Veränderungen mögen), aber die Welt wird davon nicht untergehen.

Ich selbst mache mir eher über einen anderen Punkt Gedanken, nämlich über die blinde Technikgläubigkeit, mit der die Ergebnisse der KIs übernommen werden. Zur Erinnerung: Die meisten (schwachen) KIs, die derzeit im Einsatz sind und aus großen Datenmengen Handlungsempfehlungen ableiten, haben eines gemeinsam: Wir wissen nicht wirklich, nach welchen Kriterien sie ihre Entscheidungen treffen (sie wissen es auch selbst nicht und können es uns nicht erklären). Wenn nun aber diese Vorschläge unreflektiert übernommen werden, „weil der Computer es ja so berechnet hat“ (und der menschliche Entscheider mit den Datenmengen ohnehin vollkommen überfordert ist), dann weiß genau genommen niemand mehr, warum Entscheidungen so gefällt wurden, und es fühlt sich auch niemand mehr dafür verantwortlich. Gerade der Frage nach der Verantwortung kommt aber eine entscheidende Rolle zu, und sie wurde auch beispielsweise im Zusammenhang mit selbstfahrenden Autos intensiv diskutiert. Da reichten die (wenig praktikablen) Vorschläge von „der Fahrzeughalter muss eben doch die ganze Zeit aufpassen und im Zweifel eingreifen“ bis zu „die Firma, die die Fahrzeug-KI herstellt, muss für eventuelle Schäden haften“. Bei typischen Data-Mining-Anwendungen scheint eine solche Diskussion aber völlig zu fehlen, obwohl entsprechende Systeme schon längst im praktischen Einsatz sind. Hier nutzen Entscheider den Verweis auf die Entscheidung der KIs oft sogar als Beleg dafür, dass sie ja besonders gewissenhaft gearbeitet haben. So müssen wir damit rechnen, dass künftig beispielsweise Anträge auf einen Kredit (oder eine Wohnung oder eine Krankenversicherung oder eine Bewährung…) abgelehnt werden, ohne dass man auch nur eine Begründung dafür bekommen kann, denn schließlich weiß ja niemand, warum die KI so und nicht anders entschieden hat. Das ist problematisch und wird sicherlich noch Gerichte, Politik und Gesellschaft beschäftigen.

Vor diesem Hintergrund wird es noch wichtiger als bisher sein, einen kritischen Umgang mit Medien und Daten in allen Formen zu bewahren. Wir müssen uns angewöhnen, skeptisch zu bleiben bei allem, was eine Künstliche Intelligenz berechnet oder was uns (als Text, Foto oder Video) als „Beweis“ serviert wird. Das – und nicht der Kampf gegen eine vorläufig noch fiktive übermächtige KI – wird meiner Meinung nach darüber entscheiden, in was für einer Gesellschaft wir künftig leben.

Und um auf meine ursprüngliche These zurückzukommen: Nein, ich habe keine Angst vor KIs. Ich mache mir eher Sorgen über die Art, wie wir damit umgehen…

Kategorien
Uncategorized

Warum KIs keine Algorithmen sind

Ganz zu Beginn dieses Blogs habe ich ja darauf hingewiesen, dass es hier nicht darum geht, Körner meiner überlegenen Weisheit fallen zu lassen (die ich übrigens gar nicht besitze), sondern vielmehr Schritte meiner eigenen Reise zu einem besseren Verständnis des Themas „algorithmisches Denken“ zu dokumentieren. Dazu gehört auch, dass man ab und zu feststellt, dass etwas, was man früher verstanden zu haben glaubte, doch komplizierter ist. Und dass man mögliche Fehler nachträglich korrigiert – nicht heimlich, still und leise, sondern ausdrücklich.

Und um einen solchen Fehler in einem früheren Posting soll es heute gehen.

Algorithmus und Heuristik, die Zweite

Anfang des Jahres habe ich einen Beitrag zum Thema Algorithmus und Heuristik geschrieben. Dabei bin ich etwas vorschnell zu dem Schluss gekommen, dass eine Heuristik ein spezieller Fall eines Algorithmus ist, was ich an dieser Stelle korrigieren möchte.

Das Problem wird deutlich, wenn man sich überlegt, wie die Heuristiken funktionieren, mit denen das menschliche Gehirn arbeitet. Bei der Definition eines Algorithmus hatten wir nämlich gefordert, dass es sich um „eine schrittweise Handlungsanweisung, wobei die Schritte so eindeutig definiert sein müssen, dass keine Missverständnisse aufkommen können“ handeln muss. Und genau so funktioniert unser Gehirn natürlich nicht.

Zwar wissen wir noch längst nicht alles über die Funktionsweise unseres Denkapparats, aber es scheint doch gesichert, dass er weder mit Einzelschritten arbeitet noch, dass sein Vorgehen eindeutig definiert (im Sinne von: wiederholbar) ist. Vielmehr handelt es sich um eine Verkettung von zahlreichen elektrischen Signalen, die parallel erfolgen und von variabler Stärke sind. Der Versuch, das Vorgehen des Gehirns in einen Schritt-für-Schritt-Algorithmus zu übersetzen, scheint damit aussichtslos.

Künstliche Intelligenz

Interessanterweise gilt das Gleiche auch für die Künstlichen Intelligenzen (kurz KIs genannt), die man in Anlehnung an natürliche Gehirne entwickelt hat. Wir wissen zwar, wie man sie baut und für ein bestimmtes Problem trainiert, aber wir wissen nicht wirklich, wie sie vorgehen, um ein konkretes Problem zu lösen.

So war der Rechner AlphaGo zwar 2016 in der Lage, den weltbesten Go-Spieler wiederholt zu besiegen, aber selbst seine Erbauer können nicht genau sagen, wie er dabei vorgegangen ist. Und das liegt nicht daran, dass wir zu dumm wären, sein Vorgehen zu verstehen, sondern dass sein Vorgehen eben kein vollständig algorithmisches ist. Seine Spielstrategie ist vielmehr in einem Suchbaum sowie in der Anordnung seiner Knoten (seinen „Neuronen“) und der Gewichtung der Kanten dazwischen (seinen „Synapsen“) codiert. Teile seines Vorgehens können zwar als Algorithmus beschrieben werden, aber eine vollständige Wiedergabe ist so nicht möglich, und man könnte daraus auch kein Rezept ableiten, anhand dessen menschliche Go-Spieler ihr Spiel verbessern können.

KIs sind keine Algorithmen

Das Interessante daran ist, dass eine KI (jedenfalls eine, die wie die meisten aktuellen Programme auf dem Deep-Learning-Ansatz basiert) genauso wenig ein Algorithmus ist wie die Vorgehensweise des menschlichen Gehirns. Die von KI-kritischen Kommentatoren immer wieder vorgetragene Sorge vor den bösen „Algorithmen“ ist somit sachlich falsch.

Das mag nach Haarspalterei klingen, ist aber in Wirklichkeit von großer Tragweite, gerade wenn man sich Sorgen über die Entwicklung immer mächtigerer KIs macht. Wenn es sich nämlich um Algorithmen handeln würde, könnte man sie analysieren, von ihnen lernen und sie auch abschalten, bevor sie zu mächtig werden. Das Problem ist aber gerade, dass man das nicht kann: Wenn eine KI ein Problem erfolgreich löst, wissen wir also gerade nicht, wie sie das angestellt hat (oder wozu sie sonst noch in der Lage ist).

Wenn ich zu den Leuten gehören würde, die Angst vor der Entwicklung der KIs haben (was nicht der Fall ist, mehr dazu in einem der nächsten Beiträge), dann würde mir diese Art von Heuristik viel mehr Sorgen machen als ein mächtiger Algorithmus…