Kategorien
Uncategorized

Menschen und Wahrscheinlichkeiten

So, nach über zwei Monaten Funkstille soll hier auch langsam wieder Leben in den Blog kommen. Wobei ich diesen Artikel eigentlich schon länger im Kopf habe, aber da er auch politische Themen berührt, habe ich ihn lange vor mir hergeschoben.

Ein Impfgegner-Argument

Es gibt ja verschiedene Gründe, aus denen Menschen eine Corona-Impfung ablehnen. Darüber will ich hier gar nicht urteilen, aber ich möchte ein spezielles Argument herauspicken, das ich im letzten halben Jahr insbesondere im Kommentarbereich verschiedener Zeitungen immer wieder gelesen habe und das ein Kernproblem beim rationalen Denken beleuchtet.

Das Argument geht grob wie folgt: „Ja, wer nicht geimpft ist, kann sich mit Corona anstecken / einen schweren Verlauf erleiden. Aber wer geimpft ist, kann sich auch mit Corona anstecken / einen schweren Verlauf erleiden. Also kann man das mit der Impfung auch lassen.“

Dabei ist die erste Hälfte des Arguments zweifellos richtig: Ja, man kann auch trotz Impfung mit Corona infiziert werden bzw. einen schweren Verlauf erleiden. Der Unterschied nach dem aktuellen Stand der Forschung besteht in der Wahrscheinlichkeit, mit der dies geschieht. So sagen die Statistiken, dass die Wahrscheinlichkeit, im August 2021 an Covid zu erkranken, ohne Impfung knapp 7-mal so hoch war wie mit Impfung. Und die Wahrscheinlichkeit, im gleichen Monat als Ungeimpfter wegen Covid auf der Intensivstation zu landen, war sogar 13-mal so hoch wie mit Impfung.

Damit ist die Folgerung „Also kann man das mit der Impfung auch lassen“ natürlich nicht mehr haltbar: Wenn eine Handlung die Wahrscheinlichkeit, mit der ein Ereignis eintritt, verändert, muss dies auch die Bewertung der Handlungsalternative verändern. Das geschieht aber in vielen Fällen nicht, stattdessen wird eine Handlungsalternative als wertlos deklariert, wenn sie keine 100%-ige Erfolgsgarantie gibt.

Ein Blick auf die Wissenschaft

Diese Art der Argumentation trifft man auch in vielen anderen Kontexten, besonders dann, wenn jemand rationalisiert, um mit einer kognitiven Dissonanz ins Reine zu kommen. Der alte Spruch „Saufst, stirbst. Saufst net, stirbst ah!“ mag hier als Beispiel dienen.

Vor kurzem habe ich mir nun die Frage gestellt, ob diese Denkweise auch eine Ursache für die zunehmende Wissenschaftsskepsis in der westlichen Gesellschaft ist. Denn in den meisten Fällen kann Wissenschaft ja auch keine absoluten Wahrheiten verkündet – sie versucht vielmehr, sich durch Versuch und Irrtum der Wahrheit anzunähern. Die Wahrscheinlichkeit, dass die so entwickelten Modelle die Wirklichkeit korrekt vorhersagen, ist zwar für gewöhnlich deutlich höher als bei rein anekdotischem Denken („Ich kenne jemandem, bei dem hat das funktioniert!“), aber sie liegt dennoch nicht bei 100%.

Speziell für den Laien, der mit Wahrscheinlichkeiten nicht umzugehen versteht, ist das nur schwer verständlich. Dieses Problem wird noch verschärft, wenn Wissenschaftler mit einem Wahrheitsanspruch auftreten, den ihre Disziplin gar nicht erfüllen kann. Dann sieht der Laie nur den Experten, der X sagt, und den anderen Experten, der X bestreitet, und kommt zu dem Schluss, dass die ja offensichtlich auch nicht wissen, wovon sie reden. Dass es hinter den Kulissen ebenfalls um Wahrscheinlichkeiten geht (die teilweise nicht einmal wirklich quantifiziert werden können), bleibt für den Außenstehenden unsichtbar und unverständlich.

Wirklich kritisch ist aber, wenn Wissenschaftler selbst vergessen, was Wissenschaft kann und was nicht. Dies gilt zum einen für Anhänger bestimmter Denkschulen, die der Einfachheit halber ihre Schule für „wahr“ und die anderen für „falsch“ deklarieren. Es gilt aber auch für so manchen Philosophen, der aus der korrekten Beobachtung „Wir können nicht zu 100% sicher sein, dass unsere Beobachtung der Wirklichkeit wahr ist“ die völlig überzogene Folgerung „Es gibt keine objektive Wahrheit“ gezogen und damit den alternative facts Tür und Tor geöffnet hat.

Ich würde ja voller Enthusiasmus fordern, dass wir endlich anfangen müssen, schon in den Schulen den Umgang mit Wahrscheinlichkeiten zu lehren. Auch müssten wir den Menschen beibringen, dass ein wissenschaftliches Erklärungsmodell zwar besser ist als seine Vorgänger, wenn es mit höherer Wahrscheinlichkeit korrekte Vorhersagen trifft, dass es aber immer noch ein Erklärungsmodell bleibt und keine absolute, ewige Wahrheit. Aber wenn schon die Wissenschaftler selbst sich darüber oft nicht mehr im Klaren sind, dann haben wir wahrlich einen weiten Weg vor uns.

Kategorien
Uncategorized

Rezension: The Most Human Human

Das Buch „The Most Human Human“ von Brian Christian steht schon auf meiner Rezensionsliste, seit ich es im Frühjahr 2020 gelesen habe. Aber worum geht es dabei überhaupt?

The Most Human Human (2011)

Der Loebner-Preis

Schon zu Zeiten Alan Turings (als Computer noch eher so etwas wie Gedankenexperimente oder bestenfalls Prototypen waren) stellte man sich die Frage, wann eine solche „Denkmaschine“ wirklich als intelligent gelten könne. Turing beantwortete diese Frage mit seinem berühmt gewordenen Imitation Game, bei dem ein menschlicher Juror (z.B. an einer Konsole) herausfinden soll, ob er gerade mit einem Computer oder einem echten Menschen kommuniziert. Wenn ein Computer in einem solchen Test nicht als solcher erkannt werden kann, muss man ihm Intelligenz zugestehen.

Im Jahr 1990 lobte der Erfinder und Aktivist Hugh Loebner erstmals einen Preis aus für dasjenige Computerprogramm, das sich bei einem solchen Turing-Test (wie das Imitation Game heutzutage heißt) am besten schlagen würde. Seither hat der Wettbewerb jährlich stattgefunden, bis das Format im Jahr 2019 geändert wurde. Das erfolgreichste Programm gewinnt dabei den Titel des „Most Human Computer“.

Das Format des Wettbewerbs wurde allerdings von KI-Forschern stark kritisiert. So führt die Beschränkung der Kommunikation auf wenige Minuten dazu, dass erfolgreiche Programme eher mit Tricks als mit echter kommunikativer Intelligenz erfolgreich sind. Manche von ihnen arbeiten einfach mit riesigen Datenbanken echter menschlicher Kommunikation, aus der sie geeignete Antworten auswählen, andere schinden schlicht Zeit (durch Ablenkung, Abschweifen in eigene Spezialgebiete, Witze, das Stellen von Gegenfragen usw.), bis der Gong ertönt.

The Most Human Human

Es gibt aber auch einen zweiten Preis, und zwar für denjenigen menschlichen Teilnehmer, bei dem sich die Juroren am sichersten waren, dass es sich um einen Menschen handelt. Im Jahre 2009 nahm Brian Christian (der Abschlüsse in Informatik und Philosophie hat und sich daher gewissermaßen dafür prädestiniert fühlte) am Loebner-Preis teil mit der festen Absicht, die Ehre der Menschheit zu verteidigen. Tatsächlich wurde er der „The Most Human Human“ – auch, weil er sich sehr gut vorbereitet hatte. In dem Buch, um das es hier geht, beschreibt er, wie er das gemacht und was er dabei über menschliche Intelligenz und Kommunikation gelernt hat.

Tatsächlich sind seine Befunde stellenweise niederschmetternd. Kurz zusammengefasst kann man sagen, dass Computer uns nicht deshalb in immer mehr Bereichen überlegen sind, weil sie intelligenter wären als wir, sondern weil wir immer mehr Situationen so gestalten, dass unsere natürlichen Fähigkeiten zur Kommunikation und zum Problemlösen gar nicht mehr benötigt werden. Wir gehen in Gespräch, in Beruf und Alltag immer schematischer vor, so dass auch eine Maschine diese Aufgaben übernehmen kann, ohne dass wir den Unterschied noch bemerken. Wenn sich unsere Gespräche nur auf dem Niveau von „Gibst du mir mal den Flaschenöffner?“ oder „Wie war’s heute?“ – „Hmm. Okay.“ bewegen, können sie natürlich auch von Siri, Alexa & Co. übernommen werden.

Wirklich erschreckend fand ich die Beobachtung, dass sogar die Vorgehensweise der Pick-Up-Artists, die mit standardisierten Verfahren versuchen, Frauen zu erobern, im Grunde nichts anderes als Algorithmen sind. Was für sich genommen kein Problem wäre, wenn sie nicht immer wieder erfolgreich wären. Vor lauter Schreck habe ich direkt im Anschluss Neil Strauss‘ berüchtigte autobiografisches Buch „The Game“ gelesen, und ich muss sagen: da tun sich Abgründe auf, für die die bösen Informatiker nun wirklich nichts können…

Aber es gibt auch viele andere Beispiele. So führen die Wort- und Satzergänzungen, die von Messenger-Programmen von Handys verwendet werden, dazu, dass so mancher nicht mehr das schreibt, was er eigentlich vorhatte, sondern was das Programm ihm vorschlägt. So wird das stochastische Sprachmodell, das die Software verwendet, zur selbsterfüllenden Prophezeiung, und wie in so manch anderem Bereich (beispielsweise der Google-Suche oder dem Einkauf auf Amazon) wird das, was bereits besonders häufig ist, mit jeder Iteration noch häufiger. Dass Sprache dadurch verarmt, kann jeder bestätigen, der bereits seit längerem Aufsätze korrigiert und die Trends lesen kann. Und die resultierende, verarmte Sprache ist eine, die der Computer deutlich besser imitieren kann…

Ich könnte noch zahlreiche weitere Beispiele aus dem Buch nennen, aber vielleicht reicht ja das, was ich angedeutet habe, bereits aus. „The Most Human Human“ ist ein sehr intelligentes (und überdies sehr lesbares) Buch, das uns zum Nachdenken anregen will darüber, was uns als Menschen ausmacht und auch, was wir aufgeben, wenn wir dem Weg der fortschreitenden Standardisierung weiter folgen.

tl,dr: Leseempfehlung!

Kategorien
Uncategorized

Computer Science Unplugged

Durch den Hinweis eines Kollegen bin ich über einen Artikel von Tim Bell mit dem Titel „CS Unplugged or Coding Classes?“ (Link) gestolpert, der in den Communications of the ACM veröffentlicht wurde. Darin beschreibt der Autor eine Diskussion, die in entsprechenden Kreisen wohl schon länger stattfindet und die mich ein Stück weit ratlos zurücklässt.

Zum Hintergrund: In den 1990er Jahren wurde Informatik teilweise ohne Computer unterrichtet, einfach weil es in Schulen gar keine keine entsprechende Hardware gab. Aber auch als die Ausstattung der Schulen besser wurde, wurden Ideen der Unplugged-Informatik beibehalten als Ergänzung zur Arbeit „an der Maschine“.

Extrempositionen, schon wieder

Das Überraschende für mich ist, dass die Diskussion über die Rolle der Unplugged-Informatik wohl teilweise von Extrempositionen aus geführt wird. Scheinbar gibt es ernsthaft Leute, die die Auffassung vertreten, man solle jede verfügbare Informatik-Minute auch am Computer zubringen. Und es gibt offenbar auch Leute, die der Meinung sind, man könne speziell die Ideen des Computational Thinking (auf das ich demnächst einmal ausführlicher eingehen muss) doch auch prima ganz ohne Computer vermitteln.

Das bringt mich zu einem Punkt, den ich in diesem Blog schon mehrfach angesprochen habe und der allmählich zu einer Art Mantra zu werden scheint: Ist es eigentlich tatsächlich so schwer, Mittelwege gehen? Muss wirklich jede Diskussion auf „alles oder nichts“ hinauslaufen? In welchem Bereich des wirklichen Lebens hätten denn solche Extrempositionen jemals funktioniert?

Käme beispielsweise jemand auf die Idee, das Schreinerhandwerk völlig ohne Kontakt zu Holz zu unterrichten? Oder besteht umgekehrt eine Schreinerlehre ausschließlich aus dem Hand-Werk, ohne Theorie, Material- und Werkzeugkunde oder künstlerischer Anwendung? Wird jemand ein herausragender Musiker, wenn er niemals ein Instrument spielt? Oder indem er endlos Partituren übt ohne sich jemals mit Theorie, Komposition, Geschichte oder der Wirkung von Musik auf Menschen zu beschäftigen?

Selbstwirksamkeit und Selbstkontrolle

Bell bezieht in seinem Artikel auch klar Position gegen eine ausschließliche Unplugged-Informatik. Sein Hauptargument dabei ist, dass das tatsächliche Arbeiten mit dem Computer den Schülern das Gefühl gibt, tatsächlich etwas erschaffen und verändern zu können – die berühmte Selbstwirksamkeit, ein Aspekt, der leider in allzu vielen Bereichen der Schule zu kurz kommt.

An dieser Stelle sei mir ein kleiner Exkurs erlaubt. Ich liebe den TEDx-Talk der großartigen Temple Grandin, in dem sie verschiedene Arten zu denken diskutiert und wie die Schule nicht diese jeweiligen Stärken fördert, sondern den durchschnittlichen Schüler, der ein bisschen von allem kann, bevorzugt. Vor allem aber betont sie auf ihre unnachahmliche Art, dass Selbstvertrauen und die Fähigkeit, Dinge zu erschaffen, nur entstehen, wenn wir aus Erfahrung gelernt haben, dass wir einen Unterschied in der realen Welt machen können. Ein Schulsystem, das Kindern diese fundamentale Erfahrung weitgehend vorenthält, hält sie genau wie ich für eine Katastrophe.

Vor diesem Hintergrund ist die praktische Arbeit mit dem Computer tatsächlich eine der wenigen, die Schülern und Studenten heutzutage überhaupt offenstehen. Darauf zu verzichten (aus welchen Gründen auch immer) beraubt sie der Möglichkeit, wenigstens an dieser Stelle einmal kreativ zu werden, etwas Konkretes, Funktionierendes zu erschaffen und nicht allein der Welt des Abstrakten zu verbleiben.

Ich persönlich schätze aber auch noch eine andere Eigenschaft des Computers in der Ausbildung, und zwar auch dann, wenn das Ziel gar nicht Informatik, sondern „nur“ Computational Thinking heißt: Der Computer ist ein unbestechlicher Schiedsrichter. Er lässt sich auf keine Diskussionen ein, ob die eigene Lösung nicht eigentlich doch brillant ist (und nur der Lehrer zu ignorant, um diese Brillanz zu erkennen) – wenn das Programm nicht läuft oder nicht das tut, was man erwartet hat, dann hat man etwas nicht verstanden und muss so lange weitermachen, bis man den Fehler gefunden hat. In der Informatik-Ausbildung ist das ein Grund, warum manche das Programmieren nicht mögen – es nimmt ihnen die Ausreden und zwingt sie, sich mit dem Thema wirklich so lange auseinanderzusetzen, bis sie den Durchbruch geschafft haben.

Kritische Leser mögen einwenden, dass das ein wenig nach konvergentem Denken klingt, also danach, dass man die eine, richtige Antwort finden soll und dass Kreativität dabei eher fehl am Platz ist. Das ist aber ein weit verbreitetes Missverständnis. Für jedes echte Informatik-Problem gibt es (beweisbar) unendlich viele Lösungen, und das Entwickeln einer guten und effizienten Lösung ist tatsächlich in den meisten Fällen eine kreative Tätigkeit, die in den Bereich des divergenten Denkens fällt. Das bedeutet aber nicht, dass man sich bei der praktischen Umsetzung Schlampigkeit erlauben darf, was die Programmierung übrigens mit dem Kunsthandwerk gemeinsam hat: Wenn ich mein Werkzeug nicht beherrsche, kann ich meine kreativen Ideen eben nicht umsetzen. Und eine Idee, die in der praktischen Umsetzung nicht funktioniert, ist eben doch nicht genial, sondern nur ein Traumgebilde.

Damit schließt sich übrigens auch der Kreis zum Mastery Learning, das ich an anderer Stelle bereits diskutiert habe. Es sollte nicht das Ziel von Ausbildung sein, alles mal angesprochen, aber nichts wirklich verstanden zu haben. Die Arbeit am Computer ist in besonderer Weise dazu geeignet, dem Lernenden ein Mittel zur Selbstkontrolle an die Hand zu geben. So kann er sich eine Arbeitsweise aneignen, bei der ein Thema wirklich verstanden wird – es muss verstanden werden, sonst läuft das Programm nicht.

Zusammenfassend würde ich daher davon ausgehen, dass der Unterricht in Informatik (und auch Computational Thinking) davon profitiert, wenn man den Mittelweg geht, d.h. sowohl Unplugged-Elemente als auch Programmierung einsetzt. Und die Studien, die im Artikel von Tim Bell zitiert wird, deuten darauf hin, dass diese Intuition richtig ist. Zum Glück.

Kategorien
Uncategorized

Problemlösen als Suchproblem

Das Modell von Newell und Simon

Die legendären Psychologen und KI-Pioniere Allen Newell und Herbert A. Simon beschrieben das Problemlösen in ihrem Buch Human Problem Solving (1972) in Form eines Suchproblems. Dazu überlegt man sich Folgendes:

  • Zu Beginn befindet sich das Problem in einem Startzustand. Ziel der Problemlösung ist es, einen Endzustand mit bestimmten Eigenschaften zu finden. Je nach Art des Problems kann es einen oder viele Endzustände geben (oder sogar die Erkenntnis, dass es keinen Endzustand gibt, der die gewünschten Eigenschaften besitzt).
  • Der Problemlöser verfügt über eine Reihe sogenannter Operatoren, mit denen er das Problem in einen neuen Zustand überführen kann.
  • Bei einem „echten“ Problem reicht es nicht aus, nur einen einzigen Operator anzuwenden, um in einen Zielzustand zu gelangen. Man muss eine Kombination von Operatoren finden, mit denen man in mehreren Schritten zum Ziel gelangt.

Die Menge aller möglichen Problemzustände wird auch als Problemraum bezeichnet – die Kunst des Problemlösens besteht dann darin, diesen Problemraum so effizient wie möglich zu durchsuchen.

Beispiel: Verschiebepuzzle

Beginnen wir mit einem künstlichen, stark verregelten Problem mit einem einzigen Zielzustand: einem sogenannten Verschiebepuzzle. Das nachstehende Beispiel zeigt auf der linken Seite einen möglichen Startzustand; Ziel ist es, den auf der rechten Seite abgebildeten Zielzustand zu erreichen. Dabei darf in jedem Schritt immer nur ein Stein verschoben werden, indem er auf das freie Feld bewegt wird.

Verschiebepuzzle – Start- und Zielzustand

Je nach Situation auf dem Brett sind daher pro Schritt maximal 4 verschiedene Züge möglich. Im ersten Zug können beispielsweise die Steine 4, 5, 1 oder 8 bewegt werden. Im zweiten Zug entstehen dann wieder andere Möglichkeiten, wie im folgenden Suchbaum dargestellt:

Verschiebepuzzle – erste Züge

Um eine Lösung zu finden, muss man eben diesen Baum durchsuchen. Da aber bereits ein Suchbaum mit nur 10 Zügen (die meist nicht ausreichen) knapp 75.000 Zustände besitzt und somit von einem Menschen nicht mehr vollständig durchsucht werden kann, braucht man eine Strategie, die klüger ist als „einfach mal alles ausprobieren“. Hilfreich sind dabei beispielsweise ein Qualitätsmaß (Ist der neue Zustand besser oder schlechter als der vorangegangene?), Erfahrung (Routinierte Spieler können oft gedanklich mehrere Züge zu einem einzigen Operator zusammenfassen und sparen so viel Zeit) und die Fähigkeit, mehrere Züge voraus zu denken und zu bewerten, ohne sie tatsächlich ausführen zu müssen.

Real-Life Problems

Nun mag das obige Beispiel noch recht konstruiert wirken, aber letztlich geschieht beim Lösen von Alltagsproblemen auch nichts anderes.

Stellen Sie sich vor, Sie kommen eines Abends aus dem Training und stellen fest, dass ein Reifen an ihrem Auto platt ist. Es ist dunkel, Sie können kaum etwas erkennen. Was tun Sie? Sie können zum Telefon greifen und den ADAC (oder einen kompetenten Freund) anrufen. Sie können ins Fitnessstudio zurückgehen und dort nach Hilfe fragen. Sie können sich selbst an die Arbeit machen und dabei feststellen, dass in Ihrem Auto gar kein Ersatzrad liegt (wie sie es in der Fahrschule vielleicht noch gelernt haben), sondern lediglich ein Reparaturkasten. Lernen Sie jetzt auf die Schnelle, Reifen zu reparieren? Suchen Sie sich jetzt doch Hilfe? Oder fahren Sie den Wagen einfach mit gesetztem Warnblinker auf der Felge heim? Letztlich stehen Sie vor einer Vielzahl von Handlungsalternativen, die unterschiedliche Vor- und Nachteile haben und oft auch nicht in einem Schritt zur Lösung führen, sondern weitere Schritte nach sich ziehen. Was genau Sie tun können, hängt von den Operatoren ab, die Ihnen zur Verfügung stehen, und unterscheidet sich von Person zu Person – der eine hat viele Bekannte, die er um Hilfe bitten könnte, der andere hat schon einmal einen Reifen repariert usw. Und zu guter Letzt mag auch jeder andere Anforderungen an den Zielzustand stellen – der eine will einfach nur nach Hause und hat kein Problem damit, den Wagen morgen von der Werkstatt abholen zu lassen, der andere will seinen fahrbaren Untersatz so schnell wie möglich wieder fahrtauglich bekommen.

Der Hauptunterschied zwischen Alltagsproblemen und konstruierten Problemen vom obigen Typ ist, dass die Zahl der Operatoren und möglichen Zustände bei Alltagsproblemen für gewöhnlich deutlich größer ist. Auch gibt es meist nicht nur einen einzigen Zielzustand, sondern eine ganze Reihe möglicher „Lösungen“, die unterschiedlich gut sind und mit unterschiedlichem Aufwand erreicht werden können. Unser Gehirn verwendet daher zum Problemlösen Heuristiken – es macht sich gar nicht erst die Mühe, eine perfekte Lösung zu finden, sondern versucht mit einem Näherungsverfahren eine akzeptable Lösung zu finden, die mit überschaubarem Aufwand erreicht werden kann.

Letztlich handelt es sich aber auch hier um ein Suchproblem, das durch einen Baum modelliert werden kann (auch wenn der Baum wahrscheinlich zu groß ist, um ihn aufzuschreiben). Informatiker erkennen die Art von Algorithmen, mit denen man solche Bäume durchsucht, sofort, und wir werden sie uns in den nächsten Beiträgen genauer ansehen – auch, weil sie uns helfen, die verschiedenen Klassen von Problemen und die dafür geeigneten Suchstrategien zu unterscheiden.

Kategorien
Uncategorized

Ein Lob der Prokrastination

„Prokrastination“ ist eines dieser Modewörter, die vor 25 Jahren noch kaum jemand kannte und die heute in aller Munde sind. Auf Deutsch spricht man auch von „Aufschieberitis“: Wer prokrastiniert, schiebt seine Aufgaben vor sich her, statt sie zu erledigen. Morgen, morgen, nur nicht heute… Gearbeitet wird erst, wenn die Deadline so nahe ist, dass die Panik sich auch von der besten Netflix-Serie nicht mehr unterdrücken lässt.

Prokrastination ist gerade für Personen, die sich ihre Zeit selbst einteilen können, ein riesiges Problem. An Hochschulen beispielsweise wird von Studierenden, aber sicherlich auch von so manchem Professor prokrastiniert, was das Zeug hält. So mag es nicht überraschen, dass es sogar Anti-Prokrastinationskurse gibt, und in so manchem Kurs zum Zeitmanagement wird ausgiebig diskutiert, was man gegen Prokrastination tun kann.

Die Phasen des kreatives Problemlösens

Wer schon einmal in der Verlegenheit war, ein größeres Denkproblem lösen zu müssen, und dabei erfolgreich war, der kennt vermutlich die folgenden Phasen des kreativen Problemlösens (z.B. nach Graham Wallas: The Art of Thought):

  1. Vorbereitung (preparation): Man beschäftigt sich anfangs intensiv mit dem Thema – man denkt darüber nach, schmiedet Pläne, sammelt Informationen, probiert Ideen aus usw. Dabei stellt sich irgendwann heraus, dass die gewohnten Methoden nicht zum Ziel führen – man steckt fest.
  2. Inkubation (incubation): Die eigentliche Erkenntnis, die man sucht, lässt sich häufig durch bewusstes Nachdenken nicht erzwingen. Der Verstand benötigt Zeit, um das Problem umzustrukturieren – ein unbewusster Prozess, der nicht selten stattfindet, während man etwas gänzlich anderes tut.
  3. Erkenntnis (illumination): Irgendwann fällt der sprichwörtliche Groschen – die Erkenntnis trifft den Problemlöser nicht selten wie der sprichwörtliche Blitz aus heiterem Himmel.
  4. Überprüfung (verification): Nicht jede Idee, die man hat, ist auch wirklich eine brauchbare Lösung. Sie muss daher überprüft werden – sie wird überdacht, ausprobiert, diskutiert o.ä.

Nach meiner Erfahrung sind alle vier Schritte beim kreativen Problemlösen unumgänglich. Gerade Schritt 2 wird dabei bei planerisch veranlagten Menschen gerne vergessen: Man schreibt einfach in den Kalender „8:00-12:00: Problem X lösen“ und vergisst dabei, dass das so gar nicht funktioniert. Ja, man muss sich intensiv mit dem Problem beschäftigen, aber dann muss man loslassen und das Unterbewusstsein seine Arbeit tun lassen. Ob man in der Zeit spazierengeht (wie es erstaunlich viele berühmte Mathematiker getan haben), eine Raucherpause einlegt, mit den Kollegen oder Kommilitonen quatscht oder Tischfußball spielt, ein Nickerchen macht, Sport treibt oder den Abwasch erledigt, spielt dabei keine große Rolle. Wichtig ist nur, dass das Gehirn sich nicht übermäßig anstrengen muss, damit Ressourcen für das Lösen des Problems zur Verfügung stehen. Und nicht selten wird man dann irgendwann mit einem Heureka-Moment belohnt. Bei mir selbst ist dies beispielsweise oft morgens direkt nach dem Aufwachen der Fall – das Gehirn hat mein Problem vom Vortag sprichwörtlich im Schlaf gelöst. Nicht jede Idee, die dabei herauskommt, taugt auch etwas (dafür hat man dann ja Schritt 4), aber ohne die Inkubationspause gibt es gar nicht erst eine Idee.

Zurück zur Prokrastination

In einem TED-Talk erklärt Psychologe Adam Grant, dass die so gefürchtete Prokrastination in Wirklichkeit genau hier ihren Nutzen hat: Sie zwingt uns, die Pause einzulegen, die das Gehirn benötigt, um das Problem zu lösen. Als kreative Denker sind nach seiner Analyse vor allem solche Menschen erfolgreich, die ein Projekt zunächst intensiv starten, dann prokrastinieren und dann gegen Ende (z.B. zur Deadline) hin wieder Vollgas geben.

Natürlich gibt es dafür eine Reihe von unabdingbaren Voraussetzungen. Zunächst einmal bringt natürlich auch das intensivste Prokrastinieren nichts, wenn man es versäumt hat, sich zuvor intensiv mit dem Thema auseinanderzusetzen. Und „intensiv“ ist hier wirklich das Zauberwort: Es genügt nicht, sich mal eben die Aufgabenstellung durchzulesen und dann vor den Fernseher zu fallen in der Erwartung, dass die Ideen dann schon kommen werden. Man muss mit der Fragestellung kämpfen, bis man guten Gewissens sagen kann: „Ich habe alles gemacht, was mir jetzt eingefallen ist“. Aber dann ist der richtige Zeitpunkt zum Prokrastinieren: dafür, etwas ganz anderes zu tun, damit das Unterbewusstsein seinen Job erledigen kann.

Ebenfalls wichtig ist es, die Prokrastination irgendwann zu beenden. Denn nicht selten gibt das Gehirn die neuen Ideen erst dann frei, wenn man wieder anfängt, sich mit dem Thema zu beschäftigen. Und es muss ja auch noch genügend Zeit sein, um diesen Prozess zu wiederholen, falls die erste Idee nicht gleich der Gewinner ist.

Mir ist schon klar, dass es pathologische Fälle von Prokrastination gibt, bei denen die Betroffenen überhaupt nichts mehr fertig bekommen und dringend Hilfe benötigen. Aber die „kleine Prokrastination“, die ich selbst mir als Student immer wieder zum Vorwurf gemacht habe (Aufgabenblatt anfangen, nicht mehr weiterkommen, Minesweeper spielen, Aufgabenblatt kurz vor der Deadline doch noch lösen), ist in Wahrheit ein ziemlich cleverer Mechanismus unseres Gehirns, um uns dazu zu bringen, die dringend benötigte Denkpause einzulegen, die neue Erkenntnisse überhaupt erst ermöglicht.

Natürlich muss man das Ganze nicht „Prokrastination“ nennen, und natürlich kann man solche Pausen auch ganz bewusst im Tagesplan vorsehen. Es mag kein Problem sein, acht oder zehn Stunden am Stück Routineaufgaben nachzugehen. Aber wenn die eigene Tätigkeit darin besteht, neue Probleme zu lösen (oder beispielsweise neuen Stoff zu verstehen), dann sind Inkubationspausen unabdingbar. Man sollte sie nicht verteufeln, indem man sie als „Aufschieberitis“ schlechtredet, sondern sie ganz bewusst zu einem festen Teil des Tagesablaufs machen.

Kategorien
Uncategorized

Wenn plötzlich der Groschen fällt

Insight Problems

In den letzten Tagen habe ich mich unter anderem mit sogenannten „Insight Problems“ beschäftigt. Dabei handelt es sich um solche Probleme, die man nicht einfach lösen kann, indem man eine bekannte Methode darauf anwendet (wie beispielsweise bei einer Rechenaufgabe). Man braucht ein Aha-Erlebnis, also einen wie auch immer gearteten Durchbruch (eben die Insight), um sie zu lösen.

Man kann sich dazu vorstellen, dass das Gehirn zu Beginn der Problemlösung eine Art mentalen Suchraum erstellt. Wie schon in den letzten Beiträgen beschrieben, sind verwandte Konzepte im Gehirn miteinander vernetzt; auf diese Weise wird gewissermaßen ein Graph aufgespannt, der dann durchsucht wird. Wird auf diese Weise keine Lösung gefunden, so spricht man von einem Impasse (einer Sackgasse).

Bei Insight-Problemen ist es üblicherweise so, dass man diesen mentalen Suchraum verändern muss, um zu einer Lösung zu gelangen. Durch eine andere Sicht auf das Problem können plötzlich falsche Wege wegfallen (und das Problem so übersichtlicher machen), neue Wege hinzukommen (und so neue Lösungen ermöglichen) oder die Wege neu angeordnet werden.

Eine Möglichkeit ist dabei die Constraint Relaxation. Der Gordische Knoten ist ein berühmtes Beispiel dafür: Angeblich hatte ein Orakel vorhergesagt, dass derjenige, der diesen Knoten lösen könne, die Herrschaft über Asien erringen würde. Natürlich haben es viele versucht, und alle sind gescheitert. Bis Alexander der Große die Idee hatte, den Knoten schlicht mit dem Schwert zu durchschlagen: Er hatte erkannt, dass der Constraint, an dem alle anderen gescheitert waren (nämlich dass es darum ging, den Knoten aufzubinden), gar nicht wirklich Teil der Aufgabenstellung war. Es ging schließlich nur darum, den Knoten zu lösen – davon, dass das Seil hinterher noch an einem Stück sein muss, war nirgends die Rede.

Ein anderes bekanntes Beispiel für Constraint Relaxation ist das Neun-Punkte-Problem, das man immer mal wieder in Rätselheften findet. Gegeben sind neun Punkte in der folgenden Anordnung:

Neun-Punkte-Problem

Die Aufgabe besteht nun darin, diese Punkte ohne den Stift abzusetzen durch vier zusammenhängende, gerade Linien zu verbinden. Wer das Problem nicht kennt, wird dabei typischerweise zunächst scheitern – es scheint keine Möglichkeit zu geben, mit weniger als 5 Linien auszukommen. Das Problem wird erst lösbar, wenn man sich von der Vorstellung löst, dass jede Linie an einem der Punkte beginnen und enden muss: Lässt man Linien zu, die über den „Rand“ des obigen Quadrats hinausgehen, so wird das Problem lösbar (siehe Anhang).

Im Alltag haben wir es erstaunlich häufig mit Problemen zu tun, die auf den ersten Blick nicht lösbar scheinen, bis man sich von Einschränkungen trennt, die man aufgrund der Ausgangssituation gemacht hat, die aber genau genommen gar nicht wirklich erforderlich waren. Im Folgenden will ich von einem Beispiel berichten, wo mir dies diese Woche selbst passiert ist.

Flipped Classroom

Auch aufgrund dessen, was ich in diesem Blog über den Sinn und Unsinn unserer derzeitigen Lehrmethoden geschrieben habe, habe ich mich immer mal wieder mit dem Prinzip des Flipped Classroom beschäftigt. Dieses invertiert die Rolle von Präsenz- und Heimlernen wie folgt:

  • In der klassischen Lehre wird in erster Linie der Stoff in Präsenz (z.B. in Form von Vorlesungen) vermittelt. Eingeübt wird er dann daheim. Auf diese Weise wird in der Vorlesung nur die unterste Stufe der Bloom’schen Taxonomie (siehe z.B. unter „Wer will wirklich Probleme lösen?„) durch den Dozenten gelehrt. Die oberen Stufen (also den anspruchsvolleren Teil) dagegen sollen sich die Lernenden dagegen selbst beibringen.
  • Beim Flipped Classroom geht man umgekehrt vor. Die Lernenden erhalten Lehrmaterial (z.B. Lernvideos oder Lehrbriefe), das sie daheim zur Vorbereitung des Unterrichts durcharbeiten. Der Unterricht selbst besteht dagegen in der Anwendung des Stoffes. Der Dozent fungiert hier nicht länger als Vortragender, sondern als Coach – er gibt Hilfestellungen, verbessert und motiviert.

Gerade in der jetzigen Zeit, in der viele Dozenten ihr Lehrmaterial aufgrund der Coronakrise ohnehin zur Online-Verwendung aufbereitet haben, scheint der Weg frei, stärker mit dem Flipped-Classroom-Modell zu arbeiten. Allerdings gibt es (zumindest an meiner Hochschule) ein erwartbares Problem: Viele Studierende kommen zwar regelmäßig an die Hochschule, investieren aber so gut wie keine Zeit in die Vor- oder Nachbereitung. Solche Studierende würde man in einem Flipped-Classroom-Modell sehr schnell abhängen – sie wären bereits nach wenigen Wochen mit dem Stoff so weit hintendran, dass sie von den gemeinsamen Übungen nicht mehr profitieren würden.

Daher habe ich es bisher trotz aller Begeisterung für den neuen Ansatz für unabdingbar gehalten, den Stoff doch in Präsenz vorzutragen – lieber habe ich Studierende, die dann eben nur Teile des Stoffs verstanden haben (weil sie nur in die Vorlesung kommen, aber daheim nichts machen), als Studierende, die überhaupt nichts verstanden haben (weil sie in den ersten beiden Wochen die Vorbereitung versäumt haben und dann den Rückstand nie mehr aufholen konnten).

Flipped Mastery

Diese Woche bin ich nun aber über das Konzept der „Flipped Mastery“ gestolpert, und dabei ist mir klargeworden, dass ich bei meinen Überlegungen zum Flipped Classroom von einer Beschränkung ausgegangen bin, die in Wirklichkeit für diese Lehrmethode überhaupt nicht existiert.

Beim Mastery Learning (das ebenfalls von Benjamin Bloom in den 1960er Jahren formalisiert wurde, obwohl es natürlich schon früher entsprechende Ansätze gegeben hat) stellt man sicher, dass der Lernende das Lernziel eines Themas wirklich erreicht hat, bevor er zum nächsten Thema weitergeht. Eigentlich macht das natürlich Sinn – ein Großteil unserer Schwierigkeiten mit inkrementellen Fächern wie Mathematik basieren ja gerade darauf, dass die Lernenden oft von jedem Thema nur einen Teil verstanden haben und dass die Lücken dann in ihrer Summe so übermächtig werden, dass ein weiterer Fortschritt fast unmöglich ist. Salman Khan von der Khan Academy verwendet hierzu in einem TED-Talk das Beispiel des Hausbaus: Wenn man sich beim Fundament mit 80% zufriedengeben würde und beim Erdgeschoss mit 75%, kann man sicher sein, dass das ganze Gebäude irgendwann einstürzt.

Beim Mastery Learning gilt daher die Grundregel: Jeder arbeitet so lange an dem Thema, wie er eben braucht, um es wirklich zu durchdringen. Erst dann wird zum nächsten Thema weitergegangen. Auf diese Weise dauert es zwar hier und da länger, aber die Fundamente sind überall vorhanden.

Nun ist natürlich der Flipped Classroom für diese Art der Lehre besonders geeignet, weil im Grunde (und hier lag mein Denkfehler, meine unnötige Beschränkung) ja nichts dagegen spricht, dass jeder in der gemeinsamen Übung an einem anderen Thema arbeitet. Wer etwas langsamer gestartet ist oder noch Grundlagen nacharbeiten musste, ist vielleicht noch bei Thema 2, während andere schon bei Thema 4 sind und ihren Kommilitonen schon selbst Hilfestellungen geben können. Und da der eigentliche Stoff ja in Form von Videos, Skripten o.ä. zeitlos zur Verfügung steht, kann der langsamere Student auch später noch den Stoff von Thema 4 aufarbeiten.

Natürlich gibt es bei einer solchen Form der Lehre noch sehr viele praktische Fallstricke zu beachten (Aufwand bei der Vorbereitung, Bewertung, Gruppenarbeit und Mitläufer, Kompetenz des Dozenten und vieles mehr). Auf diese werde ich vielleicht in einem zukünftigen Blogbeitrag eingehen. An dieser Stelle finde ich aber vor allem zwei Beobachtungen interesserant: Dass der Flipped Classroom ein geeignetes Mittel sein könnte, die hier immer wieder diskutierten Lernziele auf den höheren Ebenen der Bloom’schen Taxonomie (insbesondere das selbständige Problemlösen) zu erreichen. Und dass das Wissen, dass wir uns oft selbst unnötige Beschränkungen beim Lösen von Problemen auferlegen, nicht unbedingt dabei hilft, genau diesen Denkfehler auch zu vermeiden…

Anhang: Lösung des Neun-Punkte-Problems

Das Neun-Punkte-Problem kann beispielsweise wie folgt gelöst werden:

Lösung Neun-Punkte-Problem

Es sind verschiedene Lösungen möglich, sie alle erfordern jedoch, dass die Linien den durch die ursprünglichen Punkte definierten Bereich verlassen.

Kategorien
Uncategorized

Warum Auswendiglernen und Theorie so beliebt sind

Bereits im letzten Eintrag habe ich ja diskutiert, dass Informationen im Gehirn nur so lange nützlich sind, wie sie gut mit anderen Informationen vernetzt sind. Beim Lesen in der kognitionswissenschaftlichen Literatur ist mir aufgefallen, dass sich daraus noch zwei weitere Beobachtungen ergeben, die die meisten von uns aus Schule und Alltag zur Genüge kennen:

  • Auswendiglernen ist bei vielen Studierenden beliebter als Anwenden
  • Theorie ist bei vielen Dozenten beliebter als Praxis

Vom Reiz des Auswendiglernens

Der Grund ist erneut die Art, wie unser Gehirn mit Konzepten arbeitet. Psychologen gehen davon aus, dass ein Konzept in Form eines sogenannten Schemas im Gehirn gespeichert wird. Dieser Vorgang fällt dem Gehirn vergleichsweise leicht. Dagegen ist es für das Gehirn vergleichsweise aufwändig, ein Schema mit anderen Schemata zu verknüpfen. Genau das müsste man aber tun, damit es gut wieder aufzufinden ist und somit nützlich wird.

Wenn man sich das vor Augen hält, wird klar, warum das Bulimielernen eine solch beliebte Strategie für die Prüfungsvorbereitung ist. Es ist kognitiv vergleichsweise leicht und kann daher auch dann noch geleistet werden, wenn man eigentlich kognitiv überfordert ist oder schlicht zu wenig Zeit hat. Die Informationen werden als reine Fakten ohne allzuviele Verknüpfungen zum restlichen Wissen abgespeichert. Für die Klausur reicht das, weil all diese Informationen um den gemeinsamen Kern „Klausur“ herum organisiert sind und in diesem Kontext auch wieder aufgefunden werden können. Leider gehen sie aber anschließend wieder verloren, weil sie kaumVerbindungen zum übrigen Wissen aufweisen und daher auch in Zukunft nicht mehr genutzt werden können.

Sinnvoll wäre es daher, viel stärker darauf zu setzen, das Erlernte auf möglichst viele Arten zu betrachten und zu nutzen. Das dauert zwar länger, verankert das Wissen aber solide mit vielen Verbindungen zu anderen Konzepten im Gehirn und sorgt dafür, dass es später auf mannigfaltige Weise wieder abgerufen werden kann. Leider funktioniert das aber nur, wenn (1) die Stoffmenge so überschaubar gehalten wird, dass man sich mit jedem Konzept auch ausführlich beschäftigen kann, und (2) mit dem Lernen nicht erst zwei Wochen vor der Klausur begonnen wird.

Vom Reiz der Theorie

Aber auch über die Professoren (zur Erinnerung: der Autor ist auch einer) kann man aus dem Umgang mit Schemata etwas lernen. Wie alle Theoretiker sind sie so ausgebildet, dass sie vor allem mit Modellen arbeiten. Modelle sind potentiell sehr mächtige Schemata, weil sie (mit etwas Glück) auf eine Vielzahl von Situationen angewandt werden können. Allerdings gilt natürlich alles, was bereits oben und in vorangegangenen Blogbeiträgen geschrieben wurde: Ein Modell ist nur dann nützlich, wenn es hinreichend gut vernetzt wurde, so dass es aufgefunden wird, wenn es benötigt wird.

Leider neigen Theoretiker dazu, die Theorie vor allem mit anderen Theorien zu verknüpfen. Das führt zu dem bereits früher beschriebenen Phänomen, dass selbst Experten übersehen, dass Wissen (Modelle, Vorgehensweisen, …) aus ihrem Spezialgebiet auch in einem anderen Feld eingesetzt werden können. Wichtig wäre also, die Theorie breit mit so vielen Konzepten wie möglich zu verknüpfen, auch und gerade solchen, die eher im Alltag oder in der Berufspraxis angesiedelt sind.

Es gibt aber noch ein anderes Problem, das von Maslow mit dem berühmten „Law of the Instrument“ beschrieben wurde:

I suppose it is tempting, if the only tool you have is a hammer, to treat everything as if it were a nail.

Abraham Maslow, 1966

Das Arbeiten mit Modellen birgt immer auch das Risiko, dass man anfängt zu glauben, dass die Welt sich wirklich so verhalten würde wie von den Modellen vorhergesagt. Wer genügend Kontakt mit der Praxis hat, weiß eigentlich immer, dass dem nicht so ist: Das Modell liefert eine oberflächliche Beschreibung, kann aber nie alle Phänomene der wirklichen Welt erklären.

Wer daher regelmäßig praktische Probleme bearbeitet, der kennt die Ausnahmen und Besonderheiten der wirklichen Welt. In seinem Kopf findet sich daher nicht nur das Schema für das grundlegende Modell, sondern davon abgeleitet auch das Schema für den Spezialfall, in dem das Modell nicht oder nicht gut genug funktioniert. Und wahrscheinlich (bei genügend Erfahrung) auch für den Spezialfall des Spezialfalls…

Das Erlernen all dieser Schematas erfordert natürlich deutlich mehr Aufwand (und Übung) als das Entwickeln eines einzigen Modells. Und so mag es nicht überraschen, dass so mancher Theoretiker die Welt lieber durch die Brille seines Master-Modells betrachtet und alle Abweichungen zu Messfehlern erklärt, als sich in die Niederungen der Praxis zu begeben und sich dem kognitiv deutlich aufwändigeren Arbeiten mit Dutzenden von Sonder- und Spezialfällen auszusetzen…

Lessons learned

Auch wenn der Blog jetzt schon mehrfach um das gleiche Thema gekreist ist, möchte ich hier noch einmal in Erinnerung rufen, worum es bei Beiträgen wie diesen im Kern geht: Wenn man die Erkenntnisse der Kognitionsforschung ernst nimmt, dann muss man beim Aufbau von Kompetenzen (also zum Beispiel in Schule und Hochschule) dafür sorgen, eine gute Mischung von Theorie und Praxis zu schaffen. Die Theorie hat den Vorteil, dass sie Modelle erschafft, die auf sehr viele Situationen angewandt werden können. Und die (möglichst breite) Praxis sorgt dafür, dass diese Modelle auch in möglichst vielen Situationen erinnert werden und hinreichend ausdifferenzt sind, um von tatsächlichem Nutzen zu sein.

Es sollte einleuchten, dass dieses kombinierte Erlernen von Theorie und Praxis länger dauert als die gängige Vorgehensweise, möglichst große Stoffmengen in möglichst kurzer Zeit zu pauken. Andererseits bietet weniger, dafür aber wirklich beherrschtes Wissen aber letztlich mehr Nutzen als viel Stoff, den man theoretisch mal irgendwann (auswendig) gelernt hat, im Bedarfsfall aber weder auffinden noch anwenden kann.

Kategorien
Uncategorized

Warum das Lösen neuer Probleme schwierig ist

Ich habe mir in diesem Blog ja schon mehrfach Gedanken darüber gemacht, warum sich die meisten Menschen so schwer damit tun, neue Probleme zu lösen. Im Folgenden will ich einmal einen ersten Blick darauf werfen, was ich als Nicht-Psychologe beim Lesen von Psychologie-Büchern verstanden zu haben glaube.

Übertragen von Lösungen

Zunächst einmal: Das Narrativ vom Erfinder, der aus dem Nichts heraus brillante Ideen hat, ist ein Mythos. Nichts deutet darauf hin, dass wir dazu in der Lage sind. In Wahrheit lösen wir Probleme, indem wir auf dem Aufbauen, was andere vor uns gedacht (und was wir verstanden) haben. Wir können dann existierende Ideen und Lösungen geringfügig modifizieren, neu kombinieren oder auf neue, nicht zu weit entfernte Probleme übertragen. Aber wir stehen, um es mit den berühmten Worten Isaac Newtons zu sagen, immer auf den Schultern der Riesen, die vor uns zum Wissensschatz der Menschheit beigetragen haben.

Das Problem beim Anwenden bekannter Ideen auf neue Probleme ist aber, dass wir umso schlechter darin sind, je weniger sich diese Probleme an der Oberfläche ähneln. Eine berühmte Aufgabenstellung sieht wie folgt aus:

Tumorproblem: Ein Patient leidet unter einem Tumor. Diesen könnte man im Grunde genommen durch Bestrahlung zerstören. Das Problem ist aber, dass die Strahlung auch das gesunde Gewebe zwischen der Strahlenquelle und dem Tumor zerstören würde. Eine schwächere Strahlung wäre für das Gewebe ungefährlich, würde aber auch dem Tumor nicht schaden. Wie kann der Arzt vorgehen, um den Tumor trotzdem zu bekämpfen?

K. Duncker (1945): On Problem Solving

Denken Sie einen Moment darüber nach – können Sie das Problem lösen? Falls nicht: wie sieht es mit dem folgenden Problem aus?

Festungsproblem: Ein Diktator beherrscht von einer Festung aus das Land. Zahlreiche Wege führen zu dieser Festung, allerdings sind sie so vermint, dass nur kleinere Gruppen darüber marschieren können, ohne die Bomben auszulösen. Nun ist es den Rebellen gelungen, eine ansehnliche Armee an der Grenze zusammenzuziehen. Diese Armee könnte die Festung einnehmen, aber wie soll sie dorthin gelangen, ohne von den Minen zerrissen zu werden?

M.L. Gick und K.J. Holyoak (1980): Analogical Problem Solving

Die meisten Menschen tun sich mit der Lösung des zweiten Problems deutlich leichter (die Lösung finden Sie im Anhang dieses Beitrags). Dabei sind beide Probleme strukturell gleich. Warum also kennen viele Menschen eine Lösung für ein Problem, können aber gleichzeitig ein ganz ähnlich gelagertes Problem nicht lösen?

Das Problem der Auffindbarkeit

Der Grund scheint in der Organisation unseres Gehirns – genauer gesagt unseres Gedächtnisses – zu liegen. Wir speichern Informationen assoziativ: Jedes Konzept in unserem Kopf wird mit vielen anderen Konzepten verknüpft, die irgendetwas damit zu tun haben. So wäre das Konzept „Auto“ verknüpft mit Bildern von Autos, mit seinen Komponenten (Räder, Karosserie, Lenkrad, …), mit anderen Fortbewegungsmitteln (Lkw, Motorrad, …), mit Infrastruktur (Straße, Parkplatz, Tankstelle, …), mit Erlebnissen (in Urlaub fahren, zur Arbeit fahren, …) usw.

Wenn unser Gehirn jetzt eine Information sucht, die etwas mit einem Auto zu hat, dann klappert es gewissermaßen diese Verbindungen ab. Existiert eine Verbindung, wird die Information gefunden. Wenn nicht, geht es noch 1-2 Schritte weiter (also beispielsweise von Auto über Lkw zu Container), aber wenn das gesuchte Konzept zu weit entfernt ist, wird es nicht gefunden.

Im Falle von Problemlösungen kann dies leicht zu Problemen führen. Nicht nur werden Konzepte als verwandt erkannt, die es gar nicht sind (Blut ist rot, Rotwein ist rot, also ist Rotwein gut für die Durchblutung). Auch erkennt das Gehirn zwei strukturell ähnliche Probleme nicht als verwandt, wenn sie keine solch oberflächlichen Gemeinsamkeiten aufweisen. Sie befinden sich an zwei völlig unterschiedlichen Stellen in unserem Vorstellungsraum; die Verwandtschaft wird dadurch schlicht nicht bemerkt.

Erinnern Sie sich noch an das Feynman-Beispiel aus dem Beitrag „Lernen von den Großen“? Der Physiker hat seine Kommilitonen genarrt, indem er Wissen, über das sie eigentlich alle verfügten (das Konzept eines lokalen Tiefpunkts aus der Analysis) auf eine andere Situation (die Betrachtung eines Kurvenlineals) übertrug. Dabei handelt es sich um ein Beispiel für das obige Problem: Im Gehirn der Studierenden gab es schlicht keine Verknüpfung zwischen den beiden Konzepten, also übersahen sie, was doch eigentlich hätte offensichtlich sein sollen.

Und nun?

Was also kann man nun tun, um seine Fähigkeit zum Problemlösen zu verbessern? Zwei Besonderheiten fallen mir beim Lesen von Biographien der wirklich erfolgreichen Denker und Problemlöser (wie eben beispielsweise Newton oder Feynman) immer wieder auf:

  • Sie verfügen über ein großes Arsenal von Wissen, insbesondere von Modellen. Diese Modelle haben wie viele Abstraktionen den Vorteil, dass man sie auf eine Vielzahl von Situationen anwenden kann.
  • Zudem verankern sie diese Modelle im Gedächtnis, indem sie sie auf so viele realweltliche Szenarien wie möglich anwenden: Sie ziehen immer wieder Verbindungen zwischen diversen Phänomenen in der wirklichen Welt.

Wenn wir zum obigen Problem der Auffindbarkeit zurückkehren, tun sie also Folgendes: Sie legen ein Konzept (hier: ein Modell) in ihrem Kopf an, das zu möglichst vielen Situationen in der wirklichen Welt passt. Indem sie dieses auch immer wieder auf praktische Probleme und Beobachtungen anwenden, sorgen sie dafür, dass das Modell viele Verknüpfungen zu passenden Konzepten aufweist und entsprechend leicht aufgefunden werden kann.

Ein Beispiel: Wenn man sich (wie es in vielen neueren Elektronik-Lehrbüchern empfohlen wird) die Elektronen in einer Leitung als eine Sammlung von Wassertropfen vorstellt, die aufgrund von Druck (Spannung) angetrieben werden, dann hat man das Konzept des elektronischen Stroms mit dem Konzept von Wasser verknüpft. Da „Wasser“ in unserem Gehirn mit sehr vielen anderen Konzepten verknüpft ist, wird so auch das Konzept „Strom“ leichter auffindbar – auch von anderen Konzepten aus, die ebenfalls eine Verbindung zu „Wasser“ aufweisen.

Natürlich betreibe ich hier noch ein Stück weit Küchenpsychologie. Ich bin kein Experte, sondern schildere, wie ich das, was ich in Psychologiebüchern gelesen habe, verstehe. Aber zumindest passen diese Überlegungen gut zu einer ganzen Reihe von Beobachtungen, die ich im Umgang mit dem Lösen von Problemen (sei es durch mich oder durch andere) gemacht habe. Es wird daher sicherlich nicht der letzte Beitrag zum Thema „Probleme lösen lernen“ sein. Und falls ich die Vorstellungen, die ich derzeit dazu habe, wieder revidieren muss, dann verspreche ich, ehrlich dazu zu stehen.

Anhang: Lösung der Probleme

Sind Sie darauf gekommen? Das Festungsproblem lässt sich durch die Moltke-Taktik „Getrennt marschieren, vereint schlagen“ lösen. Man teilt die Armee der Rebellen auf, marschiert getrennt und versammelt sich dann vor der Festung zur Schlacht.

Das Tumorproblem ist strukturell sehr ähnlich: Es kann gelöst werden, indem man mit mehreren Strahlenquellen arbeitet, die Strahlung von erträglicher Intensität absondern. Diese werden so angeordnet, dass sie sich am Punkt des Tumors treffen, wo sich ihre Wirkung addiert. Während das gesunde Gewebe also nur niedrige Strahlung aushalten muss, wird der Tumor mit hoher Strahlenlast beschossen und somit zerstört.

Kategorien
Uncategorized

Was ist überhaupt ein Problem?

Wer schon einmal eine wie auch immer geartete geisteswissenschaftliche Diskussion geführt hat, weiß um die Wichtigkeit, zunächst einmal die zentralen Begriffe sauber zu definieren. In den Ingenieurwissenschaften (zu denen große Teile der praktischen Informatik gehören) spielen Definitionen dagegen keine so große Rolle – wie ich jetzt ein Auto genau definiere, ist nicht annähernd so wichtig, wie dass es fährt.

Für das Thema dieses Blogs ist es aber nicht uninteressant, einmal einen Blick darauf zu werfen, was in den betroffenen Disziplinen unter einem Problem verstanden wird – warum, wir hoffentlich im Verlaufe des Textes deutlich.

Das Problem in der Informatik

In der Informatik wird ein Problem beschrieben, indem man sein Input und das gewünschte Output angibt sowie die Beziehung, die zwischen den beiden bestehen soll. Dieser Begriff geht natürlich auf die Mathematik zurück, aus der wir auch entsprechende Beispiele kennen:

  • Input: Zwei ganze Zahlen a und b
  • Output: Eine ganze Zahl c, so dass c=a*b

Natürlich kann man nach diesem Schema auch deutlich komplexere Probleme definieren:

  • Input: Ein Spielstand beim Schach
  • Output: Eine Strategie für Spieler Weiß, so dass er am Ende gewinnt

Für gewöhnlich sind Probleme in der Informatik wohldefiniert, d.h. sie enthalten alle Informationen, die erforderlich sind, um sie zu lösen. Das ist zwar nicht gleichbedeutend damit, dass man sie auch wirklich lösen kann (so gibt es keinen bekannten Algorithmus, mit der Spieler Weiß eine Schachpartie garantiert immer gewinnt), aber zumindest ist es hilfreich.

Probleme im wirklichen Leben sind dagegen oft nicht wohldefiniert. Hier könnte eine Problembeschreibung eher wie folgt aussehen:

  • Input: Meine gesamte Lebenssituation und meine impliziten und expliziten Präferenzen
  • Output: Eine Vorgehensweise, wie ich den idealen Partner finde und für mich gewinne

Allein mit dem Versuch, die „gesamte Lebenssituation“ sachlich zu erfassen, wäre man vollständig überfordert. Und wer schon einmal (z.B. im Rahmen eines Kurses in Entscheidungslehre) versucht hat, seine eigenen Präferenzen in Zahlen zu gießen, weiß, dass das ebenfalls nie mehr als Stückwerk ist und in vielen Fällen sogar auf Selbstbetrug hinausläuft. Das Input bleibt also vage, das Konzept des „idealen Partners“ auch, und das gesuchte Verfahren kann daher nie mehr sein als eine Heuristik – eine Annäherung an das Gewünschte, die hoffentlich ganz brauchbar, aber mit Sicherheit nicht optimal sein wird. Ein Computer wäre mit dieser Aufgabenstellung wohl überfordert (und wird es auch noch auf Jahre hin sein), aber darum geht es ja hier auch gar nicht: die Problembeschreibung entspricht dennoch dem Schema der Informatik.

Das Problem in der Psychologie

In der Psychologie treffen wir zwar im Detail recht unterschiedliche Definitionen eines Problems an. Im Kern geht es aber darum, dass ein Lebewesen ein Ziel erreichen möchte und zunächst einmal nicht weiß, wie man dazu vorgeht.

Das entspricht der umgangssprachlichen Verwendung des Wortes „Problem“. Schließlich würde kaum jemand sagen: „Kannst du mal das Problem lösen, mir den Kaffee rüberzureichen?“ oder „Mr. Spock, das Problem lautet: Berechne 2 plus 2!“ Damit aus einer Aufgabe ein Problem wird, muss es eine Schwierigkeit geben, die dabei überwunden werden muss.

Kognitiv bedeutet das, dass für ein Problem im Sinne der Psychologie noch kein Lösungsverfahren im Gehirn vorhanden ist. Um das Problem zu lösen, muss erst ein solches Verfahren entwickelt werden, und dazu benötigen wir die in diesem Blog so oft bemühte Problemlösungskompetenz.

Aufgaben, Anwendungen und Probleme

Die Probleme im Sinne der Psychologie stellen also eine Teilmenge der Probleme im Sinne der Informatik dar. Für diesen Blog wirft das die Frage auf, wie künftig mit dem Begriff umgegangen werden soll, zumal es in der Psychologie wohl keinen Konsens gibt dazu, wie man Probleme mit bekannter Lösung bezeichnen sollte. Alan Schoenfeld spricht hier von exercises (also Übungen), aber das passt leider nicht zu allen Anwendungsfällen.

Ich selbst werde daher versuchen, im Folgenden so konsequent wie möglich mit den Begriffen Aufgabe, Anwendung und Problem zu arbeiten:

  • Eine Aufgabe ist definiert durch einen Startzustand, einen Zielzustand und ggf. die Einschränkungen, die beim Erreichen des Zielzustands eingehalten werden müssen. Dies entspricht im Wesentlichen dem Problembegriff der Informatik.
  • Eine Anwendung ist eine Aufgabe, für die dem Betroffenen (sei es nun ein Mensch, ein Tier oder eine Maschine) bereits ein Lösungsverfahren bekannt ist.
  • Ein Problem ist eine Aufgabe, für die dem Betroffenen zu Beginn noch kein Lösungsverfahren bekannt ist. Dies entspricht im Wesentlichen dem Problembegriff der Psychologie.

Ich hoffe, dass mit dieser begrifflichen Trennung im Folgenden vieles klarer wird und dass insbesondere die permanente Verwechslung von „Lösungsverfahren kennen“ (für Anwendungen nämlich) und „Problemlösungskompetenz“ (für echte, also neue Probleme) vermieden werden kann.

P.S.: Sollte der eine oder andere geneigte Leser bessere Ideen für diese Bezeichnungen haben, freue ich mich über einen entsprechenden Kommentar!

Kategorien
Uncategorized

The Middle Ground

Ich habe gerade das Bedürfnis, mal eine Art Rant zu schreiben. Vielleicht nicht zu 100% on-topic, aber da mir das Thema in letzter Zeit immer und immer wieder begegnet, möchte ich hier einfach mal Dampf ablassen.

Es geht um die (bereits im Blogbeitrag „Intuition – zwischen den Extremen“ angesprochenen) Extrempositionen, die nach meinem Empfinden mittlerweile so gut wie jede Diskussion dominieren. Einige Beispiele aus dem thematischen Umfeld dieses Blogs:

  • Im Buch „Teaching Minds“ von Roger Schank (siehe auch im Blogeintrag „Programmieren als Denktraining„) vertritt der Autor die These, dass es eigentlich die wichtigste Aufgabe von Schule und Hochschule sein sollte, jungen Menschen das selbständige Denken beizubringen. Dem würde ich unbedingt zustimmen, doch dann kippt der Autor das Kind mit dem Bade aus: Das faktenbasierte Lernen gehöre auf den Müllhaufen der Geschichte, und überhaupt lernten Menschen nur das, wofür sie intrinsisch motiviert sind. Ganz ehrlich: Wenn jeder nur das lernen würde, worauf er Lust hat, wie viele Menschen könnten dann lesen und schreiben? Und braucht es nicht auch ein Grundgerüst aus Faktenwissen, um über etwas nachdenken zu können? Ja, um überhaupt erkennen zu können, was von Interesse sein könnte? Wäre es nicht vielleicht sinnvoller, Mischformen zu finden, in denen faktenbasiertes Lernen mit „Denken lernen“ zu einem sinnvollen Ganzen vereinigt wird?
  • Vor einigen Wochen war ich in einer Kurzeinführung zum Thema „Flipped Classroom“. Diese Lehrmethode geht davon aus, dass es sinnvoller ist, wenn Studierende sich das Faktenwissen bereits vor dem Unterricht aneignen und dass im Mittelpunkt des gemeinsamen Lernens das betreute Üben und Anwenden dieses Faktenwissens steht. Dieser Ansatz ist die genaue Umkehrung des klassischen Lehrens an Hochschulen, wo die Faktenvermittlung per Vorlesung und das Einüben daheim erfolgt. Aber beides sind erneut Extrempositionen – im Alltag an einer HAW unterrichten viele Kollegen erfolgreich mit Mischformen, bei denen im Unterricht sowohl das Vermitteln von Fakten und das aktive Arbeiten damit stattfindet. Und meines Wissens funktioniert diese Art zu lehren sehr gut und wird auch von den Studierenden oft so gefordert – aber weil sie nicht so extrem ist, ist sie in der didaktischen Diskussion nicht so präsent.
  • Sobald die Diskussion auf das Thema „Künstliche Intelligenz“ kommt, erleben wir ebenfalls eine deutliche Polarisierung. Diejenigen, die Freude am Forschen haben oder eine Chance auf eine Karriere darin sehen, bauen ohne jedwede moralische Hemmschwelle Systeme, die ethisch mehr als fragwürdig sind. Und die Besorgten schreiben Buch um Buch darüber, wie das Aufkommen der KI den Untergang des selbständigen Denkens, des Arbeitsmarktes und überhaupt des westlichen Abendlandes darstellen wird.

Ich könnte die Liste beliebig fortsetzen. Digitale Lehre, soziale Medien, Transhumanismus, Open Source, Blockchain – überall wird die Diskussion von idealistischen Zukunftsgläubigen auf der einen und Weltuntergangspropheten auf der anderen Seite dominiert. Zwar suchen (und finden) die Pragmatiker – die nach meiner Erfahrung die breite Mehrheit stellen – beständig Mittelwege und Kompromisse zwischen den Extrema, aber in der öffentlichen Diskussion kommen sie kaum vor. Klar, denn für eine Mittelposition muss man deutlich mehr wissen, deutlich differenzierter betrachten und auch deutlich mehr abwägen als für ein entschiedenes „Ja“ oder „Nein“ ohne Wenn und Aber.

Mir wäre es wichtig, dass wir uns dieser Fokussierung auf Extrempositionen bewusst werden, denn wir erleben sie derzeit auch im Alltag an allen Ecken und Enden. „Alle Migranten aufnehmen“ steht einem kompromisslosen „Ausländer raus“ gegenüber. „Es kann keine Gleichheit geben, bevor nicht die gesamte Sprache gegendert ist“ prallt ungebremst auf „Gendering sollte gesetzlich verboten werden“. „Vegetarier sind immer noch Mörder, nur strikte Veganer sind gute Menschen“ ist meilenweit entfernt von „Finger weg von meinem Steak, und das Kilo darf höchstens 10 € kosten“. Man bekommt so das Gefühl, dass Kompromisse oder schrittweise Verbesserungen gar nicht möglich oder gewollt sind, stattdessen versucht jede Extremposition, so viele Anhänger wie möglich um sich zu scharen und sich als die Besitzer der einzigen Wahrheit (oder als die einzig Guten) darzustellen.

Nun ist Politik eigentlich nicht nicht das Thema dieses Blogs, aber Wissenschaft und Lehre sind es. Und da reagiere ich zunehmend genervt, wenn mir wieder und wieder irgendwelche Extrempositionen – möglichst noch garniert mit absolutem Wahrheits- oder sogar religiösem Erweckungsanspruch – serviert werden. Wissenschaft sollte der Suche nach der Wahrheit verpflichtet sein, und die Wahrheit ist (speziell bei gesellschaftlichen Themen) fast immer kompliziert. Sie lässt sich für gewöhnlich weder mit einigen wenigen markanten Thesen beschreiben, noch waren all die anderen da draußen jahrzehntelang zu blöd, sie zu erkennen. Wer überzeugt ist, im alleinigen Besitz der Erkenntnis zu sein, sagt damit mehr über sich aus als über die Erkenntnis an sich.

Wahren Wissenschaftler bleiben neugierig, hören einander zu, versuchen alle Seiten zu verstehen. Und sie sind bereit, ihre Überzeugungen und Lehrmeinungen regelmäßig auf den Prüfstand zu heben und gegebenenfalls anzupassen. Aber Hand aufs Herz: Wie viele Lehrer, Dozenten und Professoren, die wir selbst in unserer akademischen Laufbahn erleben durften, haben diesen Eindruck erweckt? Oder ist es nicht vielmehr so, dass die meisten Lehrenden den Saal betreten mit dem Anspruch, jetzt die WahrheitTM zu verkünden, und dass die meisten Lernenden auch genau das von ihnen erwarten?

Wenn ich so darüber nachdenke, müssen wir vielleicht gar nicht so weit suchen, um Gründe für die Dominanz einfacher, mit Überzeugung vorgetragener Lehrsätze zu finden…? Nein, natürlich gibt es dafür eine Vielzahl von Gründen, aber wenn ich die meisten davon ignoriere, mich auf eine einzige Ursache konzentriere, diese in einem halben Dutzend Thesen zuspitze und mit einem Schwung anschaulicher Anekdoten unterfüttere, kann ich damit sicherlich ein einigermaßen erfolgreiches Buch schreiben und es vielleicht sogar bis in die Talkshows schaffen…