Kategorien
Uncategorized

Mythbusting: Die 10.000-Stunden-Regel

In Selbstoptimierungs-Kreisen kursiert ja gerne mal die 10.000-Stunden-Regel. Diese besagt, dass man auf dem Weg zur Meisterschaft eines Themengebiets 10.000 Stunden lang üben muss.

Nun lese ich ja (siehe Eintrag letzte Woche) gerade das Buch „Peak“ von Anders Ericsson, und das ist zufälligerweise der Wissenschaftler, auf dessen Arbeiten diese 10.000-Stunden-Regel zurückgeht. In seinem Buch geht er auch ausdrücklich darauf ein – und erklärt, warum sie so gar nicht stimmt.

Hintergrund

Die 10.000-Stunden-Regel wurde von Malcolm Gladwell in seinem Buch „Outliers“ (2008) bekannt gemacht. Sie bezieht sich auf eine Studie, die Ericsson und seine Co-Autoren Anfang der 1990er Jahre mit Berliner Musikstudierenden durchgeführt hatten.

Diese Studie hatte ergeben, dass die wirklich herausragenden unter den Geigenschülern eine Gemeinsamkeit hatten: Sie hatten im Alter von 20 Jahren durchschnittlich 10.000 Übungsstunden mit ihrem Instrument absolviert.

Diese Beobachtung wurde von Gladwell verallgemeinert und fand Eingang in das Gruppengedächtnis der Selbstoptimierungs-Community. Nur ist sie wissenschaftlich überhaupt nicht haltbar…

Kritikpunkte

Ericsson nennt in „Peak“ gleich eine ganze Reihe von Punkten, warum diese Regel keinesfalls so verallgemeinerbar ist.

Zunächst einmal handelt es sich „nur“ um die Stunden, die die Geigenschüler im Alter von 20 Jahren absolviert hatten. Zu diesem Zeitpunkt gehörten sie aber noch gar nicht zu den Besten der Besten – sie gehörten lediglich zu der Teilgruppe von Musikstudierenden, denen ihre Lehrer zutrauten, eines Tages in diesen illustren Kreis vorzustoßen. Bis dahin stünden ihnen aber noch viele Jahre mit weiteren tausenden Übungsstunden bevor (Ericsson selbst tippt eher auf 20.000-25.000 Stunden, bis man Wettbewerbe gewinnt oder einen der begehrten Plätze in einem hochklassigen Orchester erreicht).

Außerdem schwankt die Zahl der Stunden, die man bis zur Meisterschaft investieren muss, je nach Themengebiet stark. So gibt es Disziplinen, die strukturell einfacher, weniger weit entwickelt oder weniger umkämpft sind – hier kann man auch mit deutlich weniger Aufwand in den Kreis der Besten aufsteigen. Umgekehrt gibt es Disziplinen, die sehr komplex sind und bei denen „Meisterschaft“ die Kombination einer Vielzahl von Kompetenzen erfordert. Hier eine Stundenzahl auch nur abschätzen zu wollen, wäre schlicht unseriös.

Übrigens handelt es sich bei den 10.000 Stunden in der ursprünglichen Studie ohnehin nur um einen Durchschnittswert, d.h. es gab durchaus auch Kandidaten, die weniger Zeit investiert hatten, während andere mehr Stunden aufgewandt hatten.

Besonders wichtig ist aber, dass es nach Ericsson keinesfalls ausreicht, sich 10.000 Stunden lang mit dem Themengebiet beschäftigt zu haben, in dem man es zur Meisterschaft bringen will. Man muss vielmehr wirklich an seinen Fehlern und Schwächen arbeiten, regelmäßiges Feedback einholen und sich Tipps und Tricks von den Besten abschauen.

Hier kann man die Analogie zu körperlichen Aktivitäten nutzen, bei denen manchmal zwischen Training und Sport unterschieden wird. Training in diesem Sinne ist eine zielgerichtete Aktivität, bei der man explizit versucht, besser zu werden. Sport dagegen ist die Anwendung des bereits erworbenen Könnens. Leider wird man durch Sport in diesem Sinne kaum besser – die Fortschritte kommen durch Training. Und bei den 10.000 Stunden, die die Geigenschüler investiert hatten, handelte es sich um reine Trainingsstunden. Die Anwendung des bereits Erlernten (z.B. bei Auftritten) wurde da gar nicht mitgezählt.

Was bleibt?

Wenn man all diese Faktoren bedenkt, wird klar, dass die 10.000 Stunden eine ziemlich willkürliche Zahl sind, die sich gut merken lässt, die aber in den meisten Fällen viel zu ungenau oder schlicht falsch ist. Das hat sie gemeinsam mit anderen schönen, runden Zahlen (etwa der 10.000-Schritte-Regel), die ebenfalls eher aufgrund ihrer Ästhetik als aufgrund ihres Wahrheitsgehalts ausgewählt wurden.

Eines stimmt aber natürlich trotzdem: Wer es an die Spitze bringen will, muss sehr viel Trainingszeit über einen langen Zeitraum investieren. Und zwar richtiges Training (im Sinne von: ständig an Verbesserungen arbeiten) und nicht nur Wiederholung dessen, was man schon kann. Dieses Training ist normalerweise anstrengend, oft frustrierend und so gut wie nie vergnügungssteuerpflichtig.

Und man sollte sich nicht selbst mit der Ausrede trösten, dass es „denen da oben“ sicherlich irgendwie zugeflogen ist. Diese These lässt sich beim Blick auf nahezu jedes Themengebiet, wo es auch nur einen Hauch von Konkurrenz gibt, leicht widerlegen: Auch wem die Anfänge leicht fallen, wird es niemals zur Meisterschaft bringen, wenn er nicht auch sehr viel Zeit darauf verwendet, besser zu werden…

Kategorien
Uncategorized

Jeder kann alles lernen?

Aktuell lese ich das Buch „Peak – How all of us can achieve extraordinary things“ von Anders Ericsson und Robert Pool. Ericsson ist Kognitionsforscher und ein Schüler des legendären Herbert Simon. Auf seinen Untersuchungen basiert u.a. die berühmte (und häufig falsch interpretierte) 10.000-Stunden-Regel, von der ich hoffentlich nächste Woche berichten werde.

Nun enthält das Buch durchaus einige hilfreiche Gedanken, auch wenn es von vielen Lesern dafür kritisiert wird, dass der eigentliche Inhalt statt auf 250 auch auf 70 Seiten gepasst hätte. Darum soll es aber hier gar nicht gehen. Vielmehr muss ich mich über eine These aufregen, die Ericsson in dem Buch und sogar im Titel immer wieder herausstreicht, obwohl sie offensichtlicher Unsinn ist (und von seinen eigenen Studien auch in keiner Weise gestützt wird).

Die Kung-Fu-Panda-Lüge

Die Rede ist von der Behauptung, dass jeder alles lernen kann, wenn er (oder sie) sich nur genug Mühe gibt und die richtigen Methoden anwendet. Talent, so behauptet Ericsson, sei auf dem Weg zur Exzellenz völlig überbewertet oder sogar nicht existent – die entscheidende Rolle spielt ausreichendes und richtiges Training.

Darüber kann jeder, wirklich jeder, der im Grundlagenbereich einer beliebigen Disziplin unterrichtet, nur herzlich lachen. Natürlich gibt es Begabungen – körperlich wie geistig. Und natürlich spielen sie eine entscheidende Rolle dabei, ob jemand zur Spitze gehören wird oder nicht. Wer es nicht glaubt, dem empfehle ich mal, ein paar Monate ehrenamtlich Mathematik-Nachhilfe zu geben.

Das gegenteilige Narrativ („Jeder kann alles werden, wenn er es nur genug will“) findet man ja häufig in Romanen oder Filmen. Ich nenne es manchmal flapsig die Disney- oder die Kung-Fu-Panda-Lüge. Da wird nämlich gerne jemand portraitiert, der einen Traum hat, aber scheinbar keinerlei Voraussetzungen dafür mitbringt und ihn auch nicht so wirklich verfolgt. Und dann hat der Protagonist ein Erweckungserlebnis oder kriegt einen tollen Trainer à la Karate Kid oder der besagte dicke Panda, und zack! – ein halbes Jahr später besiegt er auf einmal den härtesten Hund der Stadt. Auf einem Bein. Während er dabei eine Pastete isst.

Dieses Narrativ macht mich deshalb so wütend, weil ich es nicht nur für falsch, sondern auch für gefährlich halte. Der Grund ist der damit verbundene Umkehrschluss: Wenn „Jeder kann alles werden, wenn er es nur genug will“ richtig wäre, würde daraus nämlich auch folgern: „Wer es nicht geworden ist, hat es eben nicht genug gewollt“. Und das führt zu einer völlig falschen Beurteilung von menschlichem Scheitern: Aus etwas, was aus legitimen Gründen nicht geklappt hat und auch nicht klappen konnte, wird eine persönliche Schuld.

Was stimmt denn nun?

Wie komme ich nun dazu, einem Wissenschaftler zu widersprechen, der sein ganzes Leben damit zugebracht hat, die Entwicklung von Expertise zu untersuchen? Mal abgesehen davon, dass er selbst im Buch wiederholt zugibt, dass die Sache mit dem Talent gar nicht wirklich erwiesen ist, habe ich mir auch einige seiner Studien angeschaut und was aus ihnen wirklich folgt.

Soweit ich das überblicke, ist Ericsson meist so vorgegangen, dass er sich besonders erfolgreiche Experten angeschaut hat und dann untersucht hat, wie hart sie für ihren Erfolg gearbeitet haben. Und die Antwort war (wenig überraschend) immer: sehr hart. Und zwar umso härter, je weiter sie nach oben gelangt sind.

Aber folgt daraus an irgendeiner Stelle, dass sie nicht auch Talent brauchten? Um Himmels Willen – diese Aussage dürfte nicht ausgerechnet von einem Schüler Herbert Simons kommen, der in seiner Autobiografie gleich auf den ersten Seiten unumwunden zugibt, dass ihm schon als Kind das Lernen und Denken viel leichter gefallen sei als seinen Mitschülern. Natürlich hat der Mann auch gearbeitet für zwei, aber das hätte für den durchschnittlichen amerikanischen High-School-Absolventen trotzdem nicht gereicht, um gleich zwei Nobelpreise in zwei verschiedenen Disziplinen abzuräumen!

Das, was Ericsson da in seinen Studien unterläuft, nennt sich in der Wissenschaft ein Survivorship Bias: Er hat nur die befragt, die es wirklich bis in die Spitze geschafft haben. Wir wissen gar nicht, wie viel diejenigen geübt haben, die auf der Strecke geblieben sind – oder wieviel sie geübt hatten, bis sie aufgegeben haben.

Damit eine These wie „Talent ist egal“ wirklich belegt werden könnte, müsste man aber ganz anders vorgehen: Man müsste eine zufällig bestimmte Gruppe Menschen einem Training unterziehen und dann schauen, ob alle, die gleich viel und methodisch gleich sinnvoll trainieren, auch ähnlich gute Ergebnisse erzielen. Und ob man’s glaubt oder nicht: Das ist in etwa das, was in jeder größeren Lerngruppe von der Grundschule bis zum Fußballverein gemacht wird. Mit dem bekannten Ergebnis: Gleicher Aufwand führt eben nicht zu gleichen Kompetenzen.

Wie wär’s mit einem differenzierten Blick?

Wo ich Ericsson zustimme: Die meisten Leute können tatsächlich in nahezu jeder Disziplin besser werden, wenn sie es richtig anstellen und genug Zeit investieren. Aber damit ist noch nicht gesagt, um wieviel sie besser werden. Und es ist erst recht nicht gleichbedeutend damit, dass sie es damit auch bis an die Spitze schaffen.

Das Ganze wird meiner Meinung nach verständlicher, wenn man auf reines Schwarz-Weiß-Denken (Nichtskönner vs. Weltklasse) verzichtet. Ohne jetzt selbst als Wissenschaftler in dem Bereich aktiv zu sein, sieht mein mentales Modell vom Lernen (auch aufgrund langjähriger Erfahrung im Lehrberuf) in Anlehnung an das Pareto-Prinzip grob wie folgt aus:

Zusammenhang Aufwand und Trainingserfolg

Eingezeichnet sind die Lernkurven von zwei Personen – eine davon (grün) mit viel Talent für einen Kompetenzbereich, die andere mit weniger (rot). Und ja, tatsächlich sieht man, dass bei beiden ein „Mehr“ an Trainingsaufwand auch zu einer Verbesserung führt. Man sieht auch, dass am Anfang die größten Fortschritte zu verzeichnen sind und die Kurve dann abflacht, wenn ein gewisser Prozentsatz des eigenen Potentials abgerufen wurde. Das ist übrigens genau der Punkt, an dem in der Praxis viele entweder stagnieren oder sogar den Spaß an der Sache verlieren und sich eine neue Beschäftigung suchen.

Man sieht aber vor allem auch, dass der Kandidat mit den schlechteren Voraussetzungen auf Sicht keine Chance hat, mit dem talentierten Konkurrenten mitzuhalten, falls dieser ebenfalls fleißig trainiert. Er wird zwar im Vergleich zu sich selbst (und zu bequemeren Zeitgenossen) besser, aber nicht im Vergleich zur Spitze. Denn diese unterscheidet sich oft nur um die letzten Prozentpunkte nahe 100 – ein Bereich, der für den weniger hoch Veranlagten unerreichbar bleibt.

Die wirkliche Welt

Meiner Meinung nach müsste man also zunächst festhalten, dass tatsächlich jeder durch das richtige Training besser wird (aber nicht in gleichem Ausmaß), und dann die Frage stellen, ob der Fortschritt im Verhältnis steht zum Aufwand und zu dem Ziel, das er erreichen will. Ohne das jetzt mathematisch aufzudröseln, wird die Antwort ganz entscheidend davon abhängen, welches Ziel eigentlich erreicht werden soll:

  • Wenn es (wie im Buch von Ericsson) darum geht, ein Experte zu werden, d.h. zu den Besten gehören zu wollen, kommt man leider weder um Talent noch um hartes und methodisch richtiges Training herum. Ja, das Genie, das ohne Aufwand alle anderen übertrifft, ist ein Mythos. Der Typ, dem ohne einen Funken Talent allein durch Arbeit das gleiche gelingt, aber auch.
  • Wenn wir dagegen auf ein mittleres Kompetenzniveau abzielen, ist Talent zwar immer noch ein Vorteil. Der mäßig Begabte kann hier aber trotzdem noch vieles durch Mehreinsatz ausgleichen. Beispiele, wo sich das auszahlen kann, ist das Berufsleben (man muss ja nicht gleich Dachdeckerweltmeister werden – solides Handwerk reicht ja für viele völlig aus) oder körperliche Fitness (okay, dann wird man eben nicht der neue Ronaldo, aber man kommt trotzdem mit weniger Rücken- und Herzproblemen durchs Leben und kriegt vielleicht sogar den Umzug ohne Möbelpacker hin).
  • Und manchmal – gerade bei nicht lebenswichtigen Tätigkeiten – kann man sogar mit einem vergleichsweise bescheidenen Kompetenzniveau leben. Das gilt insbesondere im Hobby-Bereich, wenn man es schafft, auf das ewige Vergleichen zu verzichten. Wer nur für sich und aus Spaß an der Freude eine Sonnenblume nach der anderen malt, wird wohl nicht im Louvre enden, aber das ist ja auch gar nicht das Ziel…

Gerade für das mittlere und das bescheidene Kompetenzniveau stimme ich denjenigen zu, die sagen, dass man wenig Talent nicht als Ausrede für Nichtstun gelten lassen sollte („Die Mauer ist nicht dafür da, dich aufzuhalten, sondern dafür herauszufinden, ob du wirklich drüber willst.“). Aber wenn jemand nach fleißigem Üben unter Anleitung eines guten Lehrers irgendwann feststellt, dass es zur Karriere als Konzertpianist doch nicht reicht, dann ist eine Planänderung eher ein Zeichen von vernünftiger Selbsteinschätzung und nicht etwa davon, dass man eben zu bequem war…

Aus eigener Erfahrung empfehle ich übrigens, im Leben viele Dinge auszuprobieren und eine Zeitlang mit dem nötigen Ernst zu verfolgen. Dann merkt man nämlich, ob (1) eine Begabung und/oder (2) Freude an der Sache vorhanden sind. Und bei vielem im Leben reicht ja schon eines von beiden. Wer aber ganz an die Spitze will, der kommt ohne Begabung + Zeit + richtiges Training nicht ans Ziel.

Bem.: Ich danke Samuel Paulsen vom CrossFit Ortenberg für unsere gestrige Diskussion zum Thema – ohne unser Gespräch wäre dieser Beitrag vielleicht gar nicht entstanden.

Kategorien
Uncategorized

Kleine Schritte

Im Kern soll es in diesem Blog natürlich um das Thema Geist und Computer gehen. Aber manchmal rutscht mir ein Beitrag wie dieser dazwischen, der eher mit Selbstmanagement oder der akademischen Welt zu tun hat. Vielleicht ist das ja trotzdem für den einen oder anderen Leser interessant…

Ein Blick zurück

Zur Erinnerung: Es ist jetzt etwa sechs Jahre her, dass ich angefangen habe, mich innerlich von meinem langjährigen Arbeitsschwerpunkt „Kryptografie“ zu verabschieden. Es folgte eine mehrjährige Suche nach dem neuen „Big Thing“, die mich durch eine ganze Reihe von Themen geführt hat. Und am Ende bin ich wieder dort herausgekommen, wo ich angefangen habe, nämlich bei meinem Interesse dafür, wie unser Denken funktioniert und wie wir es mit Methoden der Informatik verstehen und verbessern können.

In diesen Jahren der Suche habe ich viele tausend Seiten gelesen, allerdings vor allem in Sachbüchern. Das hat soweit ganz gut geklappt, weil die ja typischerweise verständlich genug geschrieben sind, dass man sie einfach beim Frühstück oder abends vor dem Schlafengehen „runterlesen“ kann.

Zugleich bin ich aber in den Jahren immer wieder auf Bücher gestoßen, die eine größere Tiefe hatten und bei denen ein echtes Studieren notwendig gewesen wäre. Also Nachdenken, Notizen machen, Recherchieren, Beispiele durchspielen, Simulationen schreiben, Querverbindungen ziehen, Gegenmeinungen einholen usw. Das erfordert (Konzentrations-)Zeit, und die hatte ich nicht. Also habe ich viele davon erstmal auf den „später lesen“-Stapel gelegt. Und vor dem stehe ich jetzt.

Pile of Shame

Unter den anspruchsvolleren Büchern, in deren Thematik ich wirklich gerne tiefer einsteigen würde, sind Werke wie beispielsweise:

  • Binmore (1994/1998): Game Theory and the Social Contract (2 Bände)
  • Farrell/Lewandowsky (2018): Computational Models of Cognition and Behavior
  • Friedenberg/Silverman/Spivey (2022): Cognitive Science
  • Gallistel/King (2010): Memory and the Computational Brain
  • Gershman (2021): What Makes us Smart
  • Griffiths/Chater/Tenenbaum (2024): Bayesian Models of Cognition
  • Pearl/Mackenzie (2018): The Book of Why
  • Poole/Mackworth (2023): Artificial Intelligence
  • Prince (2023): Understanding Deep Learning
  • Robertson (2017): Problem Solving
  • Titelbaum (2022): Bayesian Epistemology (2 Bände)

Die Liste ist alles andere als vollständig, sie stellt vielmehr nur die Spitze des Eisbergs dessen dar, was ich gerne verstehen würde. Und dazu kommt dann noch jede Menge Know-How sowohl theoretischer als auch technischer Art, das ich weniger an einzelnen Büchern als vielmehr an einzelnen Konzepten festmachen würde.

Die Begeisterung ist da, ebenso die Überzeugung, jetzt endlich an der richtigen Stelle zu sein. Was mir aber fehlt, ist die Zeit dazu. Denn natürlich sind da ja all die bestehenden Aufgaben, die ich habe und die sich auch nicht einfach in Luft auflösen, nur weil ich gerade ein neues Spielzeug gefunden habe, mit dem ich mich gerne mehr beschäftigen würde.

In manchen Zeitmanagementbüchern finden sich dazu kluge Ratschläge, dass man in solchen Fällen alles andere runterpriorisieren möge, aber damit kann ich wenig anfangen. Denn fast alles, was ich meiner Zeit tue, ist ja mit Verantwortung gegenüber anderen Menschen verbunden – es sind Zusagen, die ich gemacht habe, die mir (und anderen) etwas bedeuten und die ich daher ernst nehme.

Soll ich etwa mein Amt als Dekan aufgeben, damit ich mich wieder mehr meinen Forschungsinteressen widmen kann? Soll ich zugesagte Pflichtvorlesungen aufkündigen, die außer mir niemand an der Fakultät halten kann, um Wahlfächer zu persönlichen Lieblingsthemen zu halten? Soll ich meiner Familie sagen, sie möge sich künftig mehr um sich selbst kümmern, weil Papa keine Zeit mehr hat? Offen gestanden halte ich ein solches Vorgehen für nackten Egoismus.

Das bedeutet aber, dass ich nur vergleichsweise wenig Zeit habe, um mich wirklich mit neuen Inhalten zu beschäftigen. Realistisch schaffe ich es bei guter Disziplin und Selbstorganisation, mir in einem halben Jahr das Äquivalent einer neuen Vorlesung zu erarbeiten (was vielleicht mit dem Durcharbeiten eines anspruchsvolleren Buchs vergleichbar ist). Und wenn ich das dann mit der obigen Bücherliste vergleiche, wird schnell klar: Es ist vollständig unrealistisch, die Breite und Tiefe, die ich mir wünschen würde, in den nächsten Jahren zu erreichen.

Tiny Experiments

Nun habe ich dieser Tage gerade das Buch „Tiny Experiments“ von Anne-Laure Le Cunff gelesen. Im Kern geht es hier um den Paradigmenwechsel vom zielorientierten zum prozessorientierten Arbeiten, und zumindest für mich selbst ist das ein Weg, der seit jeher besser funktioniert: Statt sich auf bestimmte SMART-Meilensteine zu versteifen, legt man stattdessen eine Vorgehensweise fest und versucht, diese konsequent einzuhalten. Was dabei an Ende herauskommt, lässt sich zu Beginn nicht wirklich vorhersagen, aber das Vorgehen hat auch den Vorteil, dass man offen bleibt für die Chancen, die sich auf dem Weg ergeben.

Gefühlt bleibt mir für das Projekt Geist und Computer gar nichts anderes übrig, als diesen Weg zu gehen. Ich kann nur sehen, dass ich die verfügbare Zeit wirklich für dieses Ziel nutze, und dann sehen, wohin mich die Reise führt.

Sehr wahrscheinlich werde ich es auf diesem Weg nicht schaffen, in diesem für mich doch immer noch recht neuen Fachgebiet noch einmal das Niveau eines international renommierten Forschers zu erreichen. Was aber in jedem Fall möglich sein sollte, ist das Verständnis meiner wichtigsten Kernfragen – und das Teilen dieses Verständnisses mit Studierenden, Schülern oder Lesern von Blogartikeln, Buchbeiträgen oder Github-Code. Und wie ich das so schreibe, merke ich, dass ich damit eigentlich auch schon ganz gut leben kann.

Learning in Public

Wie häufig bei Büchern aus dem Selbstmanagement-Genre fanden sich auch bei „Tiny Experiments“ die wichtigsten Erkenntnisse auf den ersten Seiten, und ich hatte schon die Sorge, dass der Rest mit den üblichen Anekdoten („Nehmen wir mal Frau A, die hat das auch so gemacht, und es hat funktioniert, womit unsere Methode bewiesen wäre“) und Wiederholungen gefüllt würde.

Die Anekdoten gibt es tatsächlich zuhauf, aber zum Glück gibt es auch im hinteren Teil des Buches noch interessante Kapitel. Eines hat die Überschrift „Learning in Public“ und hat mich sofort abgeholt, weil mich das Thema schon länger umtreibt. Es geht dabei darum, dass es eigentlich hilfreich ist, solche Lernprojekte wie meines in die Öffentlichkeit zu tragen, weil dadurch Dialoge entstehen oder zumindest andere unterstützt werden, die sich mit ähnlichen Problemen herumschlagen. Allerdings tritt dabei das Problem auf, dass man sich dabei natürlich extrem verwundbar macht: Noch kann man ja wenig, man ist nicht der große Guru, der den anderen jetzt die Welt erklärt, sondern ein Lernender, der möglicherweise komplett auf dem Holzweg ist und das auch noch für alle sichtbar dokumentiert.

Dieses Problem zieht sich ja auch durch diesen Blog. So habe ich hier schon behauptet, dass ich mir gar keine Sorgen mache, dass wir jemals wirklich leistungsfähige KIs zu Gesicht bekommen werden (das war gerade mal anderthalb Jahre vor der Veröffentlichung von ChatGPT und kann in der Rückbetrachtung nur als epische Fehleinschätzung gewertet werden). Und ich habe auch schon beschrieben, wie ich es geschafft habe, jahrelang durch die akademische Welt zu wandern, ohne jemals was von Bayesscher Statistik mitbekommen zu haben. In letzterem Beitrag habe ich auch schon das Problem des Generalisten beschrieben, das eben darin besteht, dass quasi überall ein Spezialist rumläuft, der mehr weiß als er und der damit die Möglichkeit hat, den Generalisten lächerlich zu machen.

Dieses Problem haben natürlich alle Menschen, die sich in der Öffentlichkeit zu Wort melden, aber bei Professoren ist es nochmal deutlich ausgeprägter: Von ihnen wird geradezu erwartet, dass sie von allem Ahnung haben, wozu sie sich äußern. Der potentielle Gesichtsverlust, wenn das dann doch nicht der Fall ist, ist entsprechend größer.

Viele ziehen daraus die Konsequenz, die Sicherheit ihrer mit Anfang 30 hart erarbeiteten Kernkompetenz nie wieder zu verlassen. In manchen Fällen führt das zu dem skurillen Phänomen, dass sich ganze Forschercommunities bis in die Rente gegenseitig bestätigen (man schreibt weiter Papers, bewertet sich positiv und hält hochspezialisierte Tagungen ab, auf denen man über die ahnungslose Jugend lästert), obwohl die Karawane schon längst weitergezogen ist und das Thema schon seit Jahren niemanden außerhalb der Altmeister mehr interessiert.

Akademisch ist das natürlich eine Tragödie: Eigentlich müsste man gerade Professoren dazu ermutigen, neugierig zu bleiben und sich immer wieder neu auszurichten. Die Anreize sind aber leider anders gesetzt: Publikationen bekommt man eben am besten dort, wo man schon Experte ist, und Fördermittel bekommt man nur für Themen, in denen man schon viele Publikationen vorzuweisen hat. Geistige Beweglichkeit und das ständige Streben nach neuen Ufern wird so natürlich nicht wirklich belohnt, und von den Konsequenzen kann so mancher Student und so manche Studentin ein Lied singen.

Mein Weg

Für mich gibt es aber inzwischen ohnehin keinen Weg mehr zurück. Die Brücken zurück zu meinem alten Forschungsgebiet sind inzwischen eingestürzt, und auch die Fehler, die ich in diesem Blog bereits gemacht habe, lassen sich nicht mehr zurücknehmen. Also kann ich es mir leisten, hier weiter zu dokumentieren, was ich gerade entdeckt habe – auch wenn manches davon noch nicht der letzte Stand der Forschung ist oder vielleicht von Experten bezweifelt wird, deren Arbeiten ich dazu noch nicht gelesen habe.

Natürlich habe ich die heimliche Hoffnung, dass ein Leser, dem ein solcher Fehler (oder vielleicht besser: eine solche Möglichkeit zur Weiterentwicklung) auffällt, mir im Kommentarbereich einen Hinweis gibt. Denn auch wenn ich in meinen Beiträgen nicht in jedem zweiten Satz „meines Wissens“ schreibe, bin ich mir bewusst, dass ich im Themenbereich Geist und Computer immer noch ein Lernender bin und in Anbetracht der beschränkten Zeit auch noch lange bleiben werde.

Kategorien
Uncategorized

Vom Spielen und Menschwerden

Heute will ich mal einen großen und vielleicht etwas mutigen Bogen schlagen: Von der Entwicklung des Spielzeugs seit meiner Jugend hin zu den auffälligen Veränderungen, die wir als Hochschullehrer bei jungen Menschen erleben.

Der Kosmos-Experimentierkasten „Elektronik“

Die folgenden Bilder zeigen die populären Elektronik-Baukästen der Firma KOSMOS – einmal aus dem Jahr 1983 und einmal aus dem Jahr 2020. Zufälligerweise habe ich beide noch hier liegen und kann daher den Artikel mit ein paar Fotos beginnen:

Ich weiß nicht, ob Ihnen dabei das gleiche ins Auge springt wie mir? Beim früheren Experimentierkasten (oben im Bild) kam man in Kontakt mit den echten Bauteilen, wie sie auch in der realen Elektronik zum Einsatz kommen. Man musste Widerstände, Kondensatoren, Transistoren und Drahtbrücken zurechtbiegen, das Bestimmen der Teile (z.B. den Farbcode der Widerstände) lernen und sie auf einem Breadboard montieren, genau wie man es noch heute beim Bau eines Prototypen im Labor macht. Die Produktion der Teile war für den Hersteller sehr günstig, weshalb die Packung auch sehr viele davon enthielt. Und wenn die mal kaputt gingen oder man eine Schaltung bauen wollte, die in der Anleitung nicht vorgesehen war, konnte man für 5 Pfennig ein Ersatzteil kaufen.

Im heutigen Experimentierkasten ist dagegen alles idiotensicher in Plastikblöcke eingeschweißt. Man kommt gar nicht mehr in Berührung mit dem tatsächlichen Bauteil, das Look-and-Feel ist so, als würde man die Schaltung am Computer zusammenklicken. Die Produktion ist aufwändig, die Packung enthält daher nur wenige Teile, und Ersatz oder Ergänzungen für eigene Schaltungen sind nicht zu bekommen.

Warum interessiert mich das? Ich mag das hohe Lied „Früher war alles besser“ normalerweise nicht besonders gern, aber an dieser Stelle stimmt es leider. Früher hat man Heranwachsende, die sich mit einem Experimentierkasten beschäftigt haben, wie kleine Erwachsene behandelt – die Ingenieure von morgen – und wir sind uns auch so vorgekommen. Heute behandelt man sie dagegen wie kleine Kinder, die vor dem Kontakt mit der Wirklichkeit beschützt werden müssen, indem man die tatsächlichen Bauteile bis zur Unkenntlichkeit wegabstrahiert. Dass das, was sie da bauen, irgendeinen Bezug zur realen Welt haben könnte, ist nicht mehr zu erkennen.

Nun unterstelle ich einem Hersteller wie Kosmos ja nicht, dass sie dumm sind, im Gegenteil. Diese Umstellung von „Zwölfjährige sind fast schon Erwachsene“ zu „Zwölfjährige sind eigentlich auch nur kleine Kinder“ wird seine Gründe im Markt haben: technisch anspruchsvolles Spielzeug für diese Altersgruppe verkauft sich nicht mehr. Ein Phänomen, das man ja auch anderswo beobachten kann.

Das Sterben des Technik-Spielzeugs

Ein anderer Klassiker, dem meine Generation hinterhertrauert, ist das Yps-Heftchen. Mit diesem Comic-Magazin, das im Jahr 1975 erstmals erschien, wurde immer auch ein Bastelprojekt mitgeliefert, und gerade technisch interessierte Kinder gehörten zu den Stammkunden. Aber auch Yps wurde von der Zeit eingeholt: Während es Comichefte mit Spielzeugbeilage bis heute gibt (von Lego über Playmobil bis zu Dinosauriern oder Handyattrappen), wurde Yps wegen der stark gefallenen Absatzzahlen im Jahr 2000 eingestellt.

Die Liste lässt sich verlängern. So gibt es die Metallbaukästen, mit denen die Boomer-Generation noch aufgewachsen ist, schon lange nicht mehr im Massenmarkt. Und auch ihre Nachfolger wie etwa LEGO Technik verkaufen sich heutzutage in erster Linie an Erwachsene; Fischertechnik hat sich aufgrund der hohen Preise wohl schon immer eher an diese Zielgruppe gewandt. Und sogar die Robotik-Plattformen LEGO Mindstorms und LEGO Boost wurden inzwischen aufgegeben (der Nachfolger LEGO Spike existiert zwar noch, ist aber ziemlich kindisch, wird kaum beworben und ist überdies extrem teuer, so dass ich Zweifel habe, ob er sich am Markt halten kann).

Ein letztes Beispiel noch aus dem Ort, in dem ich jetzt wohne. Als wir hier hergezogen sind, haben wir irgendwann am Waldrand ein Gelände entdeckt, auf dem sich mehrere Baumhäuser befanden. Dazwischen gab es Kletterseile, Holzbrücken und am Boden Werkzeugschuppen, die ziemlich improvisiert aussahen. Auf mein Nachfragen stellte sich heraus, dass hier früher die Jugendlichen des Ortes ihre eigene Stadt hatten – unter Anleitung örtlicher Handwerker aus Holz, Nägeln, Seilen, Teerpappe etc. selbst gebaut und nach Schulschluss bewohnt. Aber dann ist irgendjemand auf die Idee gekommen, die Frage nach der richtigen Versicherung zu stellen, und die ist ja in Deutschland wichtiger als die Persönlichkeitsentwicklung von Heranwachsenden. Also wurde das Projekt eingestellt, das Grundstück wucherte zu, und inzwischen ist alles abgerissen worden.

Ist das denn ein Problem?

Und das bringt mich langsam zum Thema „Geist und Computer“ zurück. Denn natürlich kann man immer argumentieren, dass sich die Zeit weiterdreht und Altes durch Neues ersetzt wird. Ich habe aber inzwischen gewaltige Zweifel, dass diese Entwicklung gut ist, wenn die aktive Beschäftigung mit der wirklichen Welt ausschließlich durch die passive Beschäftigung mit virtuellen Welten ersetzt wird.

Natürlich war es auch früher nicht so, dass ganze Jahrgänge „Radios bauen“ oder „Motorräder frisieren“ als Hobby angegeben hätten. Aber irgendwelchen physischen Kontakt zur physischen Welt hatte eigentlich jeder Jugendliche, egal ob man nun in der Kellerwerkstatt gebastelt, ein Baum- oder meinetwegen auch nur Vogelhaus gebaut, im Garten gebuddelt, am Fahrrad rumgeschraubt, auf dem Bolzplatz gekickt oder in der Küche geholfen hat.

Vieles davon findet heute nicht mehr statt. Für viele Kinder und Jugendliche zerfällt der Tag mittlerweile in zwei Teile – die Beschäftigung mit den (möglichst weltfernen) Inhalten der Schule, bei denen etwa das korrekte Bilden des französischen Plusquamperfekts wichtiger ist als die Fähigkeit, die Sprache bei einem Frankreich-Besuch tatsächlich verstehen oder sprechen zu können, und den (ebenfalls möglichst weltfernen) Inhalten von Smartphone und Spielekonsole, die man für alles nutzt, aber nicht dafür, sich ein Anleitungsvideo anzuschauen, wie man seinen platten Fahrradreifen reparieren könnte. So man ein solches denn überhaupt hat und nicht von den besorgten Eltern mit dem Auto zu allen Terminen gefahren wird.

Im Ergebnis erleben wir viele junge Menschen beim Übergang zu Berufsausbildung oder Hochschule als stark verunsichert. Plötzlich und unerwartet stehen sie jetzt vor diesem Ding namens „wirkliches Leben“ und stellen fest, dass man sie 20 Jahre lang erfolgreich davor beschützt hat. Manche von ihnen schaffen es noch, das Ruder herumzureißen, aber wir erleben auch zahlreiche Fälle von vollständiger Überforderung und daraus resultierenden Depressionen. Inzwischen hat jede Hochschule, mit der ich zu tun habe, dieses Thema auf der Agenda, weil es sich eben um wirklich viele Fälle handelt.

Die Schuld wird da gerne bei den Covid-Lockdowns gesucht, aber ich fürchte, dass die Hauptursache die verlorenen Jahre der Kindheit und Jugend sind, in denen der Umgang mit der wirklichen Welt nicht geübt wurde. Vermeintlich selbstverständliche Fähigkeiten wie Selbststeuerung, Problemlösungskompetenz, Entscheidungsfähigkeit, Frustrationstoleranz oder Teamverhalten werden teilweise erst mit Anfang 20 erlernt – wenn es denn überhaupt noch klappt.

Ein Literaturtipp

Der Philosophieprofessor und Motorradmechaniker (!) Matthew B. Crawford liefert in seinem Buch „Die Wiedergewinnung des Wirklichen“ ein eindringliches Plädoyer dafür, dass wir uns unsere Welt wieder durch direkten Kontakt aneignen müssen, und er hat dabei nicht nur die Philosophie, sondern auch die Erkenntnisse der Neurowissenschaften auf seiner Seite.

Mich hat dieses Buch sehr nachdenklich gemacht, und ich halte den darin enthaltenen Appell für einen der wichtigsten unserer Zeit: Wir brauchen für unsere eigene geistige Gesundheit wieder mehr Kontakt mit der wirklichen Welt, mit ihren Widrigkeiten und ihren zahllosen Details, die sich nicht an die einfachen Modelle aus Medien und Wissenschaft halten. Der menschliche Geist ist gut darin, mit dieser chaotischen und widerspenstigen Welt umzugehen. Er braucht Haptik, sozialen Umgang und gelegentliche Widerstände – und die Selbstwirksamkeitserfahrung, die nur entsteht, wenn man diese Widerstände erfolgreich überwunden hat.

Ich schließe mich M. Crawford an: Wir sollten uns selbst diese Möglichkeiten zum Wachstum wieder häufiger bieten – und unseren Kindern erst recht.

Kategorien
Uncategorized

Geist und Computer

Wie bereits im Januar geschrieben, bin ich nach längerer Suche (und diversen Abschweifungen) mit meiner Arbeit wieder zum ursprünglichen Thema dieses Blogs zurückgekehrt. Die Bezeichnung „Algorithmisches Denken“ würde ich heute zwar nicht mehr verwenden (einfach deshalb, weil unser Denken im Kern gar nicht auf Algorithmen beruht), aber das Ziel bleibt das gleiche: Ich möchte den Gemeinsamkeiten und Unterschiede zwischen menschlichem Denken und maschinellem Problemlösen nachspüren bzw. die Zusammenhänge zwischen beiden verstehen.

Dieses Themenfeld gehört ins Forschungsgebiet der Kognitionswissenschaft. Da diese Bezeichnung aber etwas sperrig ist (und das Forschungsgebiet in manchen Communities als etwas „angestaubt“ gilt, obwohl es meiner Meinung nach gerade aufgrund der aktuellen Durchbrüche in der KI-Forschung so relevant ist wie noch nie), habe ich es für mich selbst inzwischen mit der Überschrift „Geist und Computer“ versehen.

Schwerpunkte im Überblick

Nun ist dieses Feld natürlich ziemlich umfangreich, und gerade jemand wie ich, der ohnehin ständig dazu neigt, von Hölzchen auf Stöckchen zu kommen, muss sehr aufpassen, sich nicht rettungslos darin (und in interessant klingenden Nachbardisziplinen) zu verzetteln. Ich bin daher dieses Frühjahr mal in mich gegangen und habe mich gefragt, welche Fragestellungen für mich

  • im Mittelpunkt stehen, weil ich sie um ihrer selbst willen verstehen oder anwenden will,
  • eher Hilfsmittel sind, weil sie geistiges oder technisches Rüstzeug liefern, um die Hauptfragen bearbeiten zu können, oder
  • gar keinen wirklichen Bezug zum menschlichen Denken haben.

Dabei ist die folgende Übersicht über meine künftigen Arbeitsschwerpunkte entstanden:

Wie man sieht, geht es im Kern um Modelle des Denkens (also das Verstehen, wie Denken funktioniert) und Werkzeuge des Denkens (also um Techniken, mit denen wir besser darin werden können).

Was für den Leser vielleicht nicht sonderlich aufregend klingen mag, war für mich ein wichtiger Schritt – vor allem, weil es einigen Disziplinen, mit denen ich mich in den letzten Jahren teils ausgiebig beschäftigt habe (wie beispielsweise das Feld der Komplexen Systeme), künftig eine „dienende“ Rolle zuweist. Ich erhoffe mir von ihnen nützliche Grundlagen und Werkzeuge, will sie aber künftig nicht mehr um ihrer selbst willen studieren, sondern nur noch on demand mit einer klaren Aufgabenstellung vor Augen.

Modelle des Denkens

Aussagekraft von Modellen: Wenn man über Modelle des Denkens nachdenkt, muss man sich zuerst Gedanken darüber im Klaren sein, was ein Modell überhaupt ist. Ein entscheidender Punkt, der in der Öffentlichkeit und sogar in der Wissenschaft überraschend häufig vergessen wird, ist nämlich: Ein Modell ist per Definition eine Vereinfachung der Wirklichkeit. Jedes Modell trifft andere Annahmen, lässt bestimmte Komplexitäten weg und richtet den Scheinwerfer auf bestimmte Aspekte. Ein Modell ist daher auch niemals (!) richtig oder falsch – es erfüllt nur die Aufgabe, für die es erschaffen wurde, mal mehr und mal weniger gut. Wer etwas anderes behauptet, hat das Konzept eines Modells nicht verstanden, und läuft Gefahr, es mit einer absoluten Wahrheit zu verwechseln – ein Phänomen, das wir gesellschaftlich häufig erleben und das sich gefühlt in den letzten Jahren dank Social-Media-Filterblasen wieder verschlimmert hat bis hin zu einem quasi-religiösen Glauben an teils absurd simplistische Modelle.

Formale und technische Modelle des Denkens: Wenn wir uns das bewusst gemacht haben, wird auch klar, warum Wissenschaftler, die sich mit der Funktionsweise des Denkens beschäftigen, verschiedene Modelle für den gleichen Vorgang diskutieren. So gibt es neben den klassischen Modellen der Kognitionspsychologie, die sich auf das menschliche Gehirn beschränken, auch die eher technischen Modelle der Kognitionswissenschaft, in denen zumindest Teilaspekte des menschlichen Denkens in Form von Rechenmaschinen modelliert werden, um sie besser verstehen zu können (Computertheorie des Geistes). Natürlich werden diese voraussichtlich nie alle Aspekte des menschlichen Denkens, Fühlens oder Bewusstseins abbilden können – dafür ist das Gehirn als emergentes System viel zu komplex, und es kann wohl auch nicht unabhängig von Körper und Umwelt verstanden werden. Aber es gelingt doch immer wieder, aus dem technischen Modell Erkenntnisse über den menschlichen Geist zu gewinnen, von dem sie inspiriert sind.

Implementierung: Die momentan populärste technische Umsetzung solcher Modelle – die neuronale Netze – interessieren mich nicht um ihrer selbst willen, im Gegenteil: Obwohl ich nicht zur Fraktion der Technikpessimisten gehöre, sehe ich doch mit Sorge, wie mit rasender Geschwindigkeit eine Technologie verbessert wird, deren Disruptionspotential wir noch nicht einmal in Ansätzen verstehen. Wenn wir das Aufkommen von KIs auf Grundlage neuronaler Netze aber schon nicht verhindern können (und das werden wir nicht – es wäre die erste Technologie, die möglich wird und bei der sich dann die gesamte Menschheit darauf einigen würde, auf sie zu verzichten), dann sollten wir zumindest besser verstehen, was sie tut. Dieses Ziel hat sich das Teilgebiet der Explainable AI (XAI) gesteckt, und für mich ist es gleich aus zwei Gründen von Interesse: Zum einen, weil ich es für essentiell halte, dass wir das Innenleben einer Technologie, der wir bereits jetzt weitreichende Entscheidungen anvertrauen, wirklich verstehen. Und zum anderen, weil ich damit zumindest die Hoffnung verbinde, auch unser eigenes Denken besser verstehen zu lernen. Leider habe ich aber bereits feststellen müssen, dass es alles andere als leicht ist, hier noch den Anschluss an den Stand von Forschung und Entwicklung herzustellen – ob mir das im letzten Drittel meiner Berufstätigkeit noch gelingt?

Werkzeuge des Denkens

Problemlösendes Denken: Meine ursprüngliche Motivation beim Studium des „algorithmischen Denkens“ zielte ja darauf ab, das menschliche Problemlösen (insb. von neuen, komplexen Problemen) besser zu verstehen und auch darauf, Techniken zu finden, mit denen man es trainieren kann. Tatsächlich scheint dieses Wissensgebiet nach wie vor nicht sonderlich gut entwickelt zu sein: die gängigsten Modelle stammen aus den 1960er und 1970er Jahren, und Ratgeber „Wie löse ich komplexe Probleme“ finden sich bis heute nicht in den Regalen der (virtuellen) Buchhändler. Dabei dürfte diese Kompetenz mit dem Aufkommen von KIs künftig noch einmal stark an Bedeutung gewinnen, denn die Routineaufgaben, in die sich so viele Menschen dankbar zurückziehen, sobald sie ihre Ausbildung abgeschlossen haben, werden aller Voraussicht nach bald automatisiert werden.

Entscheidendes Denken: Wie schlecht unser Verständnis des problemlösenden Denkens entwickelt ist, kann man leicht erkennen, wenn man den Stand der Forschung mit dem zum entscheidenden Denken vergleicht. Hier gibt es einen sowohl deskriptiv („Wie Treffen Menschen Entscheidungen?“) als auch präskriptiv („Wie sollten sie Entscheidungen treffen?“) gut ausgebauten Kanon, der in den Fächern Entscheidungslehre und Spieltheorie unterrichtet wird, in hunderten Sach- und Fachbüchern beschrieben ist und in zahlreichen Anwendungsdisziplinen zum Einsatz kommt.

Lernen und Gedächtnis: Was das menschliche Lernen und Erinnern (und somit die Grundlagen für problemlösendes Denken) angeht, scheint die Situation kompliziert zu sein. Gerade die Neurowissenschaft hat hier u.a. dank verbesserter Messverfahren riesige Fortschritte gemacht, die aber von Teilen der Psychologie angezweifelt und von der Pädagogik weitgehend ignoriert werden. Als Außenstehender wird man das Gefühl nicht los, dass hier von ganzen Forschungscommunities in unverantwortlicher Form Besitzstände gewahrt werden, statt sich auf neue Erkenntnisse und Forschungsansätze einzulassen. Die bekannte These, dass sich neue Denkschulen erst durchsetzen können, wenn die Vertreter der alten Denkschulen verstorben sind, scheint sich hier zu bewahrheiten – mit der Folge, dass in Schulen und Universitäten kaum etwas von dem umgesetzt wird, was man eigentlich schon seit Jahrzehnten weiß.

Selbststeuerung: Zugegeben, dieses Thema scheint etwas abseits meines sonstigen Schwerpunkts des problemlösenden Denkens zu liegen. Ich habe aber eine ganze Reihe von Gründen, mich immer wieder damit zu beschäftigen – angefangen vom ganz persönlichen Kampf gegen schlechte und für gute Gewohnheiten über das Coaching von Studierenden bis hin zu eher philosophischen Fragen nach dem freien Willen. In jedem Fall beschäftige ich mich schon seit rund 30 Jahren mit Fragen der Selbststeuerung und beobachte mit Interesse, wie sich der Stand der Erkenntnis immer stärker weg von „Dann musst du dir halt mal einen Plan machen und ihn dann auch einhalten!“ und hin zu „Gewohnheiten sind erlerntes Verhalten, ändern kann man sie nur, indem man das neue Verhaltensmuster aktiv trainiert“ ändert. Und damit sind wir dann eben plötzlich doch ganz nah beim Thema „Lernen und Gedächtnis“…

Ausblick

Als ich diesen Blog gestartet habe, habe ich mir selbst versprochen, jeden Sonntag einen Beitrag hochzuladen. Im ersten Jahr hat das auch ganz gut geklappt, dann ist der Blog aber aus den im Januar beschriebenen Gründen ins Stottern geraten.

Dieses Versprechen des wöchentlichen Beitrags habe ich erneuert und hoffe daher, dass es ab jetzt wieder regelmäßiger etwas zu den oben aufgeführten Schwerpunktthemen zu lesen gibt. Ganz im Sinne des unter „Selbststeuerung“ Geschriebenen versuche ich hier also, für mich selbst eine gute Gewohnheit zu etablieren – und das gewissermaßen vor aller Augen…

Kategorien
Uncategorized

Oh, es geht weiter?

Ja, tatsächlich. Ab jetzt soll es hier wieder regelmäßige Beiträge geben. Aber nachdem der Blog jetzt eigentlich schon seit Beginn meines Flirts mit der Network Science im Frühjahr 2022 schwächelt und seit dem Aufkommen von ChatGPT Anfang 2023 fast völlig brach liegt, sollte ich vielleicht ein Wort der Erklärung voranstellen.

Dass dazwischen so wenig passiert ist, liegt daran, dass ich mich mit vielen anderen Themen beschäftigt habe, die nicht so recht zum Schwerpunkt des Blogs (Algorithmisches Denken, wir erinnern uns) passen wollten. Mit Blockchains etwa oder dem Metaverse, aber auch mit Network Science, Komplexitätstheorie, Spieltheorie und agentenbasierter Modellierung. Ich war auf der Suche nach etwas, was ich noch nicht richtig fassen konnte, und habe mich daher kreuz und quer durch die Bibliothek gelesen.

Seit dem Herbst 2024 hat sich der Nebel aber allmählich gelichtet, und ich bin wieder dort gelandet, wo ich beim Start des Blogs im Jahre 2021 hergekommen bin: Bei der Beschäftigung mit Computern und Gehirnen und dem, was man von den einen über die anderen lernen kann. Also mit dem, womit sich die Kognitionswissenschaft schwerpunktmäßig beschäftigt.

Unter den vielen Teildisziplinen, die mich dabei interessieren, stehen derzeit zwei besonders im Vordergrund: Neurodidaktik und Explainable AI.

Neurodidaktik

Über diese Disziplin bin ich erstmals im Sommer 2024 beim Lesen des Buches „Uncommon Sense Teaching“ von B. Oakley, B. Rogowsky und T. Sejnowski gestolpert, und ich muss zugeben, dass mich das, was ich da gelesen habe, hart getroffen hat. Oder richtiger: die Tatsache, dass ich nichts davon wusste.

Da verbringt man also nahezu sein ganzes Leben (na gut, bis auf ein paar Jahre Berufspraxis) als Lernender und Lehrender im akademischen System, und dann stellt sich heraus, dass man eigentlich keine Ahnung hat, was im Gehirn eigentlich beim Lernen geschieht! Und wie sich herausstellt, bin ich da nicht der einzige. Weder Schüler noch Lehrer, weder Studierende noch Professoren werden darüber aufgeklärt, was in unserem Kopf beim Lernen wirklich geschieht und welche Lern- bzw. Unterrichtstechniken daher Sinn machen (und welche nicht). Das kann ich so natürlich nicht auf mir sitzen lassen und versuche jetzt nicht nur, Wissenslücken zu schließen, sondern auch, meine Lehre entsprechend anzupassen.

Mein Interesse gründet sich aber nicht allein auf dem Potential in der Lehre. Denn die Neurodidaktik befasst sich nicht nur mit dem Lernen von Faktenwissen, sondern auch mit der Entwicklung von Problemlösungskompetenz. Und die gehört tatsächlich zu den Kernthemen meines Blogs (und meines Interesses am algorithmischen Denken). Die Neurodidaktik passt also ziemlich gut zu den Fragen, mit denen ich vor vier Jahren gestartet bin, und ich hoffe, dass ich hier in nächster Zeit die eine oder andere Erkenntnis dazu präsentieren kann.

Explainable Artificial Intelligence (XAI)

Im November 2023 habe ich beschrieben, wie mir das Aufkommen von ChatGPT den Motivationsstecker für diesen Blog gezogen hat. Denn mir ging es ja seit jeher darum, mithilfe von Computermetaphern besser zu verstehen, wie menschliches Denken funktioniert. Nun haben sich mit den neuronalen Netzen aber hochkomplexe Verfahren zum Lösen zahlreicher Probleme durchgesetzt, die zwar von biologischen Gehirnen inspiriert sind, die wir aber gerade nicht verstehen. Eine KI kann heutzutage jeden menschlichen Schachspieler schlagen, sie kann aber nicht erklären, wie sie das tut. Und beim Blick in das trainierte Modell, das der KI zugrundeliegt, verstehen wir Menschen es ebensowenig.

Dabei war mir nicht bewusst, dass es eine Teildisziplin der KI-Forschung gibt, die sich Explainable Artificial Intelligence (kurz „eXplainable AI“ oder XAI) gibt, die sich genau damit beschäftigt: Wie man diese KIs so gestalten bzw. ergänzen kann, dass ein Verständnis doch wieder möglich wird.

Diese Entdeckung hat mich ziemlich begeistert. Natürlich ist mir klar, dass wir hier nicht von einem schrittweisen, detaillierten Verständnis reden wie bei Algorithmen. Künstliche neuronale Netze bleiben natürlich weiterhin hochkomplex, und das Beste, worauf man hoffen kann, ist eine Annäherung an ein Verständnis. Aber das ist ja auch schon etwas, und es ist vor allem auch wirklich wichtig.

Denn unser fehlendes Verständnis für das „Innenleben“ der KIs, die gerade zu Zigtausenden aus dem Boden sprießen, ist ein ernstes Problem. Will man wirklich Entscheidungen an eine Black Box übergeben, wenn keine Möglichkeit besteht, besagte Entscheidungen nachzuvollziehen? Sollen auf der Basis künftig Risiken bewertet, Prioritäten gesetzt und über menschliche Schicksale entschieden werden?

Nun will ich nicht so tun, als hätte ich von dem Thema Ahnung. Im Gegenteil: Während ich diesen Text schreibe, bin ich noch ein nahezu vollständiger Laie in Sachen XAI (tatsächlich beginne ich gerade erst zu verstehen, wie gewöhnliche neuronale Netze funktionieren). Aber die Aussicht, hier nicht nur mein eigenes Verständnis des KI-Innenlebens zu verbessern, sondern dabei gleichzeitig noch einen gesellschaftlichen Beitrag zu leisten, motiviert mich, mich stärker mit dieser Thematik zu beschäftigen.

Für den Blog bedeutet das, dass hier künftig häufiger etwas zu Neuronalen Netzen, zu Deep Learning und hoffentlich eben auch zu Explainable AI zu lesen sein wird. Und das passt dann wenn schon nicht dem Wortsinne nach zum „Algorithmischen Denken“, so aber doch wenigstens zur eigentlichen Motivation des Blogs – nämlich dem Denken mit Methoden der Informatik auf die Spur zu kommen.

Kategorien
Uncategorized

Innere Agenten

Anleitung zur Selbstüberlistung

Derzeit lese ich das Buch „Anleitung zur Selbstüberlistung“ des Wirtschaftswissenschaftsprofessors, Autors und Youtubers Christian Rieck. Es beschäftigt sich mit Techniken des Selbstmanagements, und natürlich gibt es zu diesem Thema bereits genug Bücher. Was also macht dieses Buch so besonders, dass ich es hier erwähne?

Rieck betrachtet das klassische Innerer-Schweinehund-Problem des Selbstmanagements durch eine spieltheoretische Brille. Er schließt sich dazu der neueren Kognitionsforschung an (siehe hierzu beispielsweise Jeff Hawkins: „A Thousand Brains“), die zunehmend davon ausgeht, dass unser Gehirn gar nicht diese kohärente Einheit ist, die wir immer meinen, wenn wir von unserem Ich reden. In Wahrheit besteht das Gehirn aus verschiedenen Teilen, die über unterschiedliche Informationen verfügen, unterschiedliche Ziele verfolgen und sich hinter den Kulissen (und häufig von uns unbemerkt) miteinander um die Deutungs- und Handlungshoheit streiten.

Rieck beschreibt diese verschiedenen Aspekte unseres Denkens in Form von sogenannten Agenten (von lat. agere = Handeln; mit Geheimdienstmitarbeitern hat das nichts zu tun). Wenn ich an einem Montag in meinem Sessel sitze und beschließe, am Wochenende die Terrasse zu kärchern, dann ist der, der hier die Entscheidung trifft, ein Agent. Leider ist es aber nicht der gleiche Agent wie der, der dann am Samstag tatsächlich die Arbeit machen soll. Und natürlich haben die beiden auch ganz unterschiedliche Motivationen: Während der Montags-Agent glaubt, ganz bequem mit einem Drink in der Hand die eigentliche Arbeit an die künftigen Agenten verteilen zu können, sieht das der Samstags-Agent natürlich völlig anders – warum soll ausgerechnet er seine kostbare Zeit mit der Sauerei auf der Terrasse zubringen? Warum hat das der Montags-Agent nicht selbst gemacht, oder warum kann das nicht der Nächsten-Samstag-Agent übernehmen?

Ich finde, das Konzept hat was, und es deckt sich auch mit unserer Erfahrung. Jeder Zeitpunkt hat seine Agenten, und jeder Aufgabenbereich ebenfalls. Fängt man erst einmal an, sich selbst als Ansammlung (und zeitliche Abfolge) von Agenten zu sehen, von denen keiner völlig selbstlos ist, dann entwickelt die ganze Problematik, dass wir das Angenehme dem Nützlichen vorziehen, große Ähnlichkeiten zum Führen eines Unternehmens.

In der Managementlehre wird das als Principal-Agent-Problem bezeichnet. Der „Principal“ ist der Chef, der Entscheidungen trifft, die zum Wohle des gesamten Unternehmens sind. Die „Agents“ sind dagegen die Mitarbeiter, die diese Entscheidungen umsetzen sollen, aber nicht unbedingt Lust dazu haben. Schlimmer noch: Sie verfügen auch noch über Informationen, die der Principal nicht hat (oder zumindest zum Zeitpunkt der Entscheidung nicht kannte), und nutzen diese schamlos aus, um sich Vorteile zu verschaffen (was häufig bedeutet, dass sie die Anweisungen nicht ausführen). Die Managementlehre diskutiert nun, wie der Principal die Agents dazu kriegt, zu kooperieren, und wie immer bei Kooperationsproblemen landen wir schon bald in der Spieltheorie.

Agenten und Spiele

Rieck überträgt diese Überlegungen nun auf das Führen der inneren Agenten. Die Techniken des Selbstmanagements, die er dazu vorschlägt, sind soweit nicht wirklich neu, aber das Framing als spieltheoretisches Problem ist es (zumindest habe ich das sonst noch nirgends gesehen). Wobei ich persönlich mir gewünscht hätte, dass der Autor diesen Ansatz noch rigoroser verfolgt hätte. Denn so richtig spieltheoretisch wird es nach der anfänglichen Motivation nicht mehr.

Das fängt schon damit an, dass das Konzept des Agenten nicht sauber definiert ist. So wird manchmal argumentiert, dass ein Agent durch seine inhaltliche Zuständigkeit definiert ist. An einer anderen Stelle steht, dass ein Agent in dem Moment abgelöst wird, in dem seine Entscheidung revidiert wird. Und dann heißt es wieder, dass der Agent am liebsten eine Belohnung nach der Arbeit hätte (was aber nichts anderes heißt, als dass er sogar jenseits seiner Zuständigkeit noch weiterexistiert).

Auch wenn ich weiß, dass zu jedem Zeitpunkt tatsächlich mehrere Agenten existieren, werden die Überlegungen durch das Arbeiten mit derart unterschiedlichen Agentendefinitionen doch ziemlich beliebig, so als würde der Autor immer gerade die Agentendefinition wählen, die zu den ohnehin bekannten Ergebnissen aus der Psychologie (insb. der Gamification) passt. Ich hätte den umgekehrten Ansatz spannender gefunden: Wenn man einen Agenten klar definiert und schaut, was daraus für die Führung des inneren Schweinehundes folgt.

Was beispielsweise ergibt sich, wenn man einen Agenten einfach über die verfügbare Zeit definiert? Was weiß man darüber, wie lange Menschen bei einem Thema bleiben, bevor sie anfangen, sich zu langweilen und den Kontext zu wechseln? Haben Agenten eine Art Halbwertszeit, werden mit zunehmender Dauer immer schwächer und überlappen sich mit neuen, frischen Agenten? Und was bedeutet das für Arbeitsdauer, für Belohnungen und für die Übergabe der Arbeit an den nächsten Agenten? Vielleicht liegt in dieser Betrachtungsweise tatsächlich noch mehr Potential, als das Buch – so elegant es auch geschrieben ist – aus dem Thema herauskitzelt…

Kategorien
Uncategorized

Wie mir ChatGPT zwischenzeitlich den Stecker gezogen hat

Es geht endlich weiter

Zunächst einmal sorry für die lange Funkstille auf diesem Blog. Diese war gleich mehreren Gründen geschuldet. Zum einen habe ich mich in den letzten Monaten eher mit dem Thema „Blockchain“ beschäftigt – einer langjährigen On-Off-Beziehung von mir, die mir aber thematisch nicht so recht zum Blog zu passen scheint.

Außerdem kämpfe ich schon länger damit, dass vom ursprünglichen Thema dieses Blogs (dem Algorithmischen Denken) kaum noch die Rede ist. Dieser Trend hat ja schon recht früh eingesetzt, weil sich meine Interessen seit Anfang 2022 zunehmend in Richtung Bayes’sche Statistik, Network Science und Theorie Komplexer Systeme verschoben haben.

Die Kluft zwischen Neuronen und Algorithmen

Seit Anfang 2023 ist aber noch ein weiterer Grund hinzugekommen. Der Siegeszug generativer „KIs“ (wie etwa ChatGPT) wirft nämlich die Frage auf, wie sinnvoll es noch ist, Denken überhaupt algorithmisch beschreiben zu wollen.

Um das zu erklären, muss ich etwas weiter ausholen. Es ist nämlich schon lange bekannt, dass das menschliche Gehirn intern keinesfalls algorithmisch arbeitet. Zwar können wir unser Handeln häufig algorithmisch beschreiben („Ich fülle einen Topf mit Wasser, stelle ihn auf die Herdplatte und drehe den Regler auf die höchste Stufe. Wenn das Wasser kocht, lege ich vorsichtig fünf Eier hinein (usw.)“), doch in unserem Gehirn finden wir keine Entsprechungen für das, was wir da beobachten.

Unser Gehirn ist vielmehr ein sogenanntes emergentes komplexes System, in dem recht simple biologische Einheiten (Neuronen und Synapsen) durch Vernetzung, Zusammenarbeit, Feedback und Adaption zu einem Gesamtsystem verschmelzen, dessen Leistungsfähigkeit durch die Funktionsweise seiner Komponenten nicht mehr erklärbar ist. Das Ganze ist größer als die Summe seiner Teile, und der Reduktionismus, der seit Jahrhunderten das Grundprinzip der westlichen Wissenschaft ist (und der fordert, dass man ein Phänomen nur verstehen kann, indem man es in seine Bestandteile zerlegt), stößt hier an seine Grenzen.

Beim Verständnis des Gehirns kann man also zwischen der Mikroebene (Neuronen, Synapsen) und der Makroebene (Modelle, Algorithmen) unterscheiden. Beide werden von den entsprechenden Wissenschaften ziemlich gut verstanden, sie passen bloß überhaupt nicht zusammen. Und wir haben auch keine Ahnung, wie wir von der einen zur anderen kommen sollen.

Aus diesem Grund hat beispielsweise die Kognitionswissenschaft, deren großes Ziel es einmal war, durch das Verständnis von Computern auch das menschliche Gehirn zu verstehen, das sogenannte Computermodell des Geistes mittlerweile aufgegeben. Das menschliche Gehirn arbeitet eben nicht wie ein Computer, auch wenn wir menschliches Verhalten gerne durch algorithmische Entsprechungen wie Entscheidungen (Informatiksprech: Verzweigungen), Wiederholungen (Schleifen), zuständige Gehirnareale (Funktionen) und natürlich das Gedächtnis (Speicher) beschreiben.

Bauen statt verstehen

Das alles ist wie gesagt nicht neu, und entsprechende Überlegungen wurden schon vor etwa 35 Jahren angestellt. Was also hat sich jetzt durch ChatGPT & Co. verändert?

Mein Eindruck ist, dass mit dem Aufkommen leistungsfähiger neuronaler Netze das Bemühen, Probleme und die zugehörigen Lösungsverfahren wirklich zu verstehen, schlagartig nachgelassen hat. Der Großteil insbesondere der KI-Forschung gibt sich neuerdings damit zufrieden, Systeme für das maschinelle Lernen zu bauen. Man hat jetzt gewissermaßen eine magische Black Box (das neuronale Netz), die man einfach so lange mit Trainingsdaten füttert, bis sie tut, was man will. Warum diese „KI“ das jetzt so und nicht anders tut und wie sie dabei genau vorgeht (oder ob sie überhaupt wirklich das tut, was ursprünglich beabsichtigt war), ist nicht erfassbar und interessiert scheinbar auch gar nicht mehr. Erklärungen beschränken sich neuerdings auf Aussagen der Art: „Mit 14 Schichten ging es noch nicht, aber mit 15 hat es dann geklappt“. Aha, na dann.

Die große Ungewissheit

Das ist für mich und meinen lebenslangen Traum, das menschliche Denken zu verstehen, natürlich ausgesprochen frustrierend. Und es wirft meiner Meinung nach auch kein gutes Licht auf den Zustand der Wissenschaft, die den Wunsch, die Welt zu verstehen, bereitwillig aufgibt für den Wunsch, die Welt (dazu noch möglichst disruptiv und ohne Reflektieren der Folgen) zu verändern.

Es hat aber auf den ersten Blick auch noch viel weitreichendere, ethische Konsequenzen: Wenn wir uns von technischen Systemen Informationen liefern oder gar Entscheidungen abnehmen lassen, obwohl wir gar nicht wissen, wie diese bei der Informationsverarbeitung bzw. Entscheidungsfindung überhaupt vorgegangen sind, dann öffnen wir sowohl unabsichtlichen Missverständnissen als auch bewusstem Missbrauch Tür und Tor.

Andererseits muss man fairerweise zugeben: Eigentlich gilt genau das gleiche auch für den Menschen. Denn nach allem, was wir über unser Denken wissen, wissen auch wir so gut wie nichts darüber, wie wir zu unseren Erkenntnissen gelangen oder warum wir welche Entscheidungen wie treffen. Natürlich könenn wir häufig irgendwelche Gründe nennen, aber der Stand der psychologischen Forschung sagt, dass diese Gründe eher etwas sind, was wir uns nachträglich ausdenken – die wahren Ursachen unseres Denkens und Handelns sind uns ebenso unzugänglich wie die unserer neuen maschinellen Helferlein. So gesehen ist dieses Problem der Ungewissheit also lösbar – wir lösen es schließlich schon seit Tausenden von Jahren im Umgang mit unseren Mitmenschen!

Sind Algorithmen nun nutzlos?

Aber auch wenn es vielleicht so klingen mag: Die obigen Überlesungen sind für mich kein Grund, das Nachdenken über Algorithmen einzustellen. Es mag sein, dass der Mensch selbst gar nicht in Algorithmen denkt und dass sich diese auch nicht in der uns bekannten Form im Gehirn wiederfinden. Dennoch nutzen wir sie, um zu beschreiben, was wir tun. Das hat den kuriosen Effekt, dass wir einander Dinge nicht beibringen können, indem wir einander „ins Gehirn schauen“. Wir generieren vielmehr aus dem neuronalen Netz unseres Gehirns, das unser Vorgehen in einer vollkommen anderen Darstellung enthält, eine verbale Beschreibung – den Algorithmus. Diesen geben wir einer anderen Person weiter, die ihn schließlich (durch Verstehen und/oder Einüben) wieder zu einem Teil ihres eigenen neuronalen Netzes macht.

Allein diese Nutzung von Algorithmen für das Lernen zeigt, dass sie weiterhin nützlich bleiben werden und dass es sich lohnt, darüber nachzudenken. Dort, wo man ein Problem sauber genug modellieren kann, können sie außerdem genutzt werden, nach möglichst eleganten (ja, manchmal sogar optimalen) Lösungswegen zu suchen. Zugleich gibt es aber auch Probleme, die aufgrund ihrer Struktur nicht dafür geeignet sind, algorithmisch gelöst zu werden, und es deutet einiges darauf hin, dass viele Probleme des Denkens in diese Kategorie fallen.

Komplexe Systeme

Zugleich bleibt natürlich die Frage spannend, wie aus den riesigen Mengen einfachster Neuronen und Synapsen (sowie dem Einfluss diverser anderer Zellen, Umweltreize, Hormone etc.) nun eigentlich das komplexe Verhalten wird, zu dem wir in der Lage sind. Der Fachbegriff hierfür ist Emergenz: Systeme aus vergleichsweise einfachen Komponenten entwickeln durch Kooperation und Adaption die Fähigkeit zu hochkomplexem Verhalten.

Für mich ist das auch deshalb interessant, weil ich bei vielen Themen, die mich interessieren, früher oder später wieder an diesem Punkt anzukommen scheine. So gelten ähnliche Prinzipien nicht nur in der Natur (von der DNA und der Organisation von Zellen über das Verhalten von Viren und Immunsystemen und die Funktionsweise von Ameisenstaaten bis ganz hinauf zur Modellierung von Ökosystemen und der Entwicklung des Klimas), sondern auch in der menschlichen Gesellschaft (beispielsweise beim Sozialverhalten, in Märkten oder in der Organisation und Generierung von Wissen). Immer geht es um Netzwerke, Informationsflüsse, Kooperation und Evolution.

Eine ganze Reihe wissenschaftlicher Disziplinen bemüht sich seit rund einem Jahrhundert, diese Phänomene zu beschreiben und zu erforschen. Sie tragen solche klangvolle Namen wie Kybernetik, Synergetik, Systemtheorie oder (in letzter Zeit) Theorie komplexer Systeme. Seit Anfang 2022 gab es in diesem Blog ja schon den einen oder anderen Beitrag, der aus diesen Disziplinen motiviert war. Und es würde mich nicht wundern, wenn das auch in Zukunft immer mal wieder der Fall wäre…

Kategorien
Uncategorized

Meisterschaft

Heute möchte ich einmal von zwei Büchern berichten, die ich gelesen habe und deren Aussagen sich geradezu diametral widersprechen, obwohl beide (natürlich) jede Menge Studien zum Untermauern ihrer Thesen anführen.

The One Thing

Da war zunächst einmal vor einigen Jahren das (ziemlich berühmte) Buch „The One Thing“ von Gary Keller: Es vertritt die These, dass man am erfolgreichsten ist, wenn man sich im Großen wie im Kleinen stets nur auf eine Sache konzentriert. Man steckt also all seine Energie in ein einziges Projekt und tut stets das, was am Sinnvollsten ist, um in diesem Projekt den größtmöglichen Fortschritt zu erzielen.

Ich gebe zu: Die Vorstellung, so etwas tatsächlich durchzuziehen und dadurch mal so richtig was zu erreichen, wirkt auf mich im ersten Moment verführerisch. Vielleicht liegt das darin, dass ich jahrelang in einer anspruchsvollen Forschungscommunity unterwegs war, in der ich so manchen Wissenschaftler angetroffen habe, der genau so tickte. Diese Menschen haben der Forschung alles untergeordnet, haben zwölf und mehr Stunden des Tages mit Denken, Programmieren und dem Diskutieren über Denken und Programmieren zugebracht. Und sie sind auf diese Weise berühmt geworden. Andererseits habe ich auch Experten von Weltruf kennengelernt, die ganz anders waren – sie waren nebenher auch noch hervorragende Sportler, Musiker, Ehemänner, Familienväter,… Von „One Thing“ keine Spur – natürlich waren sie sehr gut, aber sie waren teilweise in erschreckend vielen Dingen sehr gut.

Für mich selbst hat das mit der Einen Sache jedenfalls nie wirklich funktioniert. Für mich ist die Welt viel zu voll von faszinierenden Dingen und Fragen und Projekten und Menschen, als dass ich es über mich bringen würde, alles bis auf ein einziges davon auszublenden. Ich habe mich aber schon beim Lesen des Buchs „The One Thing“ gefragt, ob der Autor das wirklich selbst so macht. Erklärt er wirklich seiner Frau und seinen Kindern, das „One Thing“ in seinem Leben sei nun mal seine Firma und alles andere (einschließlich sie) seien nur das Beiwerk, das idealerweise dazu da ist, sein „One Thing“ zu unterstützen?

10.000 Stunden zur Meisterschaft

In solchen und ähnlichen Zusammenhängen wird übrigens auch gerne die 10.000-Stunden-Regel zitiert (natürlich auch von Gary Keller), nach der man eben diese 10.000 Stunden Übung investieren müsse, um es in einer Disziplin zur Meisterschaft zu bringen. Wenn man das mal nachrechnet, sind das ziemlich viele Stunden – sie sind eigentlich nur zu erreichen, wenn man diesem Üben tatsächlich alles andere unterordnet.

Aber wenn man dann mal näher über die Sinnhaftigkeit dieser Aussage nachdenkt, kommt man ins Grübeln. Spielt die Begabung dabei überhaupt keine Rolle? Und wieso genau 10.000 Stunden? Wenn das auf wissenschaftlichen Studien basiert, ist doch eine derart runde Zahl recht unwahrscheinlich? Kann es sein, dass man hier einfach irgendetwas Einprägsames gewählt hat, so wie bei den 10.000 Schritten, die man angeblich täglich machen soll (und die von der Wissenschaft längt als Unsinn entlarvt wurden)? Oder bei den 100 Milliarden Euro Sondervermögen, mit der die Bundesregierung die Bundeswehr zukunftstauglich machen will und bei der sich auch sofort die Frage stellt, nach welcher sorgfältiger Prüfung des Bedarfs man von allen denkbaren Summen zufälligerweise genau auf 100 Milliarden gekommen ist?

Eine andere Frage, die sich mir hier gestellt hat, lautet: Was soll denn überhaupt „Meisterschaft“ sein? Ich tue mich mit dem Begriff zugegebenermaßen schwer. Wann genau bin ich denn ein Meister? Hier ist ja wohl kaum ein Handwerksmeister, ein MSc oder MBA gemeint, sondern jemand, der sein Metier wirklich beherrscht. Aber wann genau ist das denn in der wirklichen Welt der Fall? Kann man das messen? Und falls ja, wie? In meiner eigenen Forschungsdisziplin – der Kryptologie – wüsste ich nicht, wie man das machen wollte. Bin ich ein Meister, wenn ich in einem winzigen Teilbereich alles kann? Wenn ich in der Breite gut bin, aber in jedem Teilgebiet auf Spezialisten angewiesen bleibe? Und falls letzteres, wie gut genau muss ich dann in der Breite sein? Genügt theoretisches Wissen? Muss ich es auch implementieren können? Oder muss ich mich gar (was ja einige Forscher rigoros ablehnen) mit dem auseinandersetzen, was die wirkliche Welt aus meiner schönen Theorie macht und was sie eigentlich von uns Forschern bräuchte?

Wenn ich mir die Kryptologen anschaue, die ich selbst als Meister ihres Fachs ansehen würde, dann sind ihre Kompetenzen extrem unterschiedlich. Aber bei einem bin ich mir sicher: Sie sind nicht genau in dem Moment zum Experten geworden, als ihre 10.000 Stunden des Übens vorbei waren. Oft wächst ihre Expertise vielmehr von innen nach außen – sie waren zunächst (und zwar sehr schnell) Meister in einem schmalen Bereich, und dann wurde der Bereich, den sie gemeistert hatten, immer größer.

Range

Nun bin ich kürzlich über das Buch „Range“ von David Epstein gestolpert, das sich ganz rigoros gegen Thesen wie die von Gary Keller ausspricht und stattdessen das Loblied des Generalisten singt.

Auch er betrachtet das Beispiel mit den 10.000 Stunden, richtet aber das Brennglas darauf, wo diese Zahl herkommt. Wie sich herausstellt, wurden die entsprechenden Studien mit Musikern gemacht, also in einem extrem stark spezialisierten Bereich, in dem es eben keine andere Möglichkeit gibt, die Aufgabe (= herausragende Musik zu machen) zu lösen, als unablässig zu üben. Und in dem es auch tatsächlich möglich ist, so etwas wie Meisterschaft halbwegs sachlich zu beurteilen.

Epstein argumentiert nun, dass die Spezialisierung nur dort Sinn macht, wo genau ein solcher eng definierter Anwendungsbereich vorliegt. In der wirklichen Welt ist dies aber relativ selten der Fall, so dass es für die meisten Menschen viel mehr Sinn macht, nicht alles auf eine Karte zu setzen, sondern sich breit genug aufzustellen, um auf all die Unwägbarkeiten reagieren zu können, die das Leben so mit sich bringt.

Der goldene Mittelweg (mal wieder)

Natürlich bin ich als jemand, bei dem die Sache mit der „Einen Sache“ ohnehin nie funktioniert hat, an dieser Stelle voreingenommen. Aber mir leuchtet die Logik in „Range“ auch deutlich mehr ein als die in „The One Thing“. Das liegt auch daran, dass ich die Faktenlage für den Alles-oder-Nichts-Ansatz ein wenig in Zweifel ziehe. Denn um tatsächlich wissenschaftlich zu belegen, welcher Ansatz im wirklichen Leben besser funktioniert, müsste man Studien durchführen, in denen man (beispielsweise) 1000 Firmengründer über einen langen Zeitraum begleitet und schaut, welcher Ansatz häufiger dazu führt, dass die Firma erfolgreich ist.

Häufig wird nämlich an dieser Stelle eher anekdotisch argumentiert: „Schau dir Bill Gates an, der hat auch alles in diese eine Firma gesteckt, und der hatte Erfolg. So macht man das also.“ Dabei gab und gibt es zu jeder Zeit zahllose Firmengründer, die genauso eine gute Idee hatten und genauso hart gearbeitet haben und die trotzdem nach 3 Jahren wieder am Anfang standen. Wenn man sich diejenigen herauspickt, die Glück hatten und am Ende ganz oben stehen, ist das so, als würde man den Typen, der viermal hintereinander beim Roulette auf die richtige Zahl gesetzt und so die Bank gesprengt hat, als Rollenmodell für eine gute Strategie im Casino hinstellen.

Letztlich führen mich solche Überlegungen immer wieder zu einer Beobachtung zurück, die ich in diesem Blog schon mehrfach angesprochen habe: Es werden für meinen Geschmack zu oft extreme Positionen als der Weisheit letzter Schluss verkauft. So sehr wir uns das vielleicht manchmal wünschen: abgesehen von wenigen, meist künstlich erzeugten Nischen ist das Spiel des Lebens viel zu komplex, um mit einfachen Wahrheiten erklärt oder gar mit einer einzelnen Bauernregel wie „setz immer alles auf eine Karte“ gewonnen zu werden.

Kategorien
Uncategorized

Wie könnt ihr nur so sicher sein?

Derzeit lese ich das Buch „I am a strange loop“ von Douglas Hofstadter, in dem er der Frage nachgeht, wie Bewusstsein entsteht und was dieses „ich“ eigentlich ist, von dem wir alle reden. Und da bin ich gestern auf Seite 90 über die folgende Passage gestolpert:

„(…) most of us wind up emerging from adolescence with a deeply nuanced sense of what is real, with shades of gray all over the place. (However, I have known, and probably you have too, reader, a few adults for whom every issue that strikes me as subtle seems to them totally black-and-white – no messy shades of gray at all to deal with. That must make life easy!“)

D. Hofstadter: I am a Strange Loop. Basic Books, 2007

Was in mir spontan eine ganze Flut von Assoziationen ausgelöst hat, beginnend mit der Beobachtung, dass ich nicht nur einige wenige, sondern eigentlich sogar sehr viele Leute kenne, die sich ihrer Sache immer sehr sicher sind, und nur sehr wenige, die zugeben würden, dass Dinge kompliziert sind oder gar, dass sie zu wenig davon verstehen, um sich ein abschließendes Urteil erlauben zu können. Ein Teil des Problems dabei ist, dass die Graustufen-Leute sich in Diskussionen typischerweise zurückhalten, während die Schwarz-Weiß-Leute ihre Überzeugungen lautstark und voller Inbrunst vertreten.

Die Auswirkungen davon habe ich bereits im Beitrag „The Middle Ground“ vom Mai 2021 diskutiert, ich will das Thema hier aber nochmal aufgreifen und aufzeigen, warum absolute Gewissheit meiner Meinung nach kein gutes Zeichen ist.

Philosophie des Geistes

Die Frage „Was kann ich wissen?“ gehört ja zu den vier Hauptfragen Kants und ist vor und nach ihm ausgiebig diskutiert worden. Sokrates‘ „Ich weiß, dass ich nichts weiß“ gehört ebenso in diese Diskussion wie Descartes‘ „Ich denke, also bin ich“. Und auch der Konstruktivismus, aus dem letztlich die derzeitigen Gender- und Wokeness-Debatten hervorgegangen sind, hat in dieser Frage seinen Ursprung.

Ohne hier tiefer in diese (ausgesprochen komplexe) Diskussion einsteigen zu wollen, zeigt allein die Tatsache, wie intensiv die Frage nach Wissen, Wahrheit und Erkenntnis jahrhundertelang diskutiert worden ist, dass einfache Antworten hier wohl nicht zu haben sind. Trotzdem trifft man auch hier (ausgerechnet!) auffallend viele Diskussionsteilnehmer, die sich im Alleinbesitz der Wahrheit wähnen.

Ich selbst staune immer wieder, wie man sich in solch komplexen Themen und bei solch intelligenten Personen auf allen Seiten des Meinungsspektrums so sicher sein kann, selbst im Alleinbesitz der Wahrheit zu sein. Ganz besonders wundert mich das aber bei diejenigen, deren philosophisches Fundament auf dem Konstruktivismus fußt. Denn wie kann man einerseits postulieren, dass eine objektive Erkenntnis der Wahrheit nicht möglich ist, zugleich aber überzeugt sein, dass die eigene Überzeugung die einzig richtige ist?

Bayes’sche Wahrscheinlichkeit

Die Idee der Bayes’schen Wahrscheinlichkeit formalisiert im Grunde genau das, was Hofstadter oben informal beschreibt: Unser Gehirn arbeitet gar nicht wirklich mit absoluten Überzeugungen, sondern mit subjektiven Wahrscheinlichkeiten, die sukzessive an neue Beobachtungen angepasst werden. Auf den ersten Blick müsste das dazu führen, dass unsere mentalen Modelle immer besser zur Wirklichkeit passen. Nur ist das nach meiner Beobachtung gar nicht das, was in Wahrheit passiert – vielmehr driften Überzeugungen häufig auseinander und neigen sogar dazu, in Extremen zu enden. Im Folgenden will ich einmal (ganz ohne echten wissenschaftlichen Anspruch, eher im Sinne eines Brainstormings) darüber nachdenken, woran das liegen könnte.

Ein erster, noch sehr ins Unreine gedachter Gedanke bezieht sich darauf, wie wir lernen. Bekanntlich hängt unser Wissen entscheidend davon ab, wie Neuronen in unserem Gehirn miteinander verbunden sind. Die verschiedenen Wahrscheinlichkeiten, von denen man in der Bayes’schen Statistik ausgeht, entsprechen in gewissem Sinne der Stärke der Verknüpfungen in unserem Gehirn. Wenn wir nun aber regelmäßig über ein Thema nachdenken, werden die Verbindungen, die besonders häufig verwendet werden (die mit den größten a-priori-Wahrscheinlichkeiten), verstärkt – sie sind in Zukunft noch leichter verfügbar und entsprechen somit noch größeren künftigen Wahrscheinlichkeiten. Ein anfänglicher leichter Vorteil für eine bestimmte Ansicht könnte sich daher mit der Zeit selbst verstärken, bis er zu einer echten Überzeugung geworden ist.

Nun ist das Nachdenken im stillen Kämmerlein ja nicht die einzige Möglichkeit, zu lernen: häufig spielt ja auch Input von außen eine Rolle (bei den Bayes’schen Modellen, die ich bisher gesehen habe, wird es sogar fest vorausgesetzt). Hier aber kommt unsere Neigung ins Spiel, kognitive Dissonanzen vermeiden zu wollen. Es ist uns nämlich eigentlich unangenehm, unsicher zu sein und unsere Überzeugungen immer wieder in Frage gestellt zu sehen. Daher neigen wir dazu, vor allem solches Input zu suchen, das zu unseren bereits gefassten Überzeugungen passt: wir umgeben uns bevorzugt mit Menschen, die unserer Meinung sind, bewegen uns im Netz in (selbstgewählten oder von sozialen Netzwerken erzeugten) Filterblasen und lesen bevorzugt Texte von Autoren, deren Auffassungen wir teilen. Auch interpretieren wir unliebsame Beobachtungen gerne um und suchen sogleich Gründe, warum sie gar kein wirkliches Problem für unsere vorgefasste Überzeugung sind. Auf diese Weise führt die wiederholte Beschäftigung mit einer Thematik gar nicht dazu, dass sich die Wahrscheinlichkeiten in unserem Kopf besser an die Realität annähern – vielmehr verstärkt eine solche Beschäftigung mit dem Thema lediglich die Gewissheit, von Anfang an richtig gelegen zu haben.

Beispiel: Was wir wissen können

Nehmen wir einmal die Frage, was wir wissen können, als Beispiel. Wenn ich eine ernsthafte Antwort auf diese Frage suche, muss ich mich mit den Argumenten des Empirismus, des Rationalismus und des Skeptizismus auseinandersetzen. Ich sollte die verschiedenen Herangehensweisen von Wissenschaft, Kunst, Religion und Philosophie zu dem Thema verstanden und einer fairen, vorurteilsfreien Würdigung unterzogen haben. Ich sollte zudem auf dem neuesten Stand der Kognitionspsychologie sein und mir im Klaren darüber sein, was wir über die Funktionsweise des menschlichen Gehirns sowie seiner technischen Nachahmungen wissen. Und ja: dieses Verständnis schließt auch die zugehörigen mathematischen und algorithmischen Modelle mit ein. Sogar der Erkenntnisstand der Physik (die zu kennen den Philosophen früherer Jahrhunderte eine Selbstverständlichkeit war) und der Mathematik (wie etwa Gödels Unvollständigkeitssatz) beeinflussen diese Diskussion.

Ich denke, es wird schon aus dieser Auflistung klar, warum eine solche Fragestellung höchst komplex ist. Menschen mit einer realistischen Selbsteinschätzung werden vermutlich zugeben, dass sie nicht all diese Themenfelder in der erforderlichen Tiefe beherrschen und dass ihre Überzeugungen daher unter einer Reihe von Vorbehalten stehen müssten.

Wenn wir das tatsächlich täten und aufrichtig versuchen würden, unsere Wissenslücken zu schließen, dann würde auch das Bayes’sche Modell des Erkenntnisgewinns wieder funktionieren. Derjenige aber, der umfassende, anstrengende und manchmal auch frustrierende Recherche gerne mal durch einfache, dafür aber umso leidenschaftlicher vorgetragene Standpunkte ersetzt, befindet sich einfach nur in einem selbstverstärkenden Feedback-Loop, der ihm zwar ein gutes Bauchgefühl (und tolle Klick-Zahlen in den sozialen Medien) verschafft, ihn aber der Wahrheit nicht wirklich näher bringt. Ja, es besteht sogar die Gefahr, dass seine Gewissheit nichts anderes ist als eine Variante des Dunning-Kruger-Effekts: es ist umso leichter, sich für kompetent zu halten, wenn weniger tief man in die wahre Komplexität des Themas eingetaucht ist.

Schlussbemerkung

Vielleicht wird nach dieser Diskussion klarer, warum mich ein solch ungutes Gefühl beschleicht, wenn jemand bei Themen wie Kapitalismus, Corona, Klimawandel, Gender, künstliche Intelligenz, freier Wille etc. allzu überzeugt von seiner (womöglich noch: einfachen) Wahrheit ist. Manchmal sind die Dinge einfach komplex, und es macht mich misstrauisch, wenn jemand in einer Welt voll intelligenter Menschen glaubt, sie besser als die anderen verstanden zu haben. Vielmehr vermute ich, dass der wahre Grund für derlei Selbstsicherheit irgendwo unter den obigen Ursachen zu finden ist. Und auch wenn ich Douglas Hofstadter recht gebe (ja, es muss angenehm sein, sich seiner Sache so sicher zu sein), ziehe ich meine Zweifel dann letztlich doch vor.