Ja, tatsächlich. Ab jetzt soll es hier wieder regelmäßige Beiträge geben. Aber nachdem der Blog jetzt eigentlich schon seit Beginn meines Flirts mit der Network Science im Frühjahr 2022 schwächelt und seit dem Aufkommen von ChatGPT Anfang 2023 fast völlig brach liegt, sollte ich vielleicht ein Wort der Erklärung voranstellen.
Dass dazwischen so wenig passiert ist, liegt daran, dass ich mich mit vielen anderen Themen beschäftigt habe, die nicht so recht zum Schwerpunkt des Blogs (Algorithmisches Denken, wir erinnern uns) passen wollten. Mit Blockchains etwa oder dem Metaverse, aber auch mit Network Science, Komplexitätstheorie, Spieltheorie und agentenbasierter Modellierung. Ich war auf der Suche nach etwas, was ich noch nicht richtig fassen konnte, und habe mich daher kreuz und quer durch die Bibliothek gelesen.
Seit dem Herbst 2024 hat sich der Nebel aber allmählich gelichtet, und ich bin wieder dort gelandet, wo ich beim Start des Blogs im Jahre 2021 hergekommen bin: Bei der Beschäftigung mit Computern und Gehirnen und dem, was man von den einen über die anderen lernen kann. Also mit dem, womit sich die Kognitionswissenschaft schwerpunktmäßig beschäftigt.
Unter den vielen Teildisziplinen, die mich dabei interessieren, stehen derzeit zwei besonders im Vordergrund: Neurodidaktik und Explainable AI.
Neurodidaktik
Über diese Disziplin bin ich erstmals im Sommer 2024 beim Lesen des Buches „Uncommon Sense Teaching“ von B. Oakley, B. Rogowsky und T. Sejnowski gestolpert, und ich muss zugeben, dass mich das, was ich da gelesen habe, hart getroffen hat. Oder richtiger: die Tatsache, dass ich nichts davon wusste.
Da verbringt man also nahezu sein ganzes Leben (na gut, bis auf ein paar Jahre Berufspraxis) als Lernender und Lehrender im akademischen System, und dann stellt sich heraus, dass man eigentlich keine Ahnung hat, was im Gehirn eigentlich beim Lernen geschieht! Und wie sich herausstellt, bin ich da nicht der einzige. Weder Schüler noch Lehrer, weder Studierende noch Professoren werden darüber aufgeklärt, was in unserem Kopf beim Lernen wirklich geschieht und welche Lern- bzw. Unterrichtstechniken daher Sinn machen (und welche nicht). Das kann ich so natürlich nicht auf mir sitzen lassen und versuche jetzt nicht nur, Wissenslücken zu schließen, sondern auch, meine Lehre entsprechend anzupassen.
Mein Interesse gründet sich aber nicht allein auf dem Potential in der Lehre. Denn die Neurodidaktik befasst sich nicht nur mit dem Lernen von Faktenwissen, sondern auch mit der Entwicklung von Problemlösungskompetenz. Und die gehört tatsächlich zu den Kernthemen meines Blogs (und meines Interesses am algorithmischen Denken). Die Neurodidaktik passt also ziemlich gut zu den Fragen, mit denen ich vor vier Jahren gestartet bin, und ich hoffe, dass ich hier in nächster Zeit die eine oder andere Erkenntnis dazu präsentieren kann.
Explainable Artificial Intelligence (XAI)
Im November 2023 habe ich beschrieben, wie mir das Aufkommen von ChatGPT den Motivationsstecker für diesen Blog gezogen hat. Denn mir ging es ja seit jeher darum, mithilfe von Computermetaphern besser zu verstehen, wie menschliches Denken funktioniert. Nun haben sich mit den neuronalen Netzen aber hochkomplexe Verfahren zum Lösen zahlreicher Probleme durchgesetzt, die zwar von biologischen Gehirnen inspiriert sind, die wir aber gerade nicht verstehen. Eine KI kann heutzutage jeden menschlichen Schachspieler schlagen, sie kann aber nicht erklären, wie sie das tut. Und beim Blick in das trainierte Modell, das der KI zugrundeliegt, verstehen wir Menschen es ebensowenig.
Dabei war mir nicht bewusst, dass es eine Teildisziplin der KI-Forschung gibt, die sich Explainable Artificial Intelligence (kurz „eXplainable AI“ oder XAI) gibt, die sich genau damit beschäftigt: Wie man diese KIs so gestalten bzw. ergänzen kann, dass ein Verständnis doch wieder möglich wird.
Diese Entdeckung hat mich ziemlich begeistert. Natürlich ist mir klar, dass wir hier nicht von einem schrittweisen, detaillierten Verständnis reden wie bei Algorithmen. Künstliche neuronale Netze bleiben natürlich weiterhin hochkomplex, und das Beste, worauf man hoffen kann, ist eine Annäherung an ein Verständnis. Aber das ist ja auch schon etwas, und es ist vor allem auch wirklich wichtig.
Denn unser fehlendes Verständnis für das „Innenleben“ der KIs, die gerade zu Zigtausenden aus dem Boden sprießen, ist ein ernstes Problem. Will man wirklich Entscheidungen an eine Black Box übergeben, wenn keine Möglichkeit besteht, besagte Entscheidungen nachzuvollziehen? Sollen auf der Basis künftig Risiken bewertet, Prioritäten gesetzt und über menschliche Schicksale entschieden werden?
Nun will ich nicht so tun, als hätte ich von dem Thema Ahnung. Im Gegenteil: Während ich diesen Text schreibe, bin ich noch ein nahezu vollständiger Laie in Sachen XAI (tatsächlich beginne ich gerade erst zu verstehen, wie gewöhnliche neuronale Netze funktionieren). Aber die Aussicht, hier nicht nur mein eigenes Verständnis des KI-Innenlebens zu verbessern, sondern dabei gleichzeitig noch einen gesellschaftlichen Beitrag zu leisten, motiviert mich, mich stärker mit dieser Thematik zu beschäftigen.
Für den Blog bedeutet das, dass hier künftig häufiger etwas zu Neuronalen Netzen, zu Deep Learning und hoffentlich eben auch zu Explainable AI zu lesen sein wird. Und das passt dann wenn schon nicht dem Wortsinne nach zum „Algorithmischen Denken“, so aber doch wenigstens zur eigentlichen Motivation des Blogs – nämlich dem Denken mit Methoden der Informatik auf die Spur zu kommen.