Kategorien
Uncategorized

Innere Agenten

Anleitung zur Selbstüberlistung

Derzeit lese ich das Buch „Anleitung zur Selbstüberlistung“ des Wirtschaftswissenschaftsprofessors, Autors und Youtubers Christian Rieck. Es beschäftigt sich mit Techniken des Selbstmanagements, und natürlich gibt es zu diesem Thema bereits genug Bücher. Was also macht dieses Buch so besonders, dass ich es hier erwähne?

Rieck betrachtet das klassische Innerer-Schweinehund-Problem des Selbstmanagements durch eine spieltheoretische Brille. Er schließt sich dazu der neueren Kognitionsforschung an (siehe hierzu beispielsweise Jeff Hawkins: „A Thousand Brains“), die zunehmend davon ausgeht, dass unser Gehirn gar nicht diese kohärente Einheit ist, die wir immer meinen, wenn wir von unserem Ich reden. In Wahrheit besteht das Gehirn aus verschiedenen Teilen, die über unterschiedliche Informationen verfügen, unterschiedliche Ziele verfolgen und sich hinter den Kulissen (und häufig von uns unbemerkt) miteinander um die Deutungs- und Handlungshoheit streiten.

Rieck beschreibt diese verschiedenen Aspekte unseres Denkens in Form von sogenannten Agenten (von lat. agere = Handeln; mit Geheimdienstmitarbeitern hat das nichts zu tun). Wenn ich an einem Montag in meinem Sessel sitze und beschließe, am Wochenende die Terrasse zu kärchern, dann ist der, der hier die Entscheidung trifft, ein Agent. Leider ist es aber nicht der gleiche Agent wie der, der dann am Samstag tatsächlich die Arbeit machen soll. Und natürlich haben die beiden auch ganz unterschiedliche Motivationen: Während der Montags-Agent glaubt, ganz bequem mit einem Drink in der Hand die eigentliche Arbeit an die künftigen Agenten verteilen zu können, sieht das der Samstags-Agent natürlich völlig anders – warum soll ausgerechnet er seine kostbare Zeit mit der Sauerei auf der Terrasse zubringen? Warum hat das der Montags-Agent nicht selbst gemacht, oder warum kann das nicht der Nächsten-Samstag-Agent übernehmen?

Ich finde, das Konzept hat was, und es deckt sich auch mit unserer Erfahrung. Jeder Zeitpunkt hat seine Agenten, und jeder Aufgabenbereich ebenfalls. Fängt man erst einmal an, sich selbst als Ansammlung (und zeitliche Abfolge) von Agenten zu sehen, von denen keiner völlig selbstlos ist, dann entwickelt die ganze Problematik, dass wir das Angenehme dem Nützlichen vorziehen, große Ähnlichkeiten zum Führen eines Unternehmens.

In der Managementlehre wird das als Principal-Agent-Problem bezeichnet. Der „Principal“ ist der Chef, der Entscheidungen trifft, die zum Wohle des gesamten Unternehmens sind. Die „Agents“ sind dagegen die Mitarbeiter, die diese Entscheidungen umsetzen sollen, aber nicht unbedingt Lust dazu haben. Schlimmer noch: Sie verfügen auch noch über Informationen, die der Principal nicht hat (oder zumindest zum Zeitpunkt der Entscheidung nicht kannte), und nutzen diese schamlos aus, um sich Vorteile zu verschaffen (was häufig bedeutet, dass sie die Anweisungen nicht ausführen). Die Managementlehre diskutiert nun, wie der Principal die Agents dazu kriegt, zu kooperieren, und wie immer bei Kooperationsproblemen landen wir schon bald in der Spieltheorie.

Agenten und Spiele

Rieck überträgt diese Überlegungen nun auf das Führen der inneren Agenten. Die Techniken des Selbstmanagements, die er dazu vorschlägt, sind soweit nicht wirklich neu, aber das Framing als spieltheoretisches Problem ist es (zumindest habe ich das sonst noch nirgends gesehen). Wobei ich persönlich mir gewünscht hätte, dass der Autor diesen Ansatz noch rigoroser verfolgt hätte. Denn so richtig spieltheoretisch wird es nach der anfänglichen Motivation nicht mehr.

Das fängt schon damit an, dass das Konzept des Agenten nicht sauber definiert ist. So wird manchmal argumentiert, dass ein Agent durch seine inhaltliche Zuständigkeit definiert ist. An einer anderen Stelle steht, dass ein Agent in dem Moment abgelöst wird, in dem seine Entscheidung revidiert wird. Und dann heißt es wieder, dass der Agent am liebsten eine Belohnung nach der Arbeit hätte (was aber nichts anderes heißt, als dass er sogar jenseits seiner Zuständigkeit noch weiterexistiert).

Auch wenn ich weiß, dass zu jedem Zeitpunkt tatsächlich mehrere Agenten existieren, werden die Überlegungen durch das Arbeiten mit derart unterschiedlichen Agentendefinitionen doch ziemlich beliebig, so als würde der Autor immer gerade die Agentendefinition wählen, die zu den ohnehin bekannten Ergebnissen aus der Psychologie (insb. der Gamification) passt. Ich hätte den umgekehrten Ansatz spannender gefunden: Wenn man einen Agenten (ganz im Sinne der agentenbasierten Modellierung) klar definiert und schaut, was daraus für die Führung des inneren Schweinehundes folgt.

Was beispielsweise ergibt sich, wenn man einen Agenten einfach über die verfügbare Zeit definiert? Was weiß man darüber, wie lange Menschen bei einem Thema bleiben, bevor sie anfangen, sich zu langweilen und den Kontext zu wechseln? Haben Agenten eine Art Halbwertszeit, werden mit zunehmender Dauer immer schwächer und überlappen sich mit neuen, frischen Agenten? Und was bedeutet das für Arbeitsdauer, für Belohnungen und für die Übergabe der Arbeit an den nächsten Agenten? Vielleicht liegt in dieser Betrachtungsweise tatsächlich noch mehr Potential, als das Buch – so elegant es auch geschrieben ist – aus dem Thema herauskitzelt…

Kategorien
Uncategorized

Netzwerke, Agenten, Spiele

Zwei Jahre der Suche

Seit Anfang 2022 schleiche ich um eine Reihe von Themen herum, die auf den ersten Blick von meinem ursprünglichen Ziel, das menschliche Denken und Handeln mit den Mitteln eines Informatikers zu verstehen, wegzuführen scheinen. Ich will zunächst versuchen, diese Reise anhand einiger Bücher zu beschreiben, die mich in der Zeit beschäftigt haben, und damit eine Art roten Faden durch das Durcheinander in diesem Blog in den letzten zwei Jahren zu ziehen:

  • Samuel Gershman – What Makes Us Smart. Dieses Buch markiert gewissermaßen den Abschied vom ursprünglichen Ziel des Blogs. Ich habe es gelesen, weil mich die gängigen Aussagen zur Entscheidungs- und Kognitionswissenschaft in ihrer Beschränktheit zunehmend frustriert haben. Gershman vertritt dagegen die These, dass die vermeintlichen Fehler unseres Denkens gar kein Bug sind, sondern ein Feature – wenn man akzeptiert, dass auch unser Gehirn nicht über unbegrenzte Ressourcen verfügt, sind sie gewissermaßen zwingend erforderlich. Als Nebeneffekt habe ich in diesem Buch auch erstmals von Informationskaskaden gehört, die mich zum nächsten Buch geführt haben.
  • David Easley, Jon Kleinberg – Networks, Crowds, and Markets. Eigentlich war es nur das Kapitel über eben diese Informationskaskaden, die mich hierher gebracht haben. Doch dann war ich begeistert: In diesem Buch wurde aufgezeigt, dass man Informationsflüsse, Märkte, Kooperation oder Konkurrenz nur verstehen kann, wenn man die Netzwerke berücksichtigt, in die die jeweiligen Akteure eingebunden sind. Dazu wollte ich mehr wissen, doch als ich andere Bücher zu Netzwerktheorie las, sprang der Funke nicht mehr über – scheinbar hatten die Autoren hier genau die Mischung aus Theorie und konkreten Anwendungen getroffen, die für mich interessant war.
  • Melanie Mitchell – Complexity: A Guided Tour. Stattdessen stolperte ich über das nächste Buch, das mich absolut begeistern konnte, indem es noch weiter rauszoomte: Jetzt waren Netzwerke nur noch ein Kapitel unter vielen, ein Werkzeug einer viel umfangreicheren Disziplin, die sich ganz allgemein mit komplexen Systemen beschäftigte. Ich traf viele „alte Bekannte“ wieder – Themen und Autoren, die mich zu irgendeinem Zeitpunkt fasziniert hatten, ohne dass mir jemals der Gedanke gekommen wäre, dass sie eigentlich zusammenhängen. Und überhaupt hatte ich doch gar keine Zeit, mich einem dermaßen umfangreichen Forschungsgebiet zu beschäftigen?
  • Es folgten rund anderthalb Jahre, in denen ich zwischen verschiedenen Texten zu diversen Themen hin- und hergeschwankt bin (Bayes’sche Statistik, Spieltheorie, Komplexe Systeme, Kognition, Ethik, Blockchain, Metaverse…). Ein richtiger Trend wurde aber nicht mehr daraus, und ich hatte mehr und mehr das Gefühl, einer Chimäre nachzujagen – einem gefühlten Zusammenhang zwischen all diesen Themen, der aber vielleicht gar nicht wirklich existierte. Bis mich dann ausgerechnet ein Philosophiebuch einen Schritt weiterbrachte…
  • Matthew B. Crawford – The World Beyond Your Head. Über dieses Buch, in dem der Philosophieprofessor und Motorradmechaniker (sic!) Crawford über die Wichtigkeit der Verbindung zur realen Welt für unser Denken schreibt, werde ich in den nächsten Wochen sicherlich noch einen eigenen Beitrag verfassen. Für die Diskussion hier geht es mir vor allem um die These, dass es auch beim Nachdenken über die Welt wichtig ist, die Anwendung auf die Wirklichkeit und den Abgleich mit derselben nicht aus den Augen zu verlieren. Diese These teile ich, aber sie zeigt mir auch, wie ich immer wieder in Gefahr bin, mich in den der Welt der reinen Gedankengebilde zu verlieren, wenn ich nicht aufpasse und mich immer wieder zur Rückkehr in die Praxis zwinge.

In der Folge habe ich das Thema „Blockchain“ von meiner To-Do-Liste genommen, weil mir klar wurde, dass ich auch nach Jahren der Beschäftigung damit keinerlei Interesse daran hatte, mich auch mal mit der praktischen Umsetzung zu beschäftigen.

Komplexe Systeme

Zunächst war es gewissermaßen nur meine Unfähigkeit, mich zwischen all den spannenden Möglichkeiten zu entscheiden, die mich wieder zu Büchern zu „Komplexen Systemen“ greifen ließ: Schließlich handelt es sich dabei gewissermaßen um die große Klammer, unter der sich viele meiner Lieblingsthemen wiederfanden (zugegeben, nach der gleichen Logik hätte ich auch „Kognitionswissenschaft“ wählen können, aber so ist es nicht gekommen).

Beim ersten Blättern in ernsthafteren Büchern zum Thema überkam mich aber schnell wieder der Frust: Hier waren schon wieder Leute auf der Suche nach der Weltformel – möglichst abstrakt, mit einem mathematischen Formalismus, der für einen Physiker vielleicht offensichtlich ist, der mir aber sehr fremd ist und der mich auch überhaupt nicht reizt.

Nun ist es aber ohnehin nicht so, dass ich mir ein solch riesiges Themengebiet in der vorhandenen Zeit noch zur Gänze erschließen könnte, dazu bräuchte ich mehrere Jahre des Vollzeit-Studiums, die mir natürlich nicht zur Verfügung stehen. Also muss ich sowieso auswählen, wo ich meine Schwerpunkte setze. Und die kann ich dann auch so wählen, dass sie meinen Stärken und Interessen entsprechen.

Außerdem kann ich die Gedanken beherzigen, die ich aus Crawfords Buch mitgenommen habe: Theorie als Selbstzweck ist problematisch, weil die schönsten Gedankengebilde (aka „Modelle“) nichts nützen, wenn sie die Wirklichkeit aus dem Blick verlieren. Daher ist es mir wichtig, künftig auch die Anwendung wieder stärker im Blick zu haben.

Netzwerke, Agenten, Spiele

Wovon werden wir nun also in nächster Zeit mehr in diesem Blog lesen? Ich habe mir drei Werkzeuge zur Untersuchung komplexer Systeme ausgesucht, mit denen ich mich schon in der Vergangenheit beschäftigt habe und die ich in Zukunft nicht nur vertiefen, sondern auch miteinander verknüpfen und in konkreten Projekten anwenden will:

  1. Dynamic Networks: Natürlich verstehe ich auch die Strukturen statischer Netzwerke, aber für sich genommen bringen sie wenig mit, was mich reizt. Interessant wird die Sache für mich erst, wenn die Netzwerke dynamisch werden – wenn sie ihre Struktur aufgrund von Entscheidungen, Umwelteinflüssen oder Zufallsprozessen verändern.
  2. Agent-Based Modelling: Diese Teildisziplin der Erforschung komplexer Systeme akzeptiert, dass man nicht alles als Formeln modellieren kann, und nutzt stattdessen Simulation als Werkzeug der Wahl. Das Fachgebiet ist noch vergleichsweise jung, weil es sowohl leistungsfähige Rechner als auch hinreichend große Datenmengen benötigt, um nützliche Aussagen treffen zu können.
  3. Algorithmic and Evolutionary Game Theory: Auch in der Spieltheorie gibt es vieles, was mich gar nicht so brennend interessiert – zu statisch, zu mathematisch oder schlicht zu linear. Aber in Kombination mit Netzwerken und Algorithmen gibt es zahlreiche Fragestellungen und Techniken, die gerade für einen Informatiker wie mich reizvoll sind, und die algorithmische sowie die evolutionäre Spieltheorie stehen schon lange auf meinem Lern-Wunschzettel.

Natürlich werde ich mir nicht verbieten, auch weiter nach oben (allgemeine Theorie komplexer Systeme), nach links und rechts (beispielsweise auf weitere Werkzeuge wie Algorithmik, Theoretische Informatik oder Informationstheorie) und in Anwendungsfelder (Soziale Netzwerke, Märkte, Informationsmanagement, neuronale Netze etc.) zu schauen. Aber der Schwerpunkt für das Jahr 2024 soll auf den obigen Disziplinen einschließlich ihrer Anwendung liegen. Ich könnte mir vorstellen, dass da so manches dabei ist, was auch für jemanden, der diesem Blog bisher etwas abgewinnen konnte, von Interesse ist.

Kategorien
Uncategorized

Wie mir ChatGPT zwischenzeitlich den Stecker gezogen hat

Es geht endlich weiter

Zunächst einmal sorry für die lange Funkstille auf diesem Blog. Diese war gleich mehreren Gründen geschuldet. Zum einen habe ich mich in den letzten Monaten eher mit dem Thema „Blockchain“ beschäftigt – einer langjährigen On-Off-Beziehung von mir, die mir aber thematisch nicht so recht zum Blog zu passen scheint.

Außerdem kämpfe ich schon länger damit, dass vom ursprünglichen Thema dieses Blogs (dem Algorithmischen Denken) kaum noch die Rede ist. Dieser Trend hat ja schon recht früh eingesetzt, weil sich meine Interessen seit Anfang 2022 zunehmend in Richtung Bayes’sche Statistik, Network Science und Theorie Komplexer Systeme verschoben haben.

Die Kluft zwischen Neuronen und Algorithmen

Seit Anfang 2023 ist aber noch ein weiterer Grund hinzugekommen. Der Siegeszug generativer „KIs“ (wie etwa ChatGPT) wirft nämlich die Frage auf, wie sinnvoll es noch ist, Denken überhaupt algorithmisch beschreiben zu wollen.

Um das zu erklären, muss ich etwas weiter ausholen. Es ist nämlich schon lange bekannt, dass das menschliche Gehirn intern keinesfalls algorithmisch arbeitet. Zwar können wir unser Handeln häufig algorithmisch beschreiben („Ich fülle einen Topf mit Wasser, stelle ihn auf die Herdplatte und drehe den Regler auf die höchste Stufe. Wenn das Wasser kocht, lege ich vorsichtig fünf Eier hinein (usw.)“), doch in unserem Gehirn finden wir keine Entsprechungen für das, was wir da beobachten.

Unser Gehirn ist vielmehr ein sogenanntes emergentes komplexes System, in dem recht simple biologische Einheiten (Neuronen und Synapsen) durch Vernetzung, Zusammenarbeit, Feedback und Adaption zu einem Gesamtsystem verschmelzen, dessen Leistungsfähigkeit durch die Funktionsweise seiner Komponenten nicht mehr erklärbar ist. Das Ganze ist größer als die Summe seiner Teile, und der Reduktionismus, der seit Jahrhunderten das Grundprinzip der westlichen Wissenschaft ist (und der fordert, dass man ein Phänomen nur verstehen kann, indem man es in seine Bestandteile zerlegt), stößt hier an seine Grenzen.

Beim Verständnis des Gehirns kann man also zwischen der Mikroebene (Neuronen, Synapsen) und der Makroebene (Modelle, Algorithmen) unterscheiden. Beide werden von den entsprechenden Wissenschaften ziemlich gut verstanden, sie passen bloß überhaupt nicht zusammen. Und wir haben auch keine Ahnung, wie wir von der einen zur anderen kommen sollen.

Aus diesem Grund hat beispielsweise die Kognitionswissenschaft, deren großes Ziel es einmal war, durch das Verständnis von Computern auch das menschliche Gehirn zu verstehen, das sogenannte Computermodell des Geistes mittlerweile aufgegeben. Das menschliche Gehirn arbeitet eben nicht wie ein Computer, auch wenn wir menschliches Verhalten gerne durch algorithmische Entsprechungen wie Entscheidungen (Informatiksprech: Verzweigungen), Wiederholungen (Schleifen), zuständige Gehirnareale (Funktionen) und natürlich das Gedächtnis (Speicher) beschreiben.

Bauen statt verstehen

Das alles ist wie gesagt nicht neu, und entsprechende Überlegungen wurden schon vor etwa 35 Jahren angestellt. Was also hat sich jetzt durch ChatGPT & Co. verändert?

Mein Eindruck ist, dass mit dem Aufkommen leistungsfähiger neuronaler Netze das Bemühen, Probleme und die zugehörigen Lösungsverfahren wirklich zu verstehen, schlagartig nachgelassen hat. Der Großteil insbesondere der KI-Forschung gibt sich neuerdings damit zufrieden, Systeme für das maschinelle Lernen zu bauen. Man hat jetzt gewissermaßen eine magische Black Box (das neuronale Netz), die man einfach so lange mit Trainingsdaten füttert, bis sie tut, was man will. Warum diese „KI“ das jetzt so und nicht anders tut und wie sie dabei genau vorgeht (oder ob sie überhaupt wirklich das tut, was ursprünglich beabsichtigt war), ist nicht erfassbar und interessiert scheinbar auch gar nicht mehr. Erklärungen beschränken sich neuerdings auf Aussagen der Art: „Mit 14 Schichten ging es noch nicht, aber mit 15 hat es dann geklappt“. Aha, na dann.

Die große Ungewissheit

Das ist für mich und meinen lebenslangen Traum, das menschliche Denken zu verstehen, natürlich ausgesprochen frustrierend. Und es wirft meiner Meinung nach auch kein gutes Licht auf den Zustand der Wissenschaft, die den Wunsch, die Welt zu verstehen, bereitwillig aufgibt für den Wunsch, die Welt (dazu noch möglichst disruptiv und ohne Reflektieren der Folgen) zu verändern.

Es hat aber auf den ersten Blick auch noch viel weitreichendere, ethische Konsequenzen: Wenn wir uns von technischen Systemen Informationen liefern oder gar Entscheidungen abnehmen lassen, obwohl wir gar nicht wissen, wie diese bei der Informationsverarbeitung bzw. Entscheidungsfindung überhaupt vorgegangen sind, dann öffnen wir sowohl unabsichtlichen Missverständnissen als auch bewusstem Missbrauch Tür und Tor.

Andererseits muss man fairerweise zugeben: Eigentlich gilt genau das gleiche auch für den Menschen. Denn nach allem, was wir über unser Denken wissen, wissen auch wir so gut wie nichts darüber, wie wir zu unseren Erkenntnissen gelangen oder warum wir welche Entscheidungen wie treffen. Natürlich könenn wir häufig irgendwelche Gründe nennen, aber der Stand der psychologischen Forschung sagt, dass diese Gründe eher etwas sind, was wir uns nachträglich ausdenken – die wahren Ursachen unseres Denkens und Handelns sind uns ebenso unzugänglich wie die unserer neuen maschinellen Helferlein. So gesehen ist dieses Problem der Ungewissheit also lösbar – wir lösen es schließlich schon seit Tausenden von Jahren im Umgang mit unseren Mitmenschen!

Sind Algorithmen nun nutzlos?

Aber auch wenn es vielleicht so klingen mag: Die obigen Überlesungen sind für mich kein Grund, das Nachdenken über Algorithmen einzustellen. Es mag sein, dass der Mensch selbst gar nicht in Algorithmen denkt und dass sich diese auch nicht in der uns bekannten Form im Gehirn wiederfinden. Dennoch nutzen wir sie, um zu beschreiben, was wir tun. Das hat den kuriosen Effekt, dass wir einander Dinge nicht beibringen können, indem wir einander „ins Gehirn schauen“. Wir generieren vielmehr aus dem neuronalen Netz unseres Gehirns, das unser Vorgehen in einer vollkommen anderen Darstellung enthält, eine verbale Beschreibung – den Algorithmus. Diesen geben wir einer anderen Person weiter, die ihn schließlich (durch Verstehen und/oder Einüben) wieder zu einem Teil ihres eigenen neuronalen Netzes macht.

Allein diese Nutzung von Algorithmen für das Lernen zeigt, dass sie weiterhin nützlich bleiben werden und dass es sich lohnt, darüber nachzudenken. Dort, wo man ein Problem sauber genug modellieren kann, können sie außerdem genutzt werden, nach möglichst eleganten (ja, manchmal sogar optimalen) Lösungswegen zu suchen. Zugleich gibt es aber auch Probleme, die aufgrund ihrer Struktur nicht dafür geeignet sind, algorithmisch gelöst zu werden, und es deutet einiges darauf hin, dass viele Probleme des Denkens in diese Kategorie fallen.

Komplexe Systeme

Zugleich bleibt natürlich die Frage spannend, wie aus den riesigen Mengen einfachster Neuronen und Synapsen (sowie dem Einfluss diverser anderer Zellen, Umweltreize, Hormone etc.) nun eigentlich das komplexe Verhalten wird, zu dem wir in der Lage sind. Der Fachbegriff hierfür ist Emergenz: Systeme aus vergleichsweise einfachen Komponenten entwickeln durch Kooperation und Adaption die Fähigkeit zu hochkomplexem Verhalten.

Für mich ist das auch deshalb interessant, weil ich bei vielen Themen, die mich interessieren, früher oder später wieder an diesem Punkt anzukommen scheine. So gelten ähnliche Prinzipien nicht nur in der Natur (von der DNA und der Organisation von Zellen über das Verhalten von Viren und Immunsystemen und die Funktionsweise von Ameisenstaaten bis ganz hinauf zur Modellierung von Ökosystemen und der Entwicklung des Klimas), sondern auch in der menschlichen Gesellschaft (beispielsweise beim Sozialverhalten, in Märkten oder in der Organisation und Generierung von Wissen). Immer geht es um Netzwerke, Informationsflüsse, Kooperation und Evolution.

Eine ganze Reihe wissenschaftlicher Disziplinen bemüht sich seit rund einem Jahrhundert, diese Phänomene zu beschreiben und zu erforschen. Sie tragen solche klangvolle Namen wie Kybernetik, Synergetik, Systemtheorie oder (in letzter Zeit) Theorie komplexer Systeme. Seit Anfang 2022 gab es in diesem Blog ja schon den einen oder anderen Beitrag, der aus diesen Disziplinen motiviert war. Und es würde mich nicht wundern, wenn das auch in Zukunft immer mal wieder der Fall wäre…

Kategorien
Uncategorized

Die Zukunft dieses Blogs

Bestandsaufnahme

Und schon wieder sind zwei Monate ins Land gegangen, ohne dass es hier einen neuen Beitrag gegeben hätte. Gerade mal vier Stück waren es in den letzten 12 Monaten. So macht ein Blog natürlich keinen Sinn.

Der Grund dafür ist aber nicht, dass ich inzwischen nichts mehr lese, nicht mehr aktiv über interessante Themen nachdenke oder keine Lust mehr hätte, meine Gedanken dazu aufzuschreiben. Die Stille auf dem Blog liegt vielmehr daran, dass ich mich aktuell mit anderen Themen beschäftige als denen, um die es hier ursprünglich gehen sollte.

In meinem ersten Blogbeitrag im Januar 2021 habe ich Folgendes geschrieben:

Ziel dieses Blogs ist es nun, die Verbindung – die Gemeinsamkeiten, aber auch die Unterschiede – zwischen algorithmischem und menschlichem Denken herauszuarbeiten.

Inzwischen aber hat sich das Themenspektrum, mit dem ich mich beschäftige, deutlich verbreitert. Zu meinen wichtigsten Überschriften des letzten Jahres gehören Algorithmik, Computer und Gehirn, problemlösendes Denken, Entscheidungs- und Spieltheorie, Ethik, Komplexitätswissenschaft und Network Science. Und auch wenn ich hier und da schon Gedanken zu diesen Themen im Blog eingeflochten habe, habe ich das doch mit einem schlechten Gewissen getan, weil mir bewusst ist, dass sie mit der ursprünglichen Zielsetzung des Blogs kaum noch etwas zu tun haben. Und dabei habe ich die Themen, die nun wirklich gar nichts mehr mit algorithmischem Denken zu tun haben, nicht nicht einmal erwähnt…

Und nun?

Nun würde ich gerne wieder mehr über das schreiben, was mich gerade umtreibt, ganz gleich, ob es nun zur Überschrift „Algorithmisches Denken“ passt oder nicht. Dazu gibt es zwei Möglichkeiten:

  • Ich könnte einen neuen Blog starten, um den Algodenk-Blog „sauber“ zu halten. Das würde aber bedeuten, dass hier künftig nur noch recht selten Beiträge erscheinen würden, was wohl auf ein Sterben auf Raten hinauslaufen würde.
  • Alternativ könnte ich diesen Blog neu ausrichten, indem ich ihm den Untertitel „Gedanken eines Informatikers“ verpasse und ihn für alle Themen und Überlegungen öffne, die mich gerade beschäftigen. Dadurch verliert er zwar seinen klaren Fokus, würde dafür aber wieder aktiver bespielt.

Da meine Erfahrung zeigt, dass für mich alle oben genannten Themen miteinander verbunden sind, scheint mir eine saubere Trennung wie in Variante 1 kaum praktikabel. Daher habe ich mich jetzt für Variante 2 entschieden. Ich werde die Beschreibung des Blogs in den nächsten Tagen entsprechend anpassen und dann künftig wieder regelmäßiger, dafür aber breiter berichten von meinen Versuchen, den Computer, unser Gehirn und die Welt im Allgemeinen zu verstehen.

Kategorien
Uncategorized

Meisterschaft

Heute möchte ich einmal von zwei Büchern berichten, die ich gelesen habe und deren Aussagen sich geradezu diametral widersprechen, obwohl beide (natürlich) jede Menge Studien zum Untermauern ihrer Thesen anführen.

The One Thing

Da war zunächst einmal vor einigen Jahren das (ziemlich berühmte) Buch „The One Thing“ von Gary Keller: Es vertritt die These, dass man am erfolgreichsten ist, wenn man sich im Großen wie im Kleinen stets nur auf eine Sache konzentriert. Man steckt also all seine Energie in ein einziges Projekt und tut stets das, was am Sinnvollsten ist, um in diesem Projekt den größtmöglichen Fortschritt zu erzielen.

Ich gebe zu: Die Vorstellung, so etwas tatsächlich durchzuziehen und dadurch mal so richtig was zu erreichen, wirkt auf mich im ersten Moment verführerisch. Vielleicht liegt das darin, dass ich jahrelang in einer anspruchsvollen Forschungscommunity unterwegs war, in der ich so manchen Wissenschaftler angetroffen habe, der genau so tickte. Diese Menschen haben der Forschung alles untergeordnet, haben zwölf und mehr Stunden des Tages mit Denken, Programmieren und dem Diskutieren über Denken und Programmieren zugebracht. Und sie sind auf diese Weise berühmt geworden. Andererseits habe ich auch Experten von Weltruf kennengelernt, die ganz anders waren – sie waren nebenher auch noch hervorragende Sportler, Musiker, Ehemänner, Familienväter,… Von „One Thing“ keine Spur – natürlich waren sie sehr gut, aber sie waren teilweise in erschreckend vielen Dingen sehr gut.

Für mich selbst hat das mit der Einen Sache jedenfalls nie wirklich funktioniert. Für mich ist die Welt viel zu voll von faszinierenden Dingen und Fragen und Projekten und Menschen, als dass ich es über mich bringen würde, alles bis auf ein einziges davon auszublenden. Ich habe mich aber schon beim Lesen des Buchs „The One Thing“ gefragt, ob der Autor das wirklich selbst so macht. Erklärt er wirklich seiner Frau und seinen Kindern, das „One Thing“ in seinem Leben sei nun mal seine Firma und alles andere (einschließlich sie) seien nur das Beiwerk, das idealerweise dazu da ist, sein „One Thing“ zu unterstützen?

10.000 Stunden zur Meisterschaft

In solchen und ähnlichen Zusammenhängen wird übrigens auch gerne die 10.000-Stunden-Regel zitiert (natürlich auch von Gary Keller), nach der man eben diese 10.000 Stunden Übung investieren müsse, um es in einer Disziplin zur Meisterschaft zu bringen. Wenn man das mal nachrechnet, sind das ziemlich viele Stunden – sie sind eigentlich nur zu erreichen, wenn man diesem Üben tatsächlich alles andere unterordnet.

Aber wenn man dann mal näher über die Sinnhaftigkeit dieser Aussage nachdenkt, kommt man ins Grübeln. Spielt die Begabung dabei überhaupt keine Rolle? Und wieso genau 10.000 Stunden? Wenn das auf wissenschaftlichen Studien basiert, ist doch eine derart runde Zahl recht unwahrscheinlich? Kann es sein, dass man hier einfach irgendetwas Einprägsames gewählt hat, so wie bei den 10.000 Schritten, die man angeblich täglich machen soll (und die von der Wissenschaft längt als Unsinn entlarvt wurden)? Oder bei den 100 Milliarden Euro Sondervermögen, mit der die Bundesregierung die Bundeswehr zukunftstauglich machen will und bei der sich auch sofort die Frage stellt, nach welcher sorgfältiger Prüfung des Bedarfs man von allen denkbaren Summen zufälligerweise genau auf 100 Milliarden gekommen ist?

Eine andere Frage, die sich mir hier gestellt hat, lautet: Was soll denn überhaupt „Meisterschaft“ sein? Ich tue mich mit dem Begriff zugegebenermaßen schwer. Wann genau bin ich denn ein Meister? Hier ist ja wohl kaum ein Handwerksmeister, ein MSc oder MBA gemeint, sondern jemand, der sein Metier wirklich beherrscht. Aber wann genau ist das denn in der wirklichen Welt der Fall? Kann man das messen? Und falls ja, wie? In meiner eigenen Forschungsdisziplin – der Kryptologie – wüsste ich nicht, wie man das machen wollte. Bin ich ein Meister, wenn ich in einem winzigen Teilbereich alles kann? Wenn ich in der Breite gut bin, aber in jedem Teilgebiet auf Spezialisten angewiesen bleibe? Und falls letzteres, wie gut genau muss ich dann in der Breite sein? Genügt theoretisches Wissen? Muss ich es auch implementieren können? Oder muss ich mich gar (was ja einige Forscher rigoros ablehnen) mit dem auseinandersetzen, was die wirkliche Welt aus meiner schönen Theorie macht und was sie eigentlich von uns Forschern bräuchte?

Wenn ich mir die Kryptologen anschaue, die ich selbst als Meister ihres Fachs ansehen würde, dann sind ihre Kompetenzen extrem unterschiedlich. Aber bei einem bin ich mir sicher: Sie sind nicht genau in dem Moment zum Experten geworden, als ihre 10.000 Stunden des Übens vorbei waren. Oft wächst ihre Expertise vielmehr von innen nach außen – sie waren zunächst (und zwar sehr schnell) Meister in einem schmalen Bereich, und dann wurde der Bereich, den sie gemeistert hatten, immer größer.

Range

Nun bin ich kürzlich über das Buch „Range“ von David Epstein gestolpert, das sich ganz rigoros gegen Thesen wie die von Gary Keller ausspricht und stattdessen das Loblied des Generalisten singt.

Auch er betrachtet das Beispiel mit den 10.000 Stunden, richtet aber das Brennglas darauf, wo diese Zahl herkommt. Wie sich herausstellt, wurden die entsprechenden Studien mit Musikern gemacht, also in einem extrem stark spezialisierten Bereich, in dem es eben keine andere Möglichkeit gibt, die Aufgabe (= herausragende Musik zu machen) zu lösen, als unablässig zu üben. Und in dem es auch tatsächlich möglich ist, so etwas wie Meisterschaft halbwegs sachlich zu beurteilen.

Epstein argumentiert nun, dass die Spezialisierung nur dort Sinn macht, wo genau ein solcher eng definierter Anwendungsbereich vorliegt. In der wirklichen Welt ist dies aber relativ selten der Fall, so dass es für die meisten Menschen viel mehr Sinn macht, nicht alles auf eine Karte zu setzen, sondern sich breit genug aufzustellen, um auf all die Unwägbarkeiten reagieren zu können, die das Leben so mit sich bringt.

Der goldene Mittelweg (mal wieder)

Natürlich bin ich als jemand, bei dem die Sache mit der „Einen Sache“ ohnehin nie funktioniert hat, an dieser Stelle voreingenommen. Aber mir leuchtet die Logik in „Range“ auch deutlich mehr ein als die in „The One Thing“. Das liegt auch daran, dass ich die Faktenlage für den Alles-oder-Nichts-Ansatz ein wenig in Zweifel ziehe. Denn um tatsächlich wissenschaftlich zu belegen, welcher Ansatz im wirklichen Leben besser funktioniert, müsste man Studien durchführen, in denen man (beispielsweise) 1000 Firmengründer über einen langen Zeitraum begleitet und schaut, welcher Ansatz häufiger dazu führt, dass die Firma erfolgreich ist.

Häufig wird nämlich an dieser Stelle eher anekdotisch argumentiert: „Schau dir Bill Gates an, der hat auch alles in diese eine Firma gesteckt, und der hatte Erfolg. So macht man das also.“ Dabei gab und gibt es zu jeder Zeit zahllose Firmengründer, die genauso eine gute Idee hatten und genauso hart gearbeitet haben und die trotzdem nach 3 Jahren wieder am Anfang standen. Wenn man sich diejenigen herauspickt, die Glück hatten und am Ende ganz oben stehen, ist das so, als würde man den Typen, der viermal hintereinander beim Roulette auf die richtige Zahl gesetzt und so die Bank gesprengt hat, als Rollenmodell für eine gute Strategie im Casino hinstellen.

Letztlich führen mich solche Überlegungen immer wieder zu einer Beobachtung zurück, die ich in diesem Blog schon mehrfach angesprochen habe: Es werden für meinen Geschmack zu oft extreme Positionen als der Weisheit letzter Schluss verkauft. So sehr wir uns das vielleicht manchmal wünschen: abgesehen von wenigen, meist künstlich erzeugten Nischen ist das Spiel des Lebens viel zu komplex, um mit einfachen Wahrheiten erklärt oder gar mit einer einzelnen Bauernregel wie „setz immer alles auf eine Karte“ gewonnen zu werden.

Kategorien
Uncategorized

Wie könnt ihr nur so sicher sein?

Derzeit lese ich das Buch „I am a strange loop“ von Douglas Hofstadter, in dem er der Frage nachgeht, wie Bewusstsein entsteht und was dieses „ich“ eigentlich ist, von dem wir alle reden. Und da bin ich gestern auf Seite 90 über die folgende Passage gestolpert:

„(…) most of us wind up emerging from adolescence with a deeply nuanced sense of what is real, with shades of gray all over the place. (However, I have known, and probably you have too, reader, a few adults for whom every issue that strikes me as subtle seems to them totally black-and-white – no messy shades of gray at all to deal with. That must make life easy!“)

D. Hofstadter: I am a Strange Loop. Basic Books, 2007

Was in mir spontan eine ganze Flut von Assoziationen ausgelöst hat, beginnend mit der Beobachtung, dass ich nicht nur einige wenige, sondern eigentlich sogar sehr viele Leute kenne, die sich ihrer Sache immer sehr sicher sind, und nur sehr wenige, die zugeben würden, dass Dinge kompliziert sind oder gar, dass sie zu wenig davon verstehen, um sich ein abschließendes Urteil erlauben zu können. Ein Teil des Problems dabei ist, dass die Graustufen-Leute sich in Diskussionen typischerweise zurückhalten, während die Schwarz-Weiß-Leute ihre Überzeugungen lautstark und voller Inbrunst vertreten.

Die Auswirkungen davon habe ich bereits im Beitrag „The Middle Ground“ vom Mai 2021 diskutiert, ich will das Thema hier aber nochmal aufgreifen und aufzeigen, warum absolute Gewissheit meiner Meinung nach kein gutes Zeichen ist.

Philosophie des Geistes

Die Frage „Was kann ich wissen?“ gehört ja zu den vier Hauptfragen Kants und ist vor und nach ihm ausgiebig diskutiert worden. Sokrates‘ „Ich weiß, dass ich nichts weiß“ gehört ebenso in diese Diskussion wie Descartes‘ „Ich denke, also bin ich“. Und auch der Konstruktivismus, aus dem letztlich die derzeitigen Gender- und Wokeness-Debatten hervorgegangen sind, hat in dieser Frage seinen Ursprung.

Ohne hier tiefer in diese (ausgesprochen komplexe) Diskussion einsteigen zu wollen, zeigt allein die Tatsache, wie intensiv die Frage nach Wissen, Wahrheit und Erkenntnis jahrhundertelang diskutiert worden ist, dass einfache Antworten hier wohl nicht zu haben sind. Trotzdem trifft man auch hier (ausgerechnet!) auffallend viele Diskussionsteilnehmer, die sich im Alleinbesitz der Wahrheit wähnen.

Ich selbst staune immer wieder, wie man sich in solch komplexen Themen und bei solch intelligenten Personen auf allen Seiten des Meinungsspektrums so sicher sein kann, selbst im Alleinbesitz der Wahrheit zu sein. Ganz besonders wundert mich das aber bei diejenigen, deren philosophisches Fundament auf dem Konstruktivismus fußt. Denn wie kann man einerseits postulieren, dass eine objektive Erkenntnis der Wahrheit nicht möglich ist, zugleich aber überzeugt sein, dass die eigene Überzeugung die einzig richtige ist?

Bayes’sche Wahrscheinlichkeit

Die Idee der Bayes’schen Wahrscheinlichkeit formalisiert im Grunde genau das, was Hofstadter oben informal beschreibt: Unser Gehirn arbeitet gar nicht wirklich mit absoluten Überzeugungen, sondern mit subjektiven Wahrscheinlichkeiten, die sukzessive an neue Beobachtungen angepasst werden. Auf den ersten Blick müsste das dazu führen, dass unsere mentalen Modelle immer besser zur Wirklichkeit passen. Nur ist das nach meiner Beobachtung gar nicht das, was in Wahrheit passiert – vielmehr driften Überzeugungen häufig auseinander und neigen sogar dazu, in Extremen zu enden. Im Folgenden will ich einmal (ganz ohne echten wissenschaftlichen Anspruch, eher im Sinne eines Brainstormings) darüber nachdenken, woran das liegen könnte.

Ein erster, noch sehr ins Unreine gedachter Gedanke bezieht sich darauf, wie wir lernen. Bekanntlich hängt unser Wissen entscheidend davon ab, wie Neuronen in unserem Gehirn miteinander verbunden sind. Die verschiedenen Wahrscheinlichkeiten, von denen man in der Bayes’schen Statistik ausgeht, entsprechen in gewissem Sinne der Stärke der Verknüpfungen in unserem Gehirn. Wenn wir nun aber regelmäßig über ein Thema nachdenken, werden die Verbindungen, die besonders häufig verwendet werden (die mit den größten a-priori-Wahrscheinlichkeiten), verstärkt – sie sind in Zukunft noch leichter verfügbar und entsprechen somit noch größeren künftigen Wahrscheinlichkeiten. Ein anfänglicher leichter Vorteil für eine bestimmte Ansicht könnte sich daher mit der Zeit selbst verstärken, bis er zu einer echten Überzeugung geworden ist.

Nun ist das Nachdenken im stillen Kämmerlein ja nicht die einzige Möglichkeit, zu lernen: häufig spielt ja auch Input von außen eine Rolle (bei den Bayes’schen Modellen, die ich bisher gesehen habe, wird es sogar fest vorausgesetzt). Hier aber kommt unsere Neigung ins Spiel, kognitive Dissonanzen vermeiden zu wollen. Es ist uns nämlich eigentlich unangenehm, unsicher zu sein und unsere Überzeugungen immer wieder in Frage gestellt zu sehen. Daher neigen wir dazu, vor allem solches Input zu suchen, das zu unseren bereits gefassten Überzeugungen passt: wir umgeben uns bevorzugt mit Menschen, die unserer Meinung sind, bewegen uns im Netz in (selbstgewählten oder von sozialen Netzwerken erzeugten) Filterblasen und lesen bevorzugt Texte von Autoren, deren Auffassungen wir teilen. Auch interpretieren wir unliebsame Beobachtungen gerne um und suchen sogleich Gründe, warum sie gar kein wirkliches Problem für unsere vorgefasste Überzeugung sind. Auf diese Weise führt die wiederholte Beschäftigung mit einer Thematik gar nicht dazu, dass sich die Wahrscheinlichkeiten in unserem Kopf besser an die Realität annähern – vielmehr verstärkt eine solche Beschäftigung mit dem Thema lediglich die Gewissheit, von Anfang an richtig gelegen zu haben.

Beispiel: Was wir wissen können

Nehmen wir einmal die Frage, was wir wissen können, als Beispiel. Wenn ich eine ernsthafte Antwort auf diese Frage suche, muss ich mich mit den Argumenten des Empirismus, des Rationalismus und des Skeptizismus auseinandersetzen. Ich sollte die verschiedenen Herangehensweisen von Wissenschaft, Kunst, Religion und Philosophie zu dem Thema verstanden und einer fairen, vorurteilsfreien Würdigung unterzogen haben. Ich sollte zudem auf dem neuesten Stand der Kognitionspsychologie sein und mir im Klaren darüber sein, was wir über die Funktionsweise des menschlichen Gehirns sowie seiner technischen Nachahmungen wissen. Und ja: dieses Verständnis schließt auch die zugehörigen mathematischen und algorithmischen Modelle mit ein. Sogar der Erkenntnisstand der Physik (die zu kennen den Philosophen früherer Jahrhunderte eine Selbstverständlichkeit war) und der Mathematik (wie etwa Gödels Unvollständigkeitssatz) beeinflussen diese Diskussion.

Ich denke, es wird schon aus dieser Auflistung klar, warum eine solche Fragestellung höchst komplex ist. Menschen mit einer realistischen Selbsteinschätzung werden vermutlich zugeben, dass sie nicht all diese Themenfelder in der erforderlichen Tiefe beherrschen und dass ihre Überzeugungen daher unter einer Reihe von Vorbehalten stehen müssten.

Wenn wir das tatsächlich täten und aufrichtig versuchen würden, unsere Wissenslücken zu schließen, dann würde auch das Bayes’sche Modell des Erkenntnisgewinns wieder funktionieren. Derjenige aber, der umfassende, anstrengende und manchmal auch frustrierende Recherche gerne mal durch einfache, dafür aber umso leidenschaftlicher vorgetragene Standpunkte ersetzt, befindet sich einfach nur in einem selbstverstärkenden Feedback-Loop, der ihm zwar ein gutes Bauchgefühl (und tolle Klick-Zahlen in den sozialen Medien) verschafft, ihn aber der Wahrheit nicht wirklich näher bringt. Ja, es besteht sogar die Gefahr, dass seine Gewissheit nichts anderes ist als eine Variante des Dunning-Kruger-Effekts: es ist umso leichter, sich für kompetent zu halten, wenn weniger tief man in die wahre Komplexität des Themas eingetaucht ist.

Schlussbemerkung

Vielleicht wird nach dieser Diskussion klarer, warum mich ein solch ungutes Gefühl beschleicht, wenn jemand bei Themen wie Kapitalismus, Corona, Klimawandel, Gender, künstliche Intelligenz, freier Wille etc. allzu überzeugt von seiner (womöglich noch: einfachen) Wahrheit ist. Manchmal sind die Dinge einfach komplex, und es macht mich misstrauisch, wenn jemand in einer Welt voll intelligenter Menschen glaubt, sie besser als die anderen verstanden zu haben. Vielmehr vermute ich, dass der wahre Grund für derlei Selbstsicherheit irgendwo unter den obigen Ursachen zu finden ist. Und auch wenn ich Douglas Hofstadter recht gebe (ja, es muss angenehm sein, sich seiner Sache so sicher zu sein), ziehe ich meine Zweifel dann letztlich doch vor.

Kategorien
Uncategorized

ChatGPT

Was ist ChatGPT?

ChatGPT ist ein sogenannter ChatBot – ein Programm, mit dem man Gespräche führen kann. Es wurde am 30. November 2022 von der Firma OpenAI veröffentlicht und hat seither das Netz im Sturm erobert. Nun gibt es solche Programme ja schon seit Jahrzehnten, aber ChatGPT besitzt ein Leistungsvermögen, das seinen Vorgängern deutlich überlegen ist und weit über reine Konversation hinausgeht. Wie die Wikipedia (Stand 4.1.2023) schreibt:

While the core function of a chatbot is to mimic a human conversationalist, journalists have also noted ChatGPT’s versatility and improvisation skills, including its ability to write and debug computer programs; to compose music, teleplays, fairy tales, and student essays; to answer test questions (sometimes, depending on the test, at a level above the average human test-taker); to write poetry and song lyrics; to emulate a Linux system; to simulate an entire chat room; to play games like tic-tac-toe; and to simulate an ATM.

Wer sich darunter nicht wirklich etwas vorstellen kann, dem sei ein Gang auf die ChatGPT-Webseite empfohlen, wo man das Tool kostenlos ausprobieren kann. Alternativ – falls man sich das lieber erstmal in Ruhe vorführen lassen will – kann man sich auf Youtube umsehen, wo es von Demo-Videos nur so wimmelt. Studenten berichten, wie sie ihre Aufsätze von ChatGPT haben schreiben lassen und damit durchgekommen sind. Programmierer berichten, wie sie ChatGPT haben Webseiten programmieren lassen und wie das Programm seine Fehler selbständig korrigiert hat, wenn man es einmal darauf hingewiesen hat. Neugierige zeigen, wie sie von ChatGPT haben Namen, Gedichte ja ganze Geschichten erfinden lassen oder wie sie philosophische Diskussionen mit dem Programm geführt haben.

Ja, ChatGPT kann nicht alles, und manchmal macht es Fehler. Aber das tun Menschen auch.

Ja, ChatGPT versteht nicht wirklich, was es da tut. Aber das tun Menschen oft auch nicht.

Das ändert aber nichts daran, dass ChatGPT dem, was wir eigentlich als Domäne des geistigen Arbeitens betrachtet haben, erschreckend nahe gekommen ist. Ja, dass es besser ist als das, was manche Menschen an geistiger Arbeit zustande bringen. Und das, obwohl es hinter den Kulissen nichts anderes ist als eine Maschine, die Sprache mit Hilfe eines Wahrscheinlichkeitsmodells erzeugt. Was sofort die Frage aufwirft, wieso das ausreicht, um den oberflächlichen Betrachter davon zu überzeugen, dass er es mit einem Menschen zu tun hat.

Ich habe mich geirrt

Das, was ich bisher von ChatGPT gesehen habe, zieht vielen von dem, was ich in diesem Blog geschrieben habe, den Teppich unter den Füßen weg. Ich bin kein Insider der KI-Forschung, aber habe mir deren Fortschritte immer mit Interesse von der Seitenlinie aus angesehen. Meine Folgerungen kann man beispielsweise in meinem Beitrag Warum ich keine Angst vor KIs habe vom März 2021 nachlesen:

Die alljährlichen Gewinner des Loebner Prize für den „most human computer“ (eine Art Turing-Test, bei dem es darum geht, so menschlich wie möglich zu kommunizieren) zeichnen sich eben nicht durch intelligente Konversation aus, sondern dadurch, dass sie versuchen, den Partner so lange über ihre Ahnungslosigkeit hinwegzutäuschen, bis das Zeitlimit erreicht ist.

Genau davon kann nun bei ChatGPT nicht mehr die Rede sein. Das Programm versucht nicht, Zeit zu gewinnen, sondern berücksichtigt den bisherigen Verlauf der Konversation in seinen Antworten, reagiert folgerichtig auf das Input seines Gegenübers und ist sogar in gewissem Umfang zum kreativen Problemlösen in der Lage. Zudem ist es längst nicht so sehr „Fachidiot“, wie ich das von einer schwachen KI erwartet hätte – seine Fähigkeit, mit Sprache zu arbeiten, öffnet ihm die Tür zu quasi allen Anwendungen, in denen Sprache vorkommt.

Wie es aussieht, habe ich mit meiner Einschätzung gründlich danebengelegen und muss bei denen, die schon seit Jahren die kühnsten (oder schlimmsten) Visionen hatten, Abbitte leisten. Was mir übrigens in meinem Berufsleben schon zum zweiten Mal in diesem Umfang passiert: Denn auch die Horrorszenarien, dass die US-Regierung sämtliche Kommunikation überwachen würde, habe ich für völlig übertriebene Verschwörungsfantasien gehalten – bis die Snowden Files veröffentlicht wurden.

Auswirkungen auf die Lehre

Ganz egal, wo sich ChatGPT oder ähnliche ChatBots in der Zukunft noch hinentwickeln, wird das Programm bereits in seiner jetzigen Form massive Auswirkungen auf Schule und Hochschule haben. Bevor ich in die Diskussion einsteige, gebe ich mal ein kurzes Beispiel für die Fähigkeiten des Programms:

Meine Frage: Erkläre mir in maximal 200 Wörtern, wie Habermas den Diskursbegriff versteht.

Antwort ChatGPT: Der Diskursbegriff von Jürgen Habermas bezieht sich auf die Möglichkeit, dass Menschen durch argumentativen Austausch zu einem gemeinsamen Verständnis gelangen können. Habermas betont, dass Diskurse nur dann fair und produktiv sind, wenn sie bestimmte Kriterien erfüllen, die er als „kommunikative Rationalität“ bezeichnet. Dazu gehört unter anderem, dass alle Beteiligten frei und gleichberechtigt am Diskurs teilnehmen können und sich an die Regeln der Vernunft und der allgemeinen Sittlichkeit halten. Ziel von Diskursen ist es demnach, durch den Austausch von Argumenten und Informationen ein möglichst umfassendes und tragfähiges Verständnis zu erreichen. Habermas‘ Diskursbegriff hat großen Einfluss auf die moderne politische Theorie und die Demokratieforschung.

Eine offensichtliche Nutzungsmöglichkeit ist also die Recherche. Studierende können sich Dinge, die sie nicht verstanden haben oder daheim nachlesen sollen, erklären lassen. Und im Gegensatz zu einer klassischen Textrecherche können sie bei offenen Punkten auch nachhaken. Wir haben hier also eine Art persönlichen Tutor, den man zu jeder Tages- und Nachtzeit fragen kann. Allerdings hat ChatGPT das Sprachmodell, das seinen Antworten zugrunde liegt, letztlich natürlich aus dem Internet konstruiert und dabei auch dessen Fehler mit übernommen. Wer sich also gar nicht auskennt, läuft Gefahr, völligem Blödsinn aufzusitzen, wenn das Tool gerade auf fehlerhafte Informationen zurückgreift. Das ist allerdings kein Grund, es nicht zu benutzen. Es ist vielmehr ein wenig wie mit einem Navi: Es ist hilfreich, aber man darf das eigene Hirn nicht völlig ausschalten, weil man nie weiß, ob der Kartensatz wirklich aktuell ist.

In der Lehre wird der Segen aber zum Fluch, wenn es um Hausarbeiten geht, denn ChatGPT ist natürlich auch gut dafür geeignet, diese für den unmotivierten oder überforderten Studierenden zu übernehmen. Mag sein, dass die Lösung nicht perfekt ist. Mag sein, dass die Lösung sogar deutliche Fehler enthält. Entscheidend in der Praxis ist aber, dass der Dozent den Täuschungsversuch nicht nachweisen kann, sogar wenn er einen Verdacht hat. Im Gegensatz zu den typischen Plagiaten der letzten Jahre, in denen Texte mehr oder weniger wörtlich aus dem Internet kopiert wurden, erhält der Auftraggeber jetzt einen individuellen Text, den der Dozent selbst bei entsprechender Websuche so nirgends findet.

Für jemanden wie mich, der Klausuren in den meisten Fächern für wenig zielführend hält und Hausarbeiten für eine deutlich sinnvollere Prüfungsform, bei der sich der Prüfling soviel Zeit nehmen kann, wie er eben braucht, ist das natürlich ein herber Schlag. Im Grunde müsste man jetzt jede Hausarbeit die ganze Zeit über beaufsichtigen, was natürlich nicht möglich ist. Darüber, wie man das in Zukunft löst, wird man noch nachdenken müssen – in diesem Moment habe ich noch keine gute Idee, wie man das Problem löst.

Auswirkungen auf die Arbeit

Ein solches Tool (und seine Nachfolger) wird natürlich auch Konsequenzen für die Arbeitswelt haben. Tätigkeiten, bei denen es um reines Wissen oder um vergleichsweise einfache kognitive Tätigkeiten geht, können von einem solchen Werkzeug übernommen werden. Die Aufgabe des Menschen wird dann darin bestehen, die richtigen Fragen zu stellen, die Antworten auf Plausibilität zu überprüfen und ggf. zu einem größeren Ganzen zu kombinieren.

In gewisser Weise stellen solche Tools für die geistige Arbeit also das dar, was das Aufkommen der Maschinen für die körperliche Arbeit war: Der Handwerker muss nicht mehr alles selbst fertigen, er muss auch viele Dinge nicht mehr selbst können. Stattdessen prüft und montiert er fertige Komponenten. Ob das für die Tätigkeit nun gut oder schlecht ist, wage ich an dieser Stelle noch nicht vorherzusagen, aber ein Blick auf die Entwicklungen mit Beginn der Industrialisierung lässt erahnen, was dem Arbeitsmarkt für geistig Arbeitende blühen könnte (und ja, wenn man den Gedanken zu Ende denkt, dann könnten Personen in Lehrberufen durchaus auch betroffen sein).

Für mich selbst kommt aber gerade bei der Anwendung in der Programmierung noch ein anderer Faktor hinzu: der Trend geht immer weiter weg von dem, wofür ich gerade die Informatik geliebt habe. Wie man vielleicht in diesem Blog schon erkennen konnte, schätze ich an „meinem Fach“ die Möglichkeit, auf Wunsch bis ins kleinste Detail gehen, alles verstehen und alles selbst bauen zu können. Die Analogie zum Tischler, der wirklich aus reinem Rohholz alle Komponenten selbst fertigt, oder zum Musiker, der auf seiner Akustikgitarre noch „Musik von Hand“ macht, drängt sich für mich auf. Und genau wie diese wird meine Art, Informatik zu betreiben, allmählich zu einem reinen Hobby oder zu einem Beruf für einige wenige Auserwählte werden. Der Prozess hat ja schon vor vielen Jahren mit dem Aufkommen immer komplexerer Softwarebibliotheken und Frameworks und dem Aufbau immer größerer Entwicklerteams begonnen und wird sich vermutlich über Tools in der Nachfolge von ChatGPT noch beschleunigen. Ein Informatiker wird jemand sein, der mit Methoden des Softwareengineerings Komponenten anfordert und zusammenfügt. Seine Fertigkeiten und seine Ausbildung werden wahrscheinlich deutlich anders sein, als wir dies heute unterrichten. Und wenn Leute wie ich nicht aufpassen, laufen wir Gefahr, die alten Säcke zu sein, die mit Methoden von vorgestern Programme von vorgestern schreiben…

Forschung im 21. Jahrhundert

Als Randnotiz finde ich es übrigens interessant zu beobachten, dass auch dieser Durchbruch in der Informatik-Forschung nicht aus den Universitäten kam, sondern aus der freien Wirtschaft. Das Forschungsunternehmen OpenAI, das ChatGPT entwickelt hat, wurde u.a. von Elon Musk, Peter Thiel und dem Amazon-Clouddienst AWS gegründet und mit einer Milliarde US$ Startkapital versehen (man vergleiche das mal mit der 10-Jahres-Finanzierung einer kompletten deutschen Universität).

Diesen Trend beobachte ich schon seit längerem: egal ob es um maschinelles Lernen, um Quantencomputer, um Computergrafik, um VR oder um Blockchains geht: überall treiben die Macher aus der kommerziellen Forschung die Universitäten vor sich her. Nicht selten schreiben Akademiker nur noch Paper after the fact, sinngemäß mit dem Inhalt: „Es gibt da diese neue Technologie, die ist zwar nicht von uns, aber wir wollen die jetzt mal analysieren (Uni) bzw. ausprobieren (FH)“. Um bei der Forschung auf Weltniveau eine Vorreiterrolle einzunehmen, reichen zumindest in der IT-Branche weder Größe noch Struktur noch Finanzierung akademischer Institutionen aus. Die erforderlichen Teams sind teilweise riesig, die erforderliche Hardware ist es auch. Nichts davon kann eine Universität leisten. Und im Gehälterwettstreit um die besten Köpfe mithalten kann sie auch nicht.

Interessant ist aber auch, dass die Risikobereitschaft und der Mut zum Scheitern inzwischen außerhalb der Hochschulen größer zu sein scheinen. Das Publish-or-Perish-Prinzip und der Zwang zur zeitlich und finanziell eng begrenzten Drittmittelfinanzierung erlaubt den Forschenden an den Hochschulen gar keine wirklich mutigen Projekte mehr.

Der großartige Randy Pausch beschrieb in The Last Lecture, dass er bei seinem Sabbatical bei Disney mit den Worten „Ok, Professor Boy, what can you do for us?“ begrüßt wurde. Professor Boy. Professorchen. Ich frage mich schon seit Jahren, ob es nicht genau das ist, was die Macher in der Welt außerhalb des Elfenbeinturms denken, wenn sie einem Akademiker begegnen…

Ausblick

Natürlich habe ich in der Kürze der Zeit noch keine intensiven Studien zu ChatGPT durchgeführt. Und ich weigere mich auch entschieden, in den Chor der Schwarzseher einzustimmen, die jetzt mal wieder das Ende der Welt heraufdämmern sehen. Aber ich muss zugeben: Nach dem, was ich in den letzten Tagen gesehen habe, halte ich diese Entwicklungsstufe von Sprachmodellen für eine sehr disruptive Technologie, die meiner Einschätzung nach binnen kürzester Zeit massive Veränderungen nach sich ziehen wird.

Manche konzentrieren sich jetzt darauf, aufzuzeigen, wo der Mensch eben doch klüger ist oder wo ChatGPT noch Schwachstellen aufweist. Ich finde aber, dass das den entscheidenden Punkt verfehlt: ChatGPT ist nämlich nur ein Prototyp. Die Entwicklung ist noch nicht zu Ende, und wo ich noch bis vor wenigen Wochen sicher war, wo die Grenzen liegen, ist mir diese Gewissheit völlig abhanden gekommen. Der Zug rollt, und wohin er fährt, kann vermutlich niemand mit Sicherheit sagen.

Kategorien
Uncategorized

Mein Flirt mit der Network Science

Oh je, ist mein letzter Beitrag lange her – volle vier Monate? Solch lange Lücken wollte ich eigentlich nie einreißen lassen!

Der Grund dafür ist meine neue Begeisterung für das Thema „Network Science“, auf das ich in den letzten fünf Monaten ziemlich viel Zeit und Energie verwendet habe und von dem ich im ersten Moment den Eindruck hatte, es würde zu weit vom Blogthema „Algorithmisches Denken“ wegführen, um hier behandelt zu werden. Aber je länger ich mich damit beschäftige, desto klarer ist mir eigentlich, dass das überhaupt nicht der Fall ist. Daher will ich heute erklären, worum es geht und auch, was mich daran gerade so begeistert.

Network Science – Was ist das überhaupt?

Ein Netzwerk besteht aus diskreten Elementen (Knoten) und den Verbindungen zwischen ihnen (manchmal auch Kanten genannt). Dabei kann grundsätzlich jede denkbare Art von Beziehung modelliert werden: Stromnetze, Verkehrsnetze, Kommunikationsnetze, Computernetze, biologische Netze, neuronale Netze, soziale Netze und natürlich das „Netz der Netze“, insbesondere das World Wide Web.

Nun beschäftigt sich die mathematische Disziplin der Graphentheorie schon spätestens seit Leonhard Euler (also seit über 250 Jahren) mit Knoten und Kanten. Was also ist neu an der Netzwerkforschung?

Der wichtigste Unterschied ist, dass die Graphentheorie nur statische, abstrakte Modelle untersucht. Sie fragt nicht danach, was die Knoten oder Kanten repräsentieren, welche zusätzlichen Eigenschaften (abgesehen von Kantengewichten) sie haben, ob sie sich mit der Zeit verändern oder welche Prozesse darin ablaufen. Die Netzwerkforschung dagegen versucht, diese Aspekte realer Netzwerke so gut wie möglich mit einzubeziehen. Sie ist daher quasi per Definition interdisziplinär: im Unterschied zu einem Graphen kann man ein Netzwerk nicht untersuchen, ohne zu wissen, was es in der wirklichen Welt darstellt.

Gibt es keine deutsche Bezeichnung für „Network Science“?

Zunächst einmal: die wörtliche Übersetzung „Netzwerkwissenschaft“ scheint in der Praxis kaum eine Rolle zu spielen. Stattdessen findet man in Deutschland vor allem den Begriff „Netzwerkforschung“, mit dem ich mich aber erstaunlich schwer tue. Das liegt nicht nur daran, dass das Wort selbst recht sperrig klingt, sondern auch daran, dass er quasi ausschließlich von Soziologen verwendet wird.

Das hat leider zur Folge, dass nahezu alle Texte, auf die man in dem Zusammenhang stößt, die Sprache der (deutschen) Soziologie sprechen, und die ist aus Sicht eines Informatikers, eines Ingenieurs oder sogar eines nach 1960 geborenen Betriebs- oder Volkswirts recht speziell. Wer sich mal ein Bild machen will, der schaue sich den deutschen Wikipedia-Artikel zu Netzwerkforschung an und vergleiche ihn mit dem englischen Wikipedia-Artikel zu Network Science. Und nein, es ist nicht nur die Wikipedia, ich könnte auch deutschsprachige Bücher, Paper und Webseiten verlinken, die diese Sprechweise pflegen, bei der durchaus allgemeinverständliche Zusammenhänge unnötig kompliziert ausgedrückt werden. Sogar die Selbstbeschreibung der Deutschen Gesellschaft für Netzwerkforschung klingt, als bestünde das Primärziel darin, Nicht-Soziologen aus der „Netzwerkforschung“ fernzuhalten.

Aus Diskussionen mit deutschen Geisteswissenschaftlern in anderen Zusammenhängen ahne ich, wie die Entgegnung lauten wird: Man müsse sich eben um eine möglichst präzise Formulierung bemühen, denn ohne Klarheit in der Sprache sei Geisteswissenschaft nicht möglich. Seltsamerweise gelingt es aber Geisteswissenschaftlern beispielsweise in angelsächsischen Ländern, dennoch Texte zu verfassen, die auch für Außenstehende lesbar sind und die sogar großen Einfluss erlangen. Nur in Deutschland hält man hartnäckig an einem Sprachstil fest, dem die Ingenieure und Naturwissenschaftler hinter vorgehaltener Hand vorwerfen, er diene schon lange nur noch dazu, fehlende Substanz zu kaschieren.

Dazu mag man stehen, wie man will, aber Fakt ist, dass die Network Science eben keine rein geisteswissenschaftliche Disziplin ist und dass es den internationalen Network Scientists (ja, auch den Soziologen unter ihnen!) deutlich besser gelingt, eine gemeinsame Sprache zu finden. Bei den deutschen Netzwerkforschern fühle ich mich dagegen schon aufgrund der Sprache als Informatiker nicht willkommen.

Nun will ich nicht leugnen, dass aus diesem Abschnitt auch ein gutes Stück persönlicher Frustration spricht. Und ich will auch nicht ausschließen, dass die Realität der deutschen Netzwerkforschung eine ganz andere ist – eigentlich hoffe ich es sogar! In diesem Fall lasse ich mich sehr gerne im Kommentarbereich (mit Quellen) eines Besseren belehren. Bis dahin aber bleibe ich beim englischen Begriff „Network Science“.

Warum jetzt Network Science?

Nun aber zum eigentlichen Thema des heutigen Blogbeitrags. Es geht ja eigentlich um die Frage, was mich an dieser Disziplin fasziniert hat und was ich mir von ihr verspreche.

Vielleicht beginne ich, in dem ich einen alten Witz wiedergebe (der natürlich geschrieben noch schlechter funktioniert als wenn ich ihn erzählen würde):

Ein Polizist geht die nächtliche Straße entlang und sieht einen Betrunkenen, der auf allen Vieren unter einer Straßenlaterne herumkriecht.

„Was tun Sie denn da?“

„Ich suche meinen Haustürschlüssel!“

„Was? Und den haben Sie ausgerechnet hier unter der Lampe verloren?“

„Nee,“ nuschelt der Betrunkene und zeigt in die Dunkelheit der Straße, „irgendwo da hinten.“

„Ja, aber warum suchen Sie denn dann hier?“

„Na Sie sind gut – weil es hier heller ist, natürlich!“

Seit ich mich mit Wissenschaft beschäftige, finde ich, dass dieser Witz den Forschungsbetrieb ganz gut beschreibt. Die meisten Doktoranden beginnen mit großen Plänen, was sie erfinden, verstehen, entdecken wollen. Dann merken sie aber relativ schnell, dass das nicht so einfach ist (die anderen sind eben doch nicht so blöd, wie man dachte), und fangen stattdessen an, dort zu suchen, wo mehr Licht ist. Auf diese Weise löst man zwar das ursprüngliche Problem nicht, aber man findet wenigstens ab und zu etwas, was mit der Zeit zu einer hübschen Publikationsliste heranwächst.

Wenn ich auf die Liste der Wissenschaftsdisziplinen schaue, von denen ich nicht die erhofften Antworten bekommen habe, dann haben sie eines gemeinsam: Sie kommen irgendwann zu der Erkenntnis, dass das eigentliche Problem zu kompliziert ist, und vereinfachen dann solange, bis etwas Lösbares herauskommt. Und eines der Elemente, das fast immer als erstes der Vereinfachung zum Opfer fällt, ist das Zusammenspiel der Komponenten – also genau das, was die Netzwerktheorie in den Vordergrund rückt.

Das erste Buch, das ich zur Network Science in Händen hielt, war durch einen glücklichen Zufall „Networks, Crowds, and Markets“ von David Easley und Jon Kleinberg (das Werk ist auch kostenlos online auf den Webseiten der Autoren verfügbar). Ich konnte nicht ahnen, dass es keine „typische“ Einführung in die Network Science ist, sondern dass es neben den üblichen Grundlagen einen besonderen Schwerpunkt setzt: es verknüpft Konzepte aus Netzwerk-, Spiel- und Markttheorie zu einem kohärenten Ganzen. Und plötzlich hatte ich das Gefühl, dass hier endlich mal jemand versucht, den einen Schritt weiterzugehen und menschliches Verhalten mit einem rigorosen Instrumentarium zu untersuchen, das nicht zu stark vereinfacht und zu dem ich als Informatiker trotzdem einen Zugang finden kann. Sofort konnte ich Anwendungen in der Entscheidungslehre, der Ethik, der Politikwissenschaft und der Ökonomie, aber beispielsweise auch in Peer-to-Peer-Systemen (wie etwa den derzeit so beliebten Blockchains) oder der IT-Sicherheit erkennen. Und ich sah sogar die Möglichkeit, selbst etwas zu diesen Fragestellungen beizutragen.

Also stürzte ich mich ins Selbststudium und habe auch gleich einen Kurs zu dem Thema ins Leben gerufen, den ich in diesem Sommersemester erstmals gehalten habe. Ich habe viel gelernt über das, was ich von der Network Science will, aber auch über das, was mich eigentlich nicht sonderlich interessiert. Jetzt überlege ich, ob ich an der Konferenz NetSci 2022 teilnehme, die im Juli (für mich praktischerweise) als reine Online-Konferenz stattfindet.

Und eigentlich wollte ich mich danach in erste eigene Projekte stürzen, aber dazu wird es wohl aufgrund unerwarteter anderer Verpflichtungen nicht kommen. Ich werde aber versuchen, mich weiter in die Thematik hineinzuwühlen. Daher wird es in diesem Blog in nächster Zeit wohl überwiegend Beiträge zum Thema Network Science, komplexe Systeme und Spieltheorie geben, von denen ich hoffe, dass sie auch für einen Leser ohne große Vorkenntnisse von Interesse sein könnten.

Kategorien
Uncategorized

Komplexitätstheorie

Manchmal stößt man ja auf ein Konzept, einen Vortrag, einen Text oder ein ganzes Buch, das einen so richtig gefangen nimmt. In diesem Blog habe ich schon mehrere solche Inspirationsquellen angesprochen, und heute möchte ich eine weitere vorstellen, die in den letzten Wochen bei mir (wie man so schön auf Neudeutsch sagt) „alle Knöpfe gedrückt hat“.

Mitchell: Complexity

Es geht um das Buch „Complexity: A Guided Tour“ (2009) von Melanie Mitchell. Die Autorin hat ihren Doktor bei keinem Geringeren als Douglas Hofstadter gemacht, dem Autor des legendären Wissenschaftsklassikers „Gödel, Escher, Bach„. Sie hat dann jahrelang über komplexe Systeme, evolutionäre Algorithmen und künstliche Intelligenz geforscht. Das Buch wird weithin als zugleich lesbare und tiefgründige Einführung in das Gebiet der Komplexitätstheorie gelobt, und nachdem ich es gelesen habe, kann ich die Begeisterung verstehen.

Worum geht es überhaupt? Komplexitätstheorie beschäftigt sich mit Systemen, deren Elemente auf komplexe Weise miteinander interagieren, so dass das resultierende Ganze mehr ist als die Summe seiner Teile. Man spricht hier auch von Emergenz – das Verhalten des Ganzen erwächst auf nicht-triviale (mathematisch gesprochen: nicht-lineare) Art aus dem Zusammenspiel seiner (oft erstaunlich simplen) Komponenten.

In Natur und Alltag finden sich zahlreiche Beispiele für solche Systeme: Genetik, Gehirn, Organismen, Immunsystem, Wetter und Klima, Gesellschaften, Städte, Märkte, soziale Netze usw. sind Beispiele für emergente Systeme, zwischen denen die Komplexitätstheorie nach Gemeinsamkeiten sucht.

Zusammenhänge

Wer meinen Blogeintrag von letzter Woche gelesen hat, der ahnt vielleicht, was mich an dem Thema so fasziniert. Denn wo der Publikationsdruck auf Wissenschaftler häufig dazu führt, dass diese nur noch Probleme angehen, die sie mit hoher Wahrscheinlichkeit auch lösen können, wagt man sich hier an die Themen heran, die als sehr schwierig gelten: Man versucht, Zusammenhänge zu finden und das Big Picture zu betrachten statt sich im Klein-Klein eines radikalen (und manchmal auch einfach bequemen) Reduktionismus zu verlieren.

Dabei treffe ich hier auf eine ganze Reihe von Fragen, die ich mir selbst immer schon gestellt habe. Wenn es beispielsweise um das Gehirn, um das Denken, um Informationsflüsse oder um Situationen mit mehreren Entscheidern geht, müssen viele Komponenten und ihr Zusammenspiel betrachtet werden. Es handelt sich (um ein neues Lieblingswort von mir zu strapazieren) um Netzwerke, bestehend aus Knoten und den Verbindungen zwischen ihnen, über die typischerweise Informationen fließen, die wiederum die Zustände der Knoten verändern.

Interessanterweise bin ich im Buch von Mitchell aber auch auf Themen gestoßen, die zwar nicht zu meinen beruflichen oder privaten Hauptinteressen gehören, bei denen mir das Schulwissen aber immer schon suspekt vorkam. Ein Beispiel dafür ist die Genetik, mit der ich zumindest in Form genetischer Algorithmen auch schon beruflich zu tun hatte und bei der ich nie wirklich überzeugt war, dass die klassischen Erklärungen, die man mir gab, ausreichen, um die beobachtete Wirklichkeit zu erklären. Zwei Beispiele:

  • Das Genom eines Menschen besteht aus gerade mal 3 Milliarden DNA-Basenpaaren (zu je 2 Bit Information). Als Informatiker denkt man dann: Gerade mal viermal so viel wie beim Blumenkohl? Weniger als ein Gigabyte (unkomprimiert… komprimiert noch deutlich weniger)? So viel wie ein Satz Urlaubsfotos? Das ist alles? Ernsthaft? Wie soll daraus ein Mensch in all seiner Komplexität entstehen?
  • In der Evolution beobachten wir, dass sich bestimmte Charakteristika in völlig verschiedenen Bereichen der biologischen Stammbäume immer wieder gleich entwickeln. Beispielsweise sieht ein Beutelwolf (der zu den Beuteltieren gehört) einem Hund tatsächlich sehr ähnlich, obwohl er nicht mit ihm, sondern eher mit einer Beutelratte verwandt ist. Wenn tatsächlich nur Mutation, Crossover und Selektion als Mechanismen der Evolution wirken, würde das bedeuten, dass es tatsächlich nur diese eine optimale Form für ein Landraubtier gibt, die sich zwangsläufig entwickeln muss (das Fachwort dafür ist konvergente Evolution). Das hat mich eigentlich noch nie überzeugt.

Im Buch „Complexity“ durfte ich jetzt erfahren, dass mittlerweile zumindest Teile der Forschungscommunity von deutlich komplexeren Wirkmechanismen der Genetik ausgehen. Natürlich wird (wie immer, wenn jemand die alten Paradigmen in Frage stellt) heftig gestritten, aber allein die Tatsache, dass andere die gleichen Zweifel hegen wie ich, hat mich getröstet. Schließlich muss man das Feld ja nicht gleich kampflos den Kreationisten überlassen…

Alte Bekannte

Überhaupt bin ich in dem Buch zahlreichen Themen und Fragestellungen wiederbegegnet, die ich irgendwann schon einmal spannend fand und von denen mir gar nicht bewusst war, dass sie irgendwie alle zusammenhängen. Beispielsweise:

  • Evolutionäre Algorithmen: Die Übertragung klassischer Evolutionstechniken (Mutation, Crossover, Selektion) auf algorithmische Probleme habe ich zu Promotionszeiten einmal vergeblich benutzt, um Kryptoverfahren damit anzugreifen.
  • Gödel, Escher, Bach: Das Buch galt in den 1980ern als Bibel der Nerds; ich habe es mir aber erst vor einigen Jahren gekauft und es nie geschafft, es ganz durchzuarbeiten (und durcharbeiten müsste ich es – um es einfach nur durchzulesen und dabei zu verstehen bin ich nicht intelligent genug).
  • A New Kind of Science: Stephen Wolframs Buch über zelluläre Automaten ist mit seinen 1200 Seiten ein noch gewaltigerer Wälzer als „Gödel, Escher, Bach“ und schießt in seinem Versuch, gleich die ganze Welt erklären zu wollen, sicherlich ein gutes Stück über das Ziel hinaus. Das macht die darin präsentierten Ideen aber nicht per se falsch – das Entstehen komplexer Systeme aus einfachsten Bausteinen ist ebenso relevant wie faszinierend.
  • Chaostheorie.
  • Informationstheorie.
  • Künstliche und natürliche Intelligenz.
  • Theoretische Informatik.
  • Network Science.
  • Evolutionäre Spieltheorie.

Für jemanden wie mich, der zutiefst davon überzeugt ist, dass letztlich alles irgendwie mit allem zusammenhängt, ist ein solches Forschungsgebiet somit eine große Versuchung, in der ich mich rettungslos verlieren könnte, wenn ich nicht aufpasse. Ein wenig Vorsicht scheint mir daher angebracht.

Risiken und Nebenwirkungen

Zumal die Komplexitätstheorie auch dazu zu neigen scheint, sich selbst hier und da grandios zu überschätzen. Der Grund, warum die meisten Wissenschaftler eben nicht mit komplexen Zusammenhängen, sondern mit konsequentem Reduktionismus arbeiten, ist ja, dass reale komplexe Systeme zu kompliziert sind, um vollständig verstanden zu werden. Wir können also bestenfalls Modelle erstellen, die sich der Wirklichkeit ein wenig annähern, und dürfen dann nicht den Fehler machen, sie zur Welterklärung zu erheben. Dieser Fehler scheint in der Community aber ein Stückweit verbreitet zu sein. Wahrscheinlich sollte man hierzu jeden Morgen das Mantra „Ein Modell ist nur ein Modell“ oft genug wiederholen, bis man von der Versuchung geheilt ist, eine Pressemitteilung rauszuhauen, dass man jetzt die Weltformel gefunden habe.

Mitchell schreibst selbst in ihren Schlussbemerkungen, dass die Sehnsucht nach einer großen Theorie, die möglichst viele Arten komplexer Systeme beschreibt, natürlich vorhanden ist. Zugleich muss die eigentliche Forschung aber zunächst mit einem einzelnen System – sei es nun ein Organismus, eine Ameisenkolonie oder das World Wide Web – beginnen. Und solange man das gewissenhaft tut, braucht man eine spektakuläre Überschrift wie „Komplexitätstheorie“ genau genommen auch gar nicht. Als Inspirationsquelle fand ich das Buch aber trotzdem großartig.

Kategorien
Uncategorized

Es ist kompliziert…

Ja, ich weiß. Eigentlich habe ich bei Gründung dieses Blogs vor etwas über einem Jahr angekündigt, dass er in erster Linie vom Denken und Problemlösen handeln würde. In letzter Zeit häufen sich aber eher philosophische Beiträge, bei denen es um die Beschränkungen der Modelle geht, die mir beim Selbststudium zu diesen Themen begegnet sind.

Das ist kein Zufall, denn je mehr ich mich mit der Materie beschäftigt habe, desto größer ist meine Unzufriedenheit geworden. Die Antworten, nach denen ich gesucht habe, habe ich nämlich häufig nicht gefunden. Im heutigen Beitrag will ich versuchen, dieses Problem ein wenig aufzuarbeiten (und dabei hoffentlich nicht zu esoterisch werden). Wie üblich werde ich dabei verschiedene Themen miteinander in Beziehung setzen in der Hoffnung, dass nicht nur für mich, sondern auch für den Leser ein Zusammenhang erkennbar wird.

Beispiel 1: Das Gehirn

Eine meiner Motivationen, von denen ich ja schon im Eröffnungspost des Blogs erzählt habe, ist es, das menschliche Denken besser zu verstehen. Leider ist mir das nur in sehr begrenztem Ausmaß gelungen. Und was noch schlimmer ist: Ich habe gelernt, dass mir die Wissenschaft die Antworten, nach denen ich suche, zum jetzigen Zeitpunkt auch gar nicht geben kann.

So weiß man mittlerweile einiges (aber längst noch nicht alles) über den Aufbau des Gehirns. Die Funktionsweise von Neuronen und Synapsen ist weitgehend bekannt, und man weiß, welche kognitiven Prozesse vorwiegend in welchem Teil des Gehirns stattfinden.

Auch gibt es ansprechende Modelle des menschlichen Denkens wie etwa das von Newell und Simon, das ich in den Einträgen über das Problemlösen als Suchproblem und über Gedanken zum Suchraum-Modell diskutiert habe. Ich finde es unmittelbar einleuchtend, und man kann so manche Alltagsbeobachtung zum Problemlösen damit erklären. Nur kann man es (wie dort bereits beschrieben) nicht wirklich auf die Funktionsweise unseres Gehirns zurückführen – wenn man beim Denken ins Gehirn schauen könnte, würde man eben nirgends einen Suchbaum finden. Die Brücke zwischen dem Denkmodell und der tatsächlichen „Hardware“ fehlt also, und es ist zweifelhaft, ob das Modell überhaupt stimmt.

Zur Erinnerung: Zu Zeiten, als man noch davon überzeugt war, dass sich die Erde um die Sonne drehte, war man auch in er Lage, erstaunlich präzise Vorhersagen über die Position der Gestirne zu machen. Auch hier war die Erklärung intuitiv einleuchtend, die Vorhersagen akzeptabel – nur das Modell war, wie wir heute wissen, völlig falsch.

Beispiel 2: Entscheidungstheorie, Spieltheorie, Ethik

Ein anderes Thema im Umfeld dieses Blogs ist die Frage, wie wir Entscheidungen treffen sollten – bei bekannten Bedingungen, unter Unsicherheit und ggf. sogar im Zusammenspiel oder Wettbewerb mit mehreren Beteiligten, die unterschiedliche Präferenzen und Ziele haben. Hiermit befassen sich die Disziplinen der Entscheidungstheorie (bei nur einem Entscheider) und der Spieltheorie (bei mehreren Entscheidern).

Und auch hier haben wir schicke Modelle für stark vereinfachte Situationen, die zwar beim Verständnis der Grundproblematik helfen, aber nur selten praktisch nutzbar sind. Für kleine Entscheidungsprobleme sind sie schlicht zu aufwändig, und für große Entscheidungsprobleme sind sie nicht berechenbar. In beiden Fällen stellt sich heraus, dass unsere Intuition oft die besseren Antworten gibt. Aber warum sie das tut, wissen wir auch nicht nicht.

Gravierende Folgen hat dies übrigens in der Ethik, denn die meisten ethischen Denkschulen (außer der absoluten Pflichtethik, nach der aber so gut wie niemand lebt) erfordern ein Abwägen möglicher Konsequenzen, und genau dieses Abwägen funktioniert aus den genannten Gründen nicht. Wenn selbst Experten der Entscheidungs- und Spieltheorie unter Einsatz leistungsfähiger Soft- und Hardware solche Entscheidungen für realistische Situationen nicht treffen können – wie soll dann ein einfacher menschlicher Entscheider danach handeln? Also ziehen sich sogar Berufsethiker auf naive, leicht zu modellierende Annahmen zurück und verspielen so beispielsweise in der aktuellen Corona-Diskussion die Akzeptanz für ihre Disziplin in der Bevölkerung.

Beispiel 3: Wirtschaft

Und noch ein Beispiel: Die vorherrschende Philosophie in der Wirtschaftswelt ist immer noch die, dass einfach jeder seinen eigenen Nutzen maximieren möge und dass auf diese Weise das bestmögliche Ergebnis für alle erzielt würde. Westliche Volkswirtschaften werden tendenziell (wenn auch nicht in Reinform) nach diesem Prinzip organisiert, obwohl Spieltheorie und Verhaltensökonomik diese These in den letzten 80 Jahren wiederholt widerlegt haben.

Und nicht nur das: Auch Organisationen wie Unternehmen oder Behörden werden zunehmend nach diesem Prinzip organisiert. Jede Abteilung, jede Gruppe wird einzeln optimiert, was dazu führt, dass man nicht mehr das Große und Ganze im Blick hat, sondern den Vorteil der eigenen Gruppe zu Lasten der anderen verfolgt. Erneut ist es die Spieltheorie, die zahlreiche Beispiele dafür liefert, dass auf diese Weise keinesfalls das Wohl der Gesamtheit maximiert wird, und eigentlich weiß auch jeder Fußballspieler, dass eine Mannschaft aus 11 Egoisten kein Spiel gewinnt, aber auf die betriebliche (oder gesellschaftliche) Praxis hat das erstaunlich wenig Auswirkungen. Was natürlich auch daran liegt, dass erneut niemand weiß, wie man es sonst machen sollte – das Treffen der richtigen Teilentscheidungen zur Maximierung des Gemeinnutzens ist für gewöhnlich jenseits von allem, was modellier- oder berechenbar wäre.

Das Problem der Wissenschaft

Was nun haben diese Beispiele gemein? In allen Fällen – und ich könnte noch viele weitere nennen – stößt die Wissenschaft an ihre Grenzen. Die eigentliche Fragestellung erweist sich als deutlich zu kompliziert, um mit den aktuellen Mitteln gelöst zu werden. Und dann tut man, was in der Vergangenheit (beispielsweise in Physik und Chemie) so gut funktioniert hat: Man zerlegt das Problem in kleinstmögliche Teile und versucht, diese zu verstehen oder zu optimieren in der Hoffnung, dass sich dann auch das Gesamtproblem löst:

  • Wir verstehen nicht, wie unser Denken funktioniert? Dann zoomen wir eben in unser Gehirn hinein und versuchen, die Funktionsweise von Neuronen und Synapsen (oder gleich der DNA) zu verstehen. Wogegen zunächst einmal nichts spricht, außer wenn wir dabei aus dem Blick verlieren, was wir eigentlich wissen wollten.
  • Wir wollen wissen, wie wir richtig entscheiden? Dann erstellen wir ein Entscheidungsmodell, vereinfachen überall (damit es modellierbar bleibt) und ignorieren dabei zahlreiche Faktoren, die aber eigentlich eine Rolle spielen. Das Ergebnis ist dann leider anfechtbar, weil es andere Modelle mit anderen Vereinfachungen gibt, die zu ganz anderen Ergebnissen kommen.
  • Wir wissen nicht, wie wir eine Organisation (sei es eine Firma, eine Behörde oder einen Staat) führen sollen? Dann zerlegen wir sie in kleine Teile, lassen jeden sich selbst optimieren und hoffen dann darauf, dass durch Magie (auch bekannt als „Die unsichtbare Hand des Marktes“) etwas Gutes dabei herauskommt.

Dieses Zerlegen in kleine Teile (Informatiker würden sagen: Divide and Conquer, Wissenschaftstheoretiker sprechen von Reduktionismus) ist so allgegenwärtig, dass wir es kaum noch bemerken. Es hat nur den Nachteil, dass es nirgendwo richtig funktioniert, wo das Ganze mehr ist als die Summe seiner Teile. In der Sprache der Mathematik gesprochen: Wenn die Funktion, die wir hier berechnen wollen, nicht linear ist. Und das ist sie in der wirklichen Welt so gut wie nie.

Seit ungefähr hundert Jahren gibt es Wissenschaftsdisziplinen, die versuchen, sich mit diesen komplexen, nichtlinearen Systemen zu beschäftigen. Sie ändern immer mal wieder die Bezeichnung – in den 1940er Jahren sprach man beispielsweise von Systemtheorie und Kybernetik, später von Dynamischen oder Nichtlinearen Systemen, heute dominiert die Bezeichnung Komplexitätstheorie. Und diese wird in den nächsten Beitragen eine zentrale Rolle spielen, bis ich hoffentlich in ein paar Wochen mit meinen Erkärungen dort lande, wo ich in der nächsten Zeit forschend tätig werden möchte.