Kategorien
Uncategorized

Komplexitätstheorie

Manchmal stößt man ja auf ein Konzept, einen Vortrag, einen Text oder ein ganzes Buch, das einen so richtig gefangen nimmt. In diesem Blog habe ich schon mehrere solche Inspirationsquellen angesprochen, und heute möchte ich eine weitere vorstellen, die in den letzten Wochen bei mir (wie man so schön auf Neudeutsch sagt) „alle Knöpfe gedrückt hat“.

Mitchell: Complexity

Es geht um das Buch „Complexity: A Guided Tour“ (2009) von Melanie Mitchell. Die Autorin hat ihren Doktor bei keinem Geringeren als Douglas Hofstadter gemacht, dem Autor des legendären Wissenschaftsklassikers „Gödel, Escher, Bach„. Sie hat dann jahrelang über komplexe Systeme, evolutionäre Algorithmen und künstliche Intelligenz geforscht. Das Buch wird weithin als zugleich lesbare und tiefgründige Einführung in das Gebiet der Komplexitätstheorie gelobt, und nachdem ich es gelesen habe, kann ich die Begeisterung verstehen.

Worum geht es überhaupt? Komplexitätstheorie beschäftigt sich mit Systemen, deren Elemente auf komplexe Weise miteinander interagieren, so dass das resultierende Ganze mehr ist als die Summe seiner Teile. Man spricht hier auch von Emergenz – das Verhalten des Ganzen erwächst auf nicht-triviale (mathematisch gesprochen: nicht-lineare) Art aus dem Zusammenspiel seiner (oft erstaunlich simplen) Komponenten.

In Natur und Alltag finden sich zahlreiche Beispiele für solche Systeme: Genetik, Gehirn, Organismen, Immunsystem, Wetter und Klima, Gesellschaften, Städte, Märkte, soziale Netze usw. sind Beispiele für emergente Systeme, zwischen denen die Komplexitätstheorie nach Gemeinsamkeiten sucht.

Zusammenhänge

Wer meinen Blogeintrag von letzter Woche gelesen hat, der ahnt vielleicht, was mich an dem Thema so fasziniert. Denn wo der Publikationsdruck auf Wissenschaftler häufig dazu führt, dass diese nur noch Probleme angehen, die sie mit hoher Wahrscheinlichkeit auch lösen können, wagt man sich hier an die Themen heran, die als sehr schwierig gelten: Man versucht, Zusammenhänge zu finden und das Big Picture zu betrachten statt sich im Klein-Klein eines radikalen (und manchmal auch einfach bequemen) Reduktionismus zu verlieren.

Dabei treffe ich hier auf eine ganze Reihe von Fragen, die ich mir selbst immer schon gestellt habe. Wenn es beispielsweise um das Gehirn, um das Denken, um Informationsflüsse oder um Situationen mit mehreren Entscheidern geht, müssen viele Komponenten und ihr Zusammenspiel betrachtet werden. Es handelt sich (um ein neues Lieblingswort von mir zu strapazieren) um Netzwerke, bestehend aus Knoten und den Verbindungen zwischen ihnen, über die typischerweise Informationen fließen, die wiederum die Zustände der Knoten verändern.

Interessanterweise bin ich im Buch von Mitchell aber auch auf Themen gestoßen, die zwar nicht zu meinen beruflichen oder privaten Hauptinteressen gehören, bei denen mir das Schulwissen aber immer schon suspekt vorkam. Ein Beispiel dafür ist die Genetik, mit der ich zumindest in Form genetischer Algorithmen auch schon beruflich zu tun hatte und bei der ich nie wirklich überzeugt war, dass die klassischen Erklärungen, die man mir gab, ausreichen, um die beobachtete Wirklichkeit zu erklären. Zwei Beispiele:

  • Das Genom eines Menschen besteht aus gerade mal 3 Milliarden DNA-Basenpaaren (zu je 2 Bit Information). Als Informatiker denkt man dann: Gerade mal viermal so viel wie beim Blumenkohl? Weniger als ein Gigabyte (unkomprimiert… komprimiert noch deutlich weniger)? So viel wie ein Satz Urlaubsfotos? Das ist alles? Ernsthaft? Wie soll daraus ein Mensch in all seiner Komplexität entstehen?
  • In der Evolution beobachten wir, dass sich bestimmte Charakteristika in völlig verschiedenen Bereichen der biologischen Stammbäume immer wieder gleich entwickeln. Beispielsweise sieht ein Beutelwolf (der zu den Beuteltieren gehört) einem Hund tatsächlich sehr ähnlich, obwohl er nicht mit ihm, sondern eher mit einer Beutelratte verwandt ist. Wenn tatsächlich nur Mutation, Crossover und Selektion als Mechanismen der Evolution wirken, würde das bedeuten, dass es tatsächlich nur diese eine optimale Form für ein Landraubtier gibt, die sich zwangsläufig entwickeln muss (das Fachwort dafür ist konvergente Evolution). Das hat mich eigentlich noch nie überzeugt.

Im Buch „Complexity“ durfte ich jetzt erfahren, dass mittlerweile zumindest Teile der Forschungscommunity von deutlich komplexeren Wirkmechanismen der Genetik ausgehen. Natürlich wird (wie immer, wenn jemand die alten Paradigmen in Frage stellt) heftig gestritten, aber allein die Tatsache, dass andere die gleichen Zweifel hegen wie ich, hat mich getröstet. Schließlich muss man das Feld ja nicht gleich kampflos den Kreationisten überlassen…

Alte Bekannte

Überhaupt bin ich in dem Buch zahlreichen Themen und Fragestellungen wiederbegegnet, die ich irgendwann schon einmal spannend fand und von denen mir gar nicht bewusst war, dass sie irgendwie alle zusammenhängen. Beispielsweise:

  • Evolutionäre Algorithmen: Die Übertragung klassischer Evolutionstechniken (Mutation, Crossover, Selektion) auf algorithmische Probleme habe ich zu Promotionszeiten einmal vergeblich benutzt, um Kryptoverfahren damit anzugreifen.
  • Gödel, Escher, Bach: Das Buch galt in den 1980ern als Bibel der Nerds; ich habe es mir aber erst vor einigen Jahren gekauft und es nie geschafft, es ganz durchzuarbeiten (und durcharbeiten müsste ich es – um es einfach nur durchzulesen und dabei zu verstehen bin ich nicht intelligent genug).
  • A New Kind of Science: Stephen Wolframs Buch über zelluläre Automaten ist mit seinen 1200 Seiten ein noch gewaltigerer Wälzer als „Gödel, Escher, Bach“ und schießt in seinem Versuch, gleich die ganze Welt erklären zu wollen, sicherlich ein gutes Stück über das Ziel hinaus. Das macht die darin präsentierten Ideen aber nicht per se falsch – das Entstehen komplexer Systeme aus einfachsten Bausteinen ist ebenso relevant wie faszinierend.
  • Chaostheorie.
  • Informationstheorie.
  • Künstliche und natürliche Intelligenz.
  • Theoretische Informatik.
  • Network Science.
  • Evolutionäre Spieltheorie.

Für jemanden wie mich, der zutiefst davon überzeugt ist, dass letztlich alles irgendwie mit allem zusammenhängt, ist ein solches Forschungsgebiet somit eine große Versuchung, in der ich mich rettungslos verlieren könnte, wenn ich nicht aufpasse. Ein wenig Vorsicht scheint mir daher angebracht.

Risiken und Nebenwirkungen

Zumal die Komplexitätstheorie auch dazu zu neigen scheint, sich selbst hier und da grandios zu überschätzen. Der Grund, warum die meisten Wissenschaftler eben nicht mit komplexen Zusammenhängen, sondern mit konsequentem Reduktionismus arbeiten, ist ja, dass reale komplexe Systeme zu kompliziert sind, um vollständig verstanden zu werden. Wir können also bestenfalls Modelle erstellen, die sich der Wirklichkeit ein wenig annähern, und dürfen dann nicht den Fehler machen, sie zur Welterklärung zu erheben. Dieser Fehler scheint in der Community aber ein Stückweit verbreitet zu sein. Wahrscheinlich sollte man hierzu jeden Morgen das Mantra „Ein Modell ist nur ein Modell“ oft genug wiederholen, bis man von der Versuchung geheilt ist, eine Pressemitteilung rauszuhauen, dass man jetzt die Weltformel gefunden habe.

Mitchell schreibst selbst in ihren Schlussbemerkungen, dass die Sehnsucht nach einer großen Theorie, die möglichst viele Arten komplexer Systeme beschreibt, natürlich vorhanden ist. Zugleich muss die eigentliche Forschung aber zunächst mit einem einzelnen System – sei es nun ein Organismus, eine Ameisenkolonie oder das World Wide Web – beginnen. Und solange man das gewissenhaft tut, braucht man eine spektakuläre Überschrift wie „Komplexitätstheorie“ genau genommen auch gar nicht. Als Inspirationsquelle fand ich das Buch aber trotzdem großartig.

Kategorien
Uncategorized

Es ist kompliziert…

Ja, ich weiß. Eigentlich habe ich bei Gründung dieses Blogs vor etwas über einem Jahr angekündigt, dass er in erster Linie vom Denken und Problemlösen handeln würde. In letzter Zeit häufen sich aber eher philosophische Beiträge, bei denen es um die Beschränkungen der Modelle geht, die mir beim Selbststudium zu diesen Themen begegnet sind.

Das ist kein Zufall, denn je mehr ich mich mit der Materie beschäftigt habe, desto größer ist meine Unzufriedenheit geworden. Die Antworten, nach denen ich gesucht habe, habe ich nämlich häufig nicht gefunden. Im heutigen Beitrag will ich versuchen, dieses Problem ein wenig aufzuarbeiten (und dabei hoffentlich nicht zu esoterisch werden). Wie üblich werde ich dabei verschiedene Themen miteinander in Beziehung setzen in der Hoffnung, dass nicht nur für mich, sondern auch für den Leser ein Zusammenhang erkennbar wird.

Beispiel 1: Das Gehirn

Eine meiner Motivationen, von denen ich ja schon im Eröffnungspost des Blogs erzählt habe, ist es, das menschliche Denken besser zu verstehen. Leider ist mir das nur in sehr begrenztem Ausmaß gelungen. Und was noch schlimmer ist: Ich habe gelernt, dass mir die Wissenschaft die Antworten, nach denen ich suche, zum jetzigen Zeitpunkt auch gar nicht geben kann.

So weiß man mittlerweile einiges (aber längst noch nicht alles) über den Aufbau des Gehirns. Die Funktionsweise von Neuronen und Synapsen ist weitgehend bekannt, und man weiß, welche kognitiven Prozesse vorwiegend in welchem Teil des Gehirns stattfinden.

Auch gibt es ansprechende Modelle des menschlichen Denkens wie etwa das von Newell und Simon, das ich in den Einträgen über das Problemlösen als Suchproblem und über Gedanken zum Suchraum-Modell diskutiert habe. Ich finde es unmittelbar einleuchtend, und man kann so manche Alltagsbeobachtung zum Problemlösen damit erklären. Nur kann man es (wie dort bereits beschrieben) nicht wirklich auf die Funktionsweise unseres Gehirns zurückführen – wenn man beim Denken ins Gehirn schauen könnte, würde man eben nirgends einen Suchbaum finden. Die Brücke zwischen dem Denkmodell und der tatsächlichen „Hardware“ fehlt also, und es ist zweifelhaft, ob das Modell überhaupt stimmt.

Zur Erinnerung: Zu Zeiten, als man noch davon überzeugt war, dass sich die Erde um die Sonne drehte, war man auch in er Lage, erstaunlich präzise Vorhersagen über die Position der Gestirne zu machen. Auch hier war die Erklärung intuitiv einleuchtend, die Vorhersagen akzeptabel – nur das Modell war, wie wir heute wissen, völlig falsch.

Beispiel 2: Entscheidungstheorie, Spieltheorie, Ethik

Ein anderes Thema im Umfeld dieses Blogs ist die Frage, wie wir Entscheidungen treffen sollten – bei bekannten Bedingungen, unter Unsicherheit und ggf. sogar im Zusammenspiel oder Wettbewerb mit mehreren Beteiligten, die unterschiedliche Präferenzen und Ziele haben. Hiermit befassen sich die Disziplinen der Entscheidungstheorie (bei nur einem Entscheider) und der Spieltheorie (bei mehreren Entscheidern).

Und auch hier haben wir schicke Modelle für stark vereinfachte Situationen, die zwar beim Verständnis der Grundproblematik helfen, aber nur selten praktisch nutzbar sind. Für kleine Entscheidungsprobleme sind sie schlicht zu aufwändig, und für große Entscheidungsprobleme sind sie nicht berechenbar. In beiden Fällen stellt sich heraus, dass unsere Intuition oft die besseren Antworten gibt. Aber warum sie das tut, wissen wir auch nicht nicht.

Gravierende Folgen hat dies übrigens in der Ethik, denn die meisten ethischen Denkschulen (außer der absoluten Pflichtethik, nach der aber so gut wie niemand lebt) erfordern ein Abwägen möglicher Konsequenzen, und genau dieses Abwägen funktioniert aus den genannten Gründen nicht. Wenn selbst Experten der Entscheidungs- und Spieltheorie unter Einsatz leistungsfähiger Soft- und Hardware solche Entscheidungen für realistische Situationen nicht treffen können – wie soll dann ein einfacher menschlicher Entscheider danach handeln? Also ziehen sich sogar Berufsethiker auf naive, leicht zu modellierende Annahmen zurück und verspielen so beispielsweise in der aktuellen Corona-Diskussion die Akzeptanz für ihre Disziplin in der Bevölkerung.

Beispiel 3: Wirtschaft

Und noch ein Beispiel: Die vorherrschende Philosophie in der Wirtschaftswelt ist immer noch die, dass einfach jeder seinen eigenen Nutzen maximieren möge und dass auf diese Weise das bestmögliche Ergebnis für alle erzielt würde. Westliche Volkswirtschaften werden tendenziell (wenn auch nicht in Reinform) nach diesem Prinzip organisiert, obwohl Spieltheorie und Verhaltensökonomik diese These in den letzten 80 Jahren wiederholt widerlegt haben.

Und nicht nur das: Auch Organisationen wie Unternehmen oder Behörden werden zunehmend nach diesem Prinzip organisiert. Jede Abteilung, jede Gruppe wird einzeln optimiert, was dazu führt, dass man nicht mehr das Große und Ganze im Blick hat, sondern den Vorteil der eigenen Gruppe zu Lasten der anderen verfolgt. Erneut ist es die Spieltheorie, die zahlreiche Beispiele dafür liefert, dass auf diese Weise keinesfalls das Wohl der Gesamtheit maximiert wird, und eigentlich weiß auch jeder Fußballspieler, dass eine Mannschaft aus 11 Egoisten kein Spiel gewinnt, aber auf die betriebliche (oder gesellschaftliche) Praxis hat das erstaunlich wenig Auswirkungen. Was natürlich auch daran liegt, dass erneut niemand weiß, wie man es sonst machen sollte – das Treffen der richtigen Teilentscheidungen zur Maximierung des Gemeinnutzens ist für gewöhnlich jenseits von allem, was modellier- oder berechenbar wäre.

Das Problem der Wissenschaft

Was nun haben diese Beispiele gemein? In allen Fällen – und ich könnte noch viele weitere nennen – stößt die Wissenschaft an ihre Grenzen. Die eigentliche Fragestellung erweist sich als deutlich zu kompliziert, um mit den aktuellen Mitteln gelöst zu werden. Und dann tut man, was in der Vergangenheit (beispielsweise in Physik und Chemie) so gut funktioniert hat: Man zerlegt das Problem in kleinstmögliche Teile und versucht, diese zu verstehen oder zu optimieren in der Hoffnung, dass sich dann auch das Gesamtproblem löst:

  • Wir verstehen nicht, wie unser Denken funktioniert? Dann zoomen wir eben in unser Gehirn hinein und versuchen, die Funktionsweise von Neuronen und Synapsen (oder gleich der DNA) zu verstehen. Wogegen zunächst einmal nichts spricht, außer wenn wir dabei aus dem Blick verlieren, was wir eigentlich wissen wollten.
  • Wir wollen wissen, wie wir richtig entscheiden? Dann erstellen wir ein Entscheidungsmodell, vereinfachen überall (damit es modellierbar bleibt) und ignorieren dabei zahlreiche Faktoren, die aber eigentlich eine Rolle spielen. Das Ergebnis ist dann leider anfechtbar, weil es andere Modelle mit anderen Vereinfachungen gibt, die zu ganz anderen Ergebnissen kommen.
  • Wir wissen nicht, wie wir eine Organisation (sei es eine Firma, eine Behörde oder einen Staat) führen sollen? Dann zerlegen wir sie in kleine Teile, lassen jeden sich selbst optimieren und hoffen dann darauf, dass durch Magie (auch bekannt als „Die unsichtbare Hand des Marktes“) etwas Gutes dabei herauskommt.

Dieses Zerlegen in kleine Teile (Informatiker würden sagen: Divide and Conquer, Wissenschaftstheoretiker sprechen von Reduktionismus) ist so allgegenwärtig, dass wir es kaum noch bemerken. Es hat nur den Nachteil, dass es nirgendwo richtig funktioniert, wo das Ganze mehr ist als die Summe seiner Teile. In der Sprache der Mathematik gesprochen: Wenn die Funktion, die wir hier berechnen wollen, nicht linear ist. Und das ist sie in der wirklichen Welt so gut wie nie.

Seit ungefähr hundert Jahren gibt es Wissenschaftsdisziplinen, die versuchen, sich mit diesen komplexen, nichtlinearen Systemen zu beschäftigen. Sie ändern immer mal wieder die Bezeichnung – in den 1940er Jahren sprach man beispielsweise von Systemtheorie und Kybernetik, später von Dynamischen oder Nichtlinearen Systemen, heute dominiert die Bezeichnung Komplexitätstheorie. Und diese wird in den nächsten Beitragen eine zentrale Rolle spielen, bis ich hoffentlich in ein paar Wochen mit meinen Erkärungen dort lande, wo ich in der nächsten Zeit forschend tätig werden möchte.