Kategorien
Uncategorized

Komplexitätstheorie

Manchmal stößt man ja auf ein Konzept, einen Vortrag, einen Text oder ein ganzes Buch, das einen so richtig gefangen nimmt. In diesem Blog habe ich schon mehrere solche Inspirationsquellen angesprochen, und heute möchte ich eine weitere vorstellen, die in den letzten Wochen bei mir (wie man so schön auf Neudeutsch sagt) „alle Knöpfe gedrückt hat“.

Mitchell: Complexity

Es geht um das Buch „Complexity: A Guided Tour“ (2009) von Melanie Mitchell. Die Autorin hat ihren Doktor bei keinem Geringeren als Douglas Hofstadter gemacht, dem Autor des legendären Wissenschaftsklassikers „Gödel, Escher, Bach„. Sie hat dann jahrelang über komplexe Systeme, evolutionäre Algorithmen und künstliche Intelligenz geforscht. Das Buch wird weithin als zugleich lesbare und tiefgründige Einführung in das Gebiet der Komplexitätstheorie gelobt, und nachdem ich es gelesen habe, kann ich die Begeisterung verstehen.

Worum geht es überhaupt? Komplexitätstheorie beschäftigt sich mit Systemen, deren Elemente auf komplexe Weise miteinander interagieren, so dass das resultierende Ganze mehr ist als die Summe seiner Teile. Man spricht hier auch von Emergenz – das Verhalten des Ganzen erwächst auf nicht-triviale (mathematisch gesprochen: nicht-lineare) Art aus dem Zusammenspiel seiner (oft erstaunlich simplen) Komponenten.

In Natur und Alltag finden sich zahlreiche Beispiele für solche Systeme: Genetik, Gehirn, Organismen, Immunsystem, Wetter und Klima, Gesellschaften, Städte, Märkte, soziale Netze usw. sind Beispiele für emergente Systeme, zwischen denen die Komplexitätstheorie nach Gemeinsamkeiten sucht.

Zusammenhänge

Wer meinen Blogeintrag von letzter Woche gelesen hat, der ahnt vielleicht, was mich an dem Thema so fasziniert. Denn wo der Publikationsdruck auf Wissenschaftler häufig dazu führt, dass diese nur noch Probleme angehen, die sie mit hoher Wahrscheinlichkeit auch lösen können, wagt man sich hier an die Themen heran, die als sehr schwierig gelten: Man versucht, Zusammenhänge zu finden und das Big Picture zu betrachten statt sich im Klein-Klein eines radikalen (und manchmal auch einfach bequemen) Reduktionismus zu verlieren.

Dabei treffe ich hier auf eine ganze Reihe von Fragen, die ich mir selbst immer schon gestellt habe. Wenn es beispielsweise um das Gehirn, um das Denken, um Informationsflüsse oder um Situationen mit mehreren Entscheidern geht, müssen viele Komponenten und ihr Zusammenspiel betrachtet werden. Es handelt sich (um ein neues Lieblingswort von mir zu strapazieren) um Netzwerke, bestehend aus Knoten und den Verbindungen zwischen ihnen, über die typischerweise Informationen fließen, die wiederum die Zustände der Knoten verändern.

Interessanterweise bin ich im Buch von Mitchell aber auch auf Themen gestoßen, die zwar nicht zu meinen beruflichen oder privaten Hauptinteressen gehören, bei denen mir das Schulwissen aber immer schon suspekt vorkam. Ein Beispiel dafür ist die Genetik, mit der ich zumindest in Form genetischer Algorithmen auch schon beruflich zu tun hatte und bei der ich nie wirklich überzeugt war, dass die klassischen Erklärungen, die man mir gab, ausreichen, um die beobachtete Wirklichkeit zu erklären. Zwei Beispiele:

  • Das Genom eines Menschen besteht aus gerade mal 3 Milliarden DNA-Basenpaaren (zu je 2 Bit Information). Als Informatiker denkt man dann: Gerade mal viermal so viel wie beim Blumenkohl? Weniger als ein Gigabyte (unkomprimiert… komprimiert noch deutlich weniger)? So viel wie ein Satz Urlaubsfotos? Das ist alles? Ernsthaft? Wie soll daraus ein Mensch in all seiner Komplexität entstehen?
  • In der Evolution beobachten wir, dass sich bestimmte Charakteristika in völlig verschiedenen Bereichen der biologischen Stammbäume immer wieder gleich entwickeln. Beispielsweise sieht ein Beutelwolf (der zu den Beuteltieren gehört) einem Hund tatsächlich sehr ähnlich, obwohl er nicht mit ihm, sondern eher mit einer Beutelratte verwandt ist. Wenn tatsächlich nur Mutation, Crossover und Selektion als Mechanismen der Evolution wirken, würde das bedeuten, dass es tatsächlich nur diese eine optimale Form für ein Landraubtier gibt, die sich zwangsläufig entwickeln muss (das Fachwort dafür ist konvergente Evolution). Das hat mich eigentlich noch nie überzeugt.

Im Buch „Complexity“ durfte ich jetzt erfahren, dass mittlerweile zumindest Teile der Forschungscommunity von deutlich komplexeren Wirkmechanismen der Genetik ausgehen. Natürlich wird (wie immer, wenn jemand die alten Paradigmen in Frage stellt) heftig gestritten, aber allein die Tatsache, dass andere die gleichen Zweifel hegen wie ich, hat mich getröstet. Schließlich muss man das Feld ja nicht gleich kampflos den Kreationisten überlassen…

Alte Bekannte

Überhaupt bin ich in dem Buch zahlreichen Themen und Fragestellungen wiederbegegnet, die ich irgendwann schon einmal spannend fand und von denen mir gar nicht bewusst war, dass sie irgendwie alle zusammenhängen. Beispielsweise:

  • Evolutionäre Algorithmen: Die Übertragung klassischer Evolutionstechniken (Mutation, Crossover, Selektion) auf algorithmische Probleme habe ich zu Promotionszeiten einmal vergeblich benutzt, um Kryptoverfahren damit anzugreifen.
  • Gödel, Escher, Bach: Das Buch galt in den 1980ern als Bibel der Nerds; ich habe es mir aber erst vor einigen Jahren gekauft und es nie geschafft, es ganz durchzuarbeiten (und durcharbeiten müsste ich es – um es einfach nur durchzulesen und dabei zu verstehen bin ich nicht intelligent genug).
  • A New Kind of Science: Stephen Wolframs Buch über zelluläre Automaten ist mit seinen 1200 Seiten ein noch gewaltigerer Wälzer als „Gödel, Escher, Bach“ und schießt in seinem Versuch, gleich die ganze Welt erklären zu wollen, sicherlich ein gutes Stück über das Ziel hinaus. Das macht die darin präsentierten Ideen aber nicht per se falsch – das Entstehen komplexer Systeme aus einfachsten Bausteinen ist ebenso relevant wie faszinierend.
  • Chaostheorie.
  • Informationstheorie.
  • Künstliche und natürliche Intelligenz.
  • Theoretische Informatik.
  • Network Science.
  • Evolutionäre Spieltheorie.

Für jemanden wie mich, der zutiefst davon überzeugt ist, dass letztlich alles irgendwie mit allem zusammenhängt, ist ein solches Forschungsgebiet somit eine große Versuchung, in der ich mich rettungslos verlieren könnte, wenn ich nicht aufpasse. Ein wenig Vorsicht scheint mir daher angebracht.

Risiken und Nebenwirkungen

Zumal die Komplexitätstheorie auch dazu zu neigen scheint, sich selbst hier und da grandios zu überschätzen. Der Grund, warum die meisten Wissenschaftler eben nicht mit komplexen Zusammenhängen, sondern mit konsequentem Reduktionismus arbeiten, ist ja, dass reale komplexe Systeme zu kompliziert sind, um vollständig verstanden zu werden. Wir können also bestenfalls Modelle erstellen, die sich der Wirklichkeit ein wenig annähern, und dürfen dann nicht den Fehler machen, sie zur Welterklärung zu erheben. Dieser Fehler scheint in der Community aber ein Stückweit verbreitet zu sein. Wahrscheinlich sollte man hierzu jeden Morgen das Mantra „Ein Modell ist nur ein Modell“ oft genug wiederholen, bis man von der Versuchung geheilt ist, eine Pressemitteilung rauszuhauen, dass man jetzt die Weltformel gefunden habe.

Mitchell schreibst selbst in ihren Schlussbemerkungen, dass die Sehnsucht nach einer großen Theorie, die möglichst viele Arten komplexer Systeme beschreibt, natürlich vorhanden ist. Zugleich muss die eigentliche Forschung aber zunächst mit einem einzelnen System – sei es nun ein Organismus, eine Ameisenkolonie oder das World Wide Web – beginnen. Und solange man das gewissenhaft tut, braucht man eine spektakuläre Überschrift wie „Komplexitätstheorie“ genau genommen auch gar nicht. Als Inspirationsquelle fand ich das Buch aber trotzdem großartig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert