Kategorien
Uncategorized

Wie könnt ihr nur so sicher sein?

Derzeit lese ich das Buch „I am a strange loop“ von Douglas Hofstadter, in dem er der Frage nachgeht, wie Bewusstsein entsteht und was dieses „ich“ eigentlich ist, von dem wir alle reden. Und da bin ich gestern auf Seite 90 über die folgende Passage gestolpert:

„(…) most of us wind up emerging from adolescence with a deeply nuanced sense of what is real, with shades of gray all over the place. (However, I have known, and probably you have too, reader, a few adults for whom every issue that strikes me as subtle seems to them totally black-and-white – no messy shades of gray at all to deal with. That must make life easy!“)

D. Hofstadter: I am a Strange Loop. Basic Books, 2007

Was in mir spontan eine ganze Flut von Assoziationen ausgelöst hat, beginnend mit der Beobachtung, dass ich nicht nur einige wenige, sondern eigentlich sogar sehr viele Leute kenne, die sich ihrer Sache immer sehr sicher sind, und nur sehr wenige, die zugeben würden, dass Dinge kompliziert sind oder gar, dass sie zu wenig davon verstehen, um sich ein abschließendes Urteil erlauben zu können. Ein Teil des Problems dabei ist, dass die Graustufen-Leute sich in Diskussionen typischerweise zurückhalten, während die Schwarz-Weiß-Leute ihre Überzeugungen lautstark und voller Inbrunst vertreten.

Die Auswirkungen davon habe ich bereits im Beitrag „The Middle Ground“ vom Mai 2021 diskutiert, ich will das Thema hier aber nochmal aufgreifen und aufzeigen, warum absolute Gewissheit meiner Meinung nach kein gutes Zeichen ist.

Philosophie des Geistes

Die Frage „Was kann ich wissen?“ gehört ja zu den vier Hauptfragen Kants und ist vor und nach ihm ausgiebig diskutiert worden. Sokrates‘ „Ich weiß, dass ich nichts weiß“ gehört ebenso in diese Diskussion wie Descartes‘ „Ich denke, also bin ich“. Und auch der Konstruktivismus, aus dem letztlich die derzeitigen Gender- und Wokeness-Debatten hervorgegangen sind, hat in dieser Frage seinen Ursprung.

Ohne hier tiefer in diese (ausgesprochen komplexe) Diskussion einsteigen zu wollen, zeigt allein die Tatsache, wie intensiv die Frage nach Wissen, Wahrheit und Erkenntnis jahrhundertelang diskutiert worden ist, dass einfache Antworten hier wohl nicht zu haben sind. Trotzdem trifft man auch hier (ausgerechnet!) auffallend viele Diskussionsteilnehmer, die sich im Alleinbesitz der Wahrheit wähnen.

Ich selbst staune immer wieder, wie man sich in solch komplexen Themen und bei solch intelligenten Personen auf allen Seiten des Meinungsspektrums so sicher sein kann, selbst im Alleinbesitz der Wahrheit zu sein. Ganz besonders wundert mich das aber bei diejenigen, deren philosophisches Fundament auf dem Konstruktivismus fußt. Denn wie kann man einerseits postulieren, dass eine objektive Erkenntnis der Wahrheit nicht möglich ist, zugleich aber überzeugt sein, dass die eigene Überzeugung die einzig richtige ist?

Bayes’sche Wahrscheinlichkeit

Die Idee der Bayes’schen Wahrscheinlichkeit formalisiert im Grunde genau das, was Hofstadter oben informal beschreibt: Unser Gehirn arbeitet gar nicht wirklich mit absoluten Überzeugungen, sondern mit subjektiven Wahrscheinlichkeiten, die sukzessive an neue Beobachtungen angepasst werden. Auf den ersten Blick müsste das dazu führen, dass unsere mentalen Modelle immer besser zur Wirklichkeit passen. Nur ist das nach meiner Beobachtung gar nicht das, was in Wahrheit passiert – vielmehr driften Überzeugungen häufig auseinander und neigen sogar dazu, in Extremen zu enden. Im Folgenden will ich einmal (ganz ohne echten wissenschaftlichen Anspruch, eher im Sinne eines Brainstormings) darüber nachdenken, woran das liegen könnte.

Ein erster, noch sehr ins Unreine gedachter Gedanke bezieht sich darauf, wie wir lernen. Bekanntlich hängt unser Wissen entscheidend davon ab, wie Neuronen in unserem Gehirn miteinander verbunden sind. Die verschiedenen Wahrscheinlichkeiten, von denen man in der Bayes’schen Statistik ausgeht, entsprechen in gewissem Sinne der Stärke der Verknüpfungen in unserem Gehirn. Wenn wir nun aber regelmäßig über ein Thema nachdenken, werden die Verbindungen, die besonders häufig verwendet werden (die mit den größten a-priori-Wahrscheinlichkeiten), verstärkt – sie sind in Zukunft noch leichter verfügbar und entsprechen somit noch größeren künftigen Wahrscheinlichkeiten. Ein anfänglicher leichter Vorteil für eine bestimmte Ansicht könnte sich daher mit der Zeit selbst verstärken, bis er zu einer echten Überzeugung geworden ist.

Nun ist das Nachdenken im stillen Kämmerlein ja nicht die einzige Möglichkeit, zu lernen: häufig spielt ja auch Input von außen eine Rolle (bei den Bayes’schen Modellen, die ich bisher gesehen habe, wird es sogar fest vorausgesetzt). Hier aber kommt unsere Neigung ins Spiel, kognitive Dissonanzen vermeiden zu wollen. Es ist uns nämlich eigentlich unangenehm, unsicher zu sein und unsere Überzeugungen immer wieder in Frage gestellt zu sehen. Daher neigen wir dazu, vor allem solches Input zu suchen, das zu unseren bereits gefassten Überzeugungen passt: wir umgeben uns bevorzugt mit Menschen, die unserer Meinung sind, bewegen uns im Netz in (selbstgewählten oder von sozialen Netzwerken erzeugten) Filterblasen und lesen bevorzugt Texte von Autoren, deren Auffassungen wir teilen. Auch interpretieren wir unliebsame Beobachtungen gerne um und suchen sogleich Gründe, warum sie gar kein wirkliches Problem für unsere vorgefasste Überzeugung sind. Auf diese Weise führt die wiederholte Beschäftigung mit einer Thematik gar nicht dazu, dass sich die Wahrscheinlichkeiten in unserem Kopf besser an die Realität annähern – vielmehr verstärkt eine solche Beschäftigung mit dem Thema lediglich die Gewissheit, von Anfang an richtig gelegen zu haben.

Beispiel: Was wir wissen können

Nehmen wir einmal die Frage, was wir wissen können, als Beispiel. Wenn ich eine ernsthafte Antwort auf diese Frage suche, muss ich mich mit den Argumenten des Empirismus, des Rationalismus und des Skeptizismus auseinandersetzen. Ich sollte die verschiedenen Herangehensweisen von Wissenschaft, Kunst, Religion und Philosophie zu dem Thema verstanden und einer fairen, vorurteilsfreien Würdigung unterzogen haben. Ich sollte zudem auf dem neuesten Stand der Kognitionspsychologie sein und mir im Klaren darüber sein, was wir über die Funktionsweise des menschlichen Gehirns sowie seiner technischen Nachahmungen wissen. Und ja: dieses Verständnis schließt auch die zugehörigen mathematischen und algorithmischen Modelle mit ein. Sogar der Erkenntnisstand der Physik (die zu kennen den Philosophen früherer Jahrhunderte eine Selbstverständlichkeit war) und der Mathematik (wie etwa Gödels Unvollständigkeitssatz) beeinflussen diese Diskussion.

Ich denke, es wird schon aus dieser Auflistung klar, warum eine solche Fragestellung höchst komplex ist. Menschen mit einer realistischen Selbsteinschätzung werden vermutlich zugeben, dass sie nicht all diese Themenfelder in der erforderlichen Tiefe beherrschen und dass ihre Überzeugungen daher unter einer Reihe von Vorbehalten stehen müssten.

Wenn wir das tatsächlich täten und aufrichtig versuchen würden, unsere Wissenslücken zu schließen, dann würde auch das Bayes’sche Modell des Erkenntnisgewinns wieder funktionieren. Derjenige aber, der umfassende, anstrengende und manchmal auch frustrierende Recherche gerne mal durch einfache, dafür aber umso leidenschaftlicher vorgetragene Standpunkte ersetzt, befindet sich einfach nur in einem selbstverstärkenden Feedback-Loop, der ihm zwar ein gutes Bauchgefühl (und tolle Klick-Zahlen in den sozialen Medien) verschafft, ihn aber der Wahrheit nicht wirklich näher bringt. Ja, es besteht sogar die Gefahr, dass seine Gewissheit nichts anderes ist als eine Variante des Dunning-Kruger-Effekts: es ist umso leichter, sich für kompetent zu halten, wenn weniger tief man in die wahre Komplexität des Themas eingetaucht ist.

Schlussbemerkung

Vielleicht wird nach dieser Diskussion klarer, warum mich ein solch ungutes Gefühl beschleicht, wenn jemand bei Themen wie Kapitalismus, Corona, Klimawandel, Gender, künstliche Intelligenz, freier Wille etc. allzu überzeugt von seiner (womöglich noch: einfachen) Wahrheit ist. Manchmal sind die Dinge einfach komplex, und es macht mich misstrauisch, wenn jemand in einer Welt voll intelligenter Menschen glaubt, sie besser als die anderen verstanden zu haben. Vielmehr vermute ich, dass der wahre Grund für derlei Selbstsicherheit irgendwo unter den obigen Ursachen zu finden ist. Und auch wenn ich Douglas Hofstadter recht gebe (ja, es muss angenehm sein, sich seiner Sache so sicher zu sein), ziehe ich meine Zweifel dann letztlich doch vor.

Kategorien
Uncategorized

ChatGPT

Was ist ChatGPT?

ChatGPT ist ein sogenannter ChatBot – ein Programm, mit dem man Gespräche führen kann. Es wurde am 30. November 2022 von der Firma OpenAI veröffentlicht und hat seither das Netz im Sturm erobert. Nun gibt es solche Programme ja schon seit Jahrzehnten, aber ChatGPT besitzt ein Leistungsvermögen, das seinen Vorgängern deutlich überlegen ist und weit über reine Konversation hinausgeht. Wie die Wikipedia (Stand 4.1.2023) schreibt:

While the core function of a chatbot is to mimic a human conversationalist, journalists have also noted ChatGPT’s versatility and improvisation skills, including its ability to write and debug computer programs; to compose music, teleplays, fairy tales, and student essays; to answer test questions (sometimes, depending on the test, at a level above the average human test-taker); to write poetry and song lyrics; to emulate a Linux system; to simulate an entire chat room; to play games like tic-tac-toe; and to simulate an ATM.

Wer sich darunter nicht wirklich etwas vorstellen kann, dem sei ein Gang auf die ChatGPT-Webseite empfohlen, wo man das Tool kostenlos ausprobieren kann. Alternativ – falls man sich das lieber erstmal in Ruhe vorführen lassen will – kann man sich auf Youtube umsehen, wo es von Demo-Videos nur so wimmelt. Studenten berichten, wie sie ihre Aufsätze von ChatGPT haben schreiben lassen und damit durchgekommen sind. Programmierer berichten, wie sie ChatGPT haben Webseiten programmieren lassen und wie das Programm seine Fehler selbständig korrigiert hat, wenn man es einmal darauf hingewiesen hat. Neugierige zeigen, wie sie von ChatGPT haben Namen, Gedichte ja ganze Geschichten erfinden lassen oder wie sie philosophische Diskussionen mit dem Programm geführt haben.

Ja, ChatGPT kann nicht alles, und manchmal macht es Fehler. Aber das tun Menschen auch.

Ja, ChatGPT versteht nicht wirklich, was es da tut. Aber das tun Menschen oft auch nicht.

Das ändert aber nichts daran, dass ChatGPT dem, was wir eigentlich als Domäne des geistigen Arbeitens betrachtet haben, erschreckend nahe gekommen ist. Ja, dass es besser ist als das, was manche Menschen an geistiger Arbeit zustande bringen. Und das, obwohl es hinter den Kulissen nichts anderes ist als eine Maschine, die Sprache mit Hilfe eines Wahrscheinlichkeitsmodells erzeugt. Was sofort die Frage aufwirft, wieso das ausreicht, um den oberflächlichen Betrachter davon zu überzeugen, dass er es mit einem Menschen zu tun hat.

Ich habe mich geirrt

Das, was ich bisher von ChatGPT gesehen habe, zieht vielen von dem, was ich in diesem Blog geschrieben habe, den Teppich unter den Füßen weg. Ich bin kein Insider der KI-Forschung, aber habe mir deren Fortschritte immer mit Interesse von der Seitenlinie aus angesehen. Meine Folgerungen kann man beispielsweise in meinem Beitrag Warum ich keine Angst vor KIs habe vom März 2021 nachlesen:

Die alljährlichen Gewinner des Loebner Prize für den „most human computer“ (eine Art Turing-Test, bei dem es darum geht, so menschlich wie möglich zu kommunizieren) zeichnen sich eben nicht durch intelligente Konversation aus, sondern dadurch, dass sie versuchen, den Partner so lange über ihre Ahnungslosigkeit hinwegzutäuschen, bis das Zeitlimit erreicht ist.

Genau davon kann nun bei ChatGPT nicht mehr die Rede sein. Das Programm versucht nicht, Zeit zu gewinnen, sondern berücksichtigt den bisherigen Verlauf der Konversation in seinen Antworten, reagiert folgerichtig auf das Input seines Gegenübers und ist sogar in gewissem Umfang zum kreativen Problemlösen in der Lage. Zudem ist es längst nicht so sehr „Fachidiot“, wie ich das von einer schwachen KI erwartet hätte – seine Fähigkeit, mit Sprache zu arbeiten, öffnet ihm die Tür zu quasi allen Anwendungen, in denen Sprache vorkommt.

Wie es aussieht, habe ich mit meiner Einschätzung gründlich danebengelegen und muss bei denen, die schon seit Jahren die kühnsten (oder schlimmsten) Visionen hatten, Abbitte leisten. Was mir übrigens in meinem Berufsleben schon zum zweiten Mal in diesem Umfang passiert: Denn auch die Horrorszenarien, dass die US-Regierung sämtliche Kommunikation überwachen würde, habe ich für völlig übertriebene Verschwörungsfantasien gehalten – bis die Snowden Files veröffentlicht wurden.

Auswirkungen auf die Lehre

Ganz egal, wo sich ChatGPT oder ähnliche ChatBots in der Zukunft noch hinentwickeln, wird das Programm bereits in seiner jetzigen Form massive Auswirkungen auf Schule und Hochschule haben. Bevor ich in die Diskussion einsteige, gebe ich mal ein kurzes Beispiel für die Fähigkeiten des Programms:

Meine Frage: Erkläre mir in maximal 200 Wörtern, wie Habermas den Diskursbegriff versteht.

Antwort ChatGPT: Der Diskursbegriff von Jürgen Habermas bezieht sich auf die Möglichkeit, dass Menschen durch argumentativen Austausch zu einem gemeinsamen Verständnis gelangen können. Habermas betont, dass Diskurse nur dann fair und produktiv sind, wenn sie bestimmte Kriterien erfüllen, die er als „kommunikative Rationalität“ bezeichnet. Dazu gehört unter anderem, dass alle Beteiligten frei und gleichberechtigt am Diskurs teilnehmen können und sich an die Regeln der Vernunft und der allgemeinen Sittlichkeit halten. Ziel von Diskursen ist es demnach, durch den Austausch von Argumenten und Informationen ein möglichst umfassendes und tragfähiges Verständnis zu erreichen. Habermas‘ Diskursbegriff hat großen Einfluss auf die moderne politische Theorie und die Demokratieforschung.

Eine offensichtliche Nutzungsmöglichkeit ist also die Recherche. Studierende können sich Dinge, die sie nicht verstanden haben oder daheim nachlesen sollen, erklären lassen. Und im Gegensatz zu einer klassischen Textrecherche können sie bei offenen Punkten auch nachhaken. Wir haben hier also eine Art persönlichen Tutor, den man zu jeder Tages- und Nachtzeit fragen kann. Allerdings hat ChatGPT das Sprachmodell, das seinen Antworten zugrunde liegt, letztlich natürlich aus dem Internet konstruiert und dabei auch dessen Fehler mit übernommen. Wer sich also gar nicht auskennt, läuft Gefahr, völligem Blödsinn aufzusitzen, wenn das Tool gerade auf fehlerhafte Informationen zurückgreift. Das ist allerdings kein Grund, es nicht zu benutzen. Es ist vielmehr ein wenig wie mit einem Navi: Es ist hilfreich, aber man darf das eigene Hirn nicht völlig ausschalten, weil man nie weiß, ob der Kartensatz wirklich aktuell ist.

In der Lehre wird der Segen aber zum Fluch, wenn es um Hausarbeiten geht, denn ChatGPT ist natürlich auch gut dafür geeignet, diese für den unmotivierten oder überforderten Studierenden zu übernehmen. Mag sein, dass die Lösung nicht perfekt ist. Mag sein, dass die Lösung sogar deutliche Fehler enthält. Entscheidend in der Praxis ist aber, dass der Dozent den Täuschungsversuch nicht nachweisen kann, sogar wenn er einen Verdacht hat. Im Gegensatz zu den typischen Plagiaten der letzten Jahre, in denen Texte mehr oder weniger wörtlich aus dem Internet kopiert wurden, erhält der Auftraggeber jetzt einen individuellen Text, den der Dozent selbst bei entsprechender Websuche so nirgends findet.

Für jemanden wie mich, der Klausuren in den meisten Fächern für wenig zielführend hält und Hausarbeiten für eine deutlich sinnvollere Prüfungsform, bei der sich der Prüfling soviel Zeit nehmen kann, wie er eben braucht, ist das natürlich ein herber Schlag. Im Grunde müsste man jetzt jede Hausarbeit die ganze Zeit über beaufsichtigen, was natürlich nicht möglich ist. Darüber, wie man das in Zukunft löst, wird man noch nachdenken müssen – in diesem Moment habe ich noch keine gute Idee, wie man das Problem löst.

Auswirkungen auf die Arbeit

Ein solches Tool (und seine Nachfolger) wird natürlich auch Konsequenzen für die Arbeitswelt haben. Tätigkeiten, bei denen es um reines Wissen oder um vergleichsweise einfache kognitive Tätigkeiten geht, können von einem solchen Werkzeug übernommen werden. Die Aufgabe des Menschen wird dann darin bestehen, die richtigen Fragen zu stellen, die Antworten auf Plausibilität zu überprüfen und ggf. zu einem größeren Ganzen zu kombinieren.

In gewisser Weise stellen solche Tools für die geistige Arbeit also das dar, was das Aufkommen der Maschinen für die körperliche Arbeit war: Der Handwerker muss nicht mehr alles selbst fertigen, er muss auch viele Dinge nicht mehr selbst können. Stattdessen prüft und montiert er fertige Komponenten. Ob das für die Tätigkeit nun gut oder schlecht ist, wage ich an dieser Stelle noch nicht vorherzusagen, aber ein Blick auf die Entwicklungen mit Beginn der Industrialisierung lässt erahnen, was dem Arbeitsmarkt für geistig Arbeitende blühen könnte (und ja, wenn man den Gedanken zu Ende denkt, dann könnten Personen in Lehrberufen durchaus auch betroffen sein).

Für mich selbst kommt aber gerade bei der Anwendung in der Programmierung noch ein anderer Faktor hinzu: der Trend geht immer weiter weg von dem, wofür ich gerade die Informatik geliebt habe. Wie man vielleicht in diesem Blog schon erkennen konnte, schätze ich an „meinem Fach“ die Möglichkeit, auf Wunsch bis ins kleinste Detail gehen, alles verstehen und alles selbst bauen zu können. Die Analogie zum Tischler, der wirklich aus reinem Rohholz alle Komponenten selbst fertigt, oder zum Musiker, der auf seiner Akustikgitarre noch „Musik von Hand“ macht, drängt sich für mich auf. Und genau wie diese wird meine Art, Informatik zu betreiben, allmählich zu einem reinen Hobby oder zu einem Beruf für einige wenige Auserwählte werden. Der Prozess hat ja schon vor vielen Jahren mit dem Aufkommen immer komplexerer Softwarebibliotheken und Frameworks und dem Aufbau immer größerer Entwicklerteams begonnen und wird sich vermutlich über Tools in der Nachfolge von ChatGPT noch beschleunigen. Ein Informatiker wird jemand sein, der mit Methoden des Softwareengineerings Komponenten anfordert und zusammenfügt. Seine Fertigkeiten und seine Ausbildung werden wahrscheinlich deutlich anders sein, als wir dies heute unterrichten. Und wenn Leute wie ich nicht aufpassen, laufen wir Gefahr, die alten Säcke zu sein, die mit Methoden von vorgestern Programme von vorgestern schreiben…

Forschung im 21. Jahrhundert

Als Randnotiz finde ich es übrigens interessant zu beobachten, dass auch dieser Durchbruch in der Informatik-Forschung nicht aus den Universitäten kam, sondern aus der freien Wirtschaft. Das Forschungsunternehmen OpenAI, das ChatGPT entwickelt hat, wurde u.a. von Elon Musk, Peter Thiel und dem Amazon-Clouddienst AWS gegründet und mit einer Milliarde US$ Startkapital versehen (man vergleiche das mal mit der 10-Jahres-Finanzierung einer kompletten deutschen Universität).

Diesen Trend beobachte ich schon seit längerem: egal ob es um maschinelles Lernen, um Quantencomputer, um Computergrafik, um VR oder um Blockchains geht: überall treiben die Macher aus der kommerziellen Forschung die Universitäten vor sich her. Nicht selten schreiben Akademiker nur noch Paper after the fact, sinngemäß mit dem Inhalt: „Es gibt da diese neue Technologie, die ist zwar nicht von uns, aber wir wollen die jetzt mal analysieren (Uni) bzw. ausprobieren (FH)“. Um bei der Forschung auf Weltniveau eine Vorreiterrolle einzunehmen, reichen zumindest in der IT-Branche weder Größe noch Struktur noch Finanzierung akademischer Institutionen aus. Die erforderlichen Teams sind teilweise riesig, die erforderliche Hardware ist es auch. Nichts davon kann eine Universität leisten. Und im Gehälterwettstreit um die besten Köpfe mithalten kann sie auch nicht.

Interessant ist aber auch, dass die Risikobereitschaft und der Mut zum Scheitern inzwischen außerhalb der Hochschulen größer zu sein scheinen. Das Publish-or-Perish-Prinzip und der Zwang zur zeitlich und finanziell eng begrenzten Drittmittelfinanzierung erlaubt den Forschenden an den Hochschulen gar keine wirklich mutigen Projekte mehr.

Der großartige Randy Pausch beschrieb in The Last Lecture, dass er bei seinem Sabbatical bei Disney mit den Worten „Ok, Professor Boy, what can you do for us?“ begrüßt wurde. Professor Boy. Professorchen. Ich frage mich schon seit Jahren, ob es nicht genau das ist, was die Macher in der Welt außerhalb des Elfenbeinturms denken, wenn sie einem Akademiker begegnen…

Ausblick

Natürlich habe ich in der Kürze der Zeit noch keine intensiven Studien zu ChatGPT durchgeführt. Und ich weigere mich auch entschieden, in den Chor der Schwarzseher einzustimmen, die jetzt mal wieder das Ende der Welt heraufdämmern sehen. Aber ich muss zugeben: Nach dem, was ich in den letzten Tagen gesehen habe, halte ich diese Entwicklungsstufe von Sprachmodellen für eine sehr disruptive Technologie, die meiner Einschätzung nach binnen kürzester Zeit massive Veränderungen nach sich ziehen wird.

Manche konzentrieren sich jetzt darauf, aufzuzeigen, wo der Mensch eben doch klüger ist oder wo ChatGPT noch Schwachstellen aufweist. Ich finde aber, dass das den entscheidenden Punkt verfehlt: ChatGPT ist nämlich nur ein Prototyp. Die Entwicklung ist noch nicht zu Ende, und wo ich noch bis vor wenigen Wochen sicher war, wo die Grenzen liegen, ist mir diese Gewissheit völlig abhanden gekommen. Der Zug rollt, und wohin er fährt, kann vermutlich niemand mit Sicherheit sagen.