Kategorien
Uncategorized

ChatGPT

Was ist ChatGPT?

ChatGPT ist ein sogenannter ChatBot – ein Programm, mit dem man Gespräche führen kann. Es wurde am 30. November 2022 von der Firma OpenAI veröffentlicht und hat seither das Netz im Sturm erobert. Nun gibt es solche Programme ja schon seit Jahrzehnten, aber ChatGPT besitzt ein Leistungsvermögen, das seinen Vorgängern deutlich überlegen ist und weit über reine Konversation hinausgeht. Wie die Wikipedia (Stand 4.1.2023) schreibt:

While the core function of a chatbot is to mimic a human conversationalist, journalists have also noted ChatGPT’s versatility and improvisation skills, including its ability to write and debug computer programs; to compose music, teleplays, fairy tales, and student essays; to answer test questions (sometimes, depending on the test, at a level above the average human test-taker); to write poetry and song lyrics; to emulate a Linux system; to simulate an entire chat room; to play games like tic-tac-toe; and to simulate an ATM.

Wer sich darunter nicht wirklich etwas vorstellen kann, dem sei ein Gang auf die ChatGPT-Webseite empfohlen, wo man das Tool kostenlos ausprobieren kann. Alternativ – falls man sich das lieber erstmal in Ruhe vorführen lassen will – kann man sich auf Youtube umsehen, wo es von Demo-Videos nur so wimmelt. Studenten berichten, wie sie ihre Aufsätze von ChatGPT haben schreiben lassen und damit durchgekommen sind. Programmierer berichten, wie sie ChatGPT haben Webseiten programmieren lassen und wie das Programm seine Fehler selbständig korrigiert hat, wenn man es einmal darauf hingewiesen hat. Neugierige zeigen, wie sie von ChatGPT haben Namen, Gedichte ja ganze Geschichten erfinden lassen oder wie sie philosophische Diskussionen mit dem Programm geführt haben.

Ja, ChatGPT kann nicht alles, und manchmal macht es Fehler. Aber das tun Menschen auch.

Ja, ChatGPT versteht nicht wirklich, was es da tut. Aber das tun Menschen oft auch nicht.

Das ändert aber nichts daran, dass ChatGPT dem, was wir eigentlich als Domäne des geistigen Arbeitens betrachtet haben, erschreckend nahe gekommen ist. Ja, dass es besser ist als das, was manche Menschen an geistiger Arbeit zustande bringen. Und das, obwohl es hinter den Kulissen nichts anderes ist als eine Maschine, die Sprache mit Hilfe eines Wahrscheinlichkeitsmodells erzeugt. Was sofort die Frage aufwirft, wieso das ausreicht, um den oberflächlichen Betrachter davon zu überzeugen, dass er es mit einem Menschen zu tun hat.

Ich habe mich geirrt

Das, was ich bisher von ChatGPT gesehen habe, zieht vielen von dem, was ich in diesem Blog geschrieben habe, den Teppich unter den Füßen weg. Ich bin kein Insider der KI-Forschung, aber habe mir deren Fortschritte immer mit Interesse von der Seitenlinie aus angesehen. Meine Folgerungen kann man beispielsweise in meinem Beitrag Warum ich keine Angst vor KIs habe vom März 2021 nachlesen:

Die alljährlichen Gewinner des Loebner Prize für den „most human computer“ (eine Art Turing-Test, bei dem es darum geht, so menschlich wie möglich zu kommunizieren) zeichnen sich eben nicht durch intelligente Konversation aus, sondern dadurch, dass sie versuchen, den Partner so lange über ihre Ahnungslosigkeit hinwegzutäuschen, bis das Zeitlimit erreicht ist.

Genau davon kann nun bei ChatGPT nicht mehr die Rede sein. Das Programm versucht nicht, Zeit zu gewinnen, sondern berücksichtigt den bisherigen Verlauf der Konversation in seinen Antworten, reagiert folgerichtig auf das Input seines Gegenübers und ist sogar in gewissem Umfang zum kreativen Problemlösen in der Lage. Zudem ist es längst nicht so sehr „Fachidiot“, wie ich das von einer schwachen KI erwartet hätte – seine Fähigkeit, mit Sprache zu arbeiten, öffnet ihm die Tür zu quasi allen Anwendungen, in denen Sprache vorkommt.

Wie es aussieht, habe ich mit meiner Einschätzung gründlich danebengelegen und muss bei denen, die schon seit Jahren die kühnsten (oder schlimmsten) Visionen hatten, Abbitte leisten. Was mir übrigens in meinem Berufsleben schon zum zweiten Mal in diesem Umfang passiert: Denn auch die Horrorszenarien, dass die US-Regierung sämtliche Kommunikation überwachen würde, habe ich für völlig übertriebene Verschwörungsfantasien gehalten – bis die Snowden Files veröffentlicht wurden.

Auswirkungen auf die Lehre

Ganz egal, wo sich ChatGPT oder ähnliche ChatBots in der Zukunft noch hinentwickeln, wird das Programm bereits in seiner jetzigen Form massive Auswirkungen auf Schule und Hochschule haben. Bevor ich in die Diskussion einsteige, gebe ich mal ein kurzes Beispiel für die Fähigkeiten des Programms:

Meine Frage: Erkläre mir in maximal 200 Wörtern, wie Habermas den Diskursbegriff versteht.

Antwort ChatGPT: Der Diskursbegriff von Jürgen Habermas bezieht sich auf die Möglichkeit, dass Menschen durch argumentativen Austausch zu einem gemeinsamen Verständnis gelangen können. Habermas betont, dass Diskurse nur dann fair und produktiv sind, wenn sie bestimmte Kriterien erfüllen, die er als „kommunikative Rationalität“ bezeichnet. Dazu gehört unter anderem, dass alle Beteiligten frei und gleichberechtigt am Diskurs teilnehmen können und sich an die Regeln der Vernunft und der allgemeinen Sittlichkeit halten. Ziel von Diskursen ist es demnach, durch den Austausch von Argumenten und Informationen ein möglichst umfassendes und tragfähiges Verständnis zu erreichen. Habermas‘ Diskursbegriff hat großen Einfluss auf die moderne politische Theorie und die Demokratieforschung.

Eine offensichtliche Nutzungsmöglichkeit ist also die Recherche. Studierende können sich Dinge, die sie nicht verstanden haben oder daheim nachlesen sollen, erklären lassen. Und im Gegensatz zu einer klassischen Textrecherche können sie bei offenen Punkten auch nachhaken. Wir haben hier also eine Art persönlichen Tutor, den man zu jeder Tages- und Nachtzeit fragen kann. Allerdings hat ChatGPT das Sprachmodell, das seinen Antworten zugrunde liegt, letztlich natürlich aus dem Internet konstruiert und dabei auch dessen Fehler mit übernommen. Wer sich also gar nicht auskennt, läuft Gefahr, völligem Blödsinn aufzusitzen, wenn das Tool gerade auf fehlerhafte Informationen zurückgreift. Das ist allerdings kein Grund, es nicht zu benutzen. Es ist vielmehr ein wenig wie mit einem Navi: Es ist hilfreich, aber man darf das eigene Hirn nicht völlig ausschalten, weil man nie weiß, ob der Kartensatz wirklich aktuell ist.

In der Lehre wird der Segen aber zum Fluch, wenn es um Hausarbeiten geht, denn ChatGPT ist natürlich auch gut dafür geeignet, diese für den unmotivierten oder überforderten Studierenden zu übernehmen. Mag sein, dass die Lösung nicht perfekt ist. Mag sein, dass die Lösung sogar deutliche Fehler enthält. Entscheidend in der Praxis ist aber, dass der Dozent den Täuschungsversuch nicht nachweisen kann, sogar wenn er einen Verdacht hat. Im Gegensatz zu den typischen Plagiaten der letzten Jahre, in denen Texte mehr oder weniger wörtlich aus dem Internet kopiert wurden, erhält der Auftraggeber jetzt einen individuellen Text, den der Dozent selbst bei entsprechender Websuche so nirgends findet.

Für jemanden wie mich, der Klausuren in den meisten Fächern für wenig zielführend hält und Hausarbeiten für eine deutlich sinnvollere Prüfungsform, bei der sich der Prüfling soviel Zeit nehmen kann, wie er eben braucht, ist das natürlich ein herber Schlag. Im Grunde müsste man jetzt jede Hausarbeit die ganze Zeit über beaufsichtigen, was natürlich nicht möglich ist. Darüber, wie man das in Zukunft löst, wird man noch nachdenken müssen – in diesem Moment habe ich noch keine gute Idee, wie man das Problem löst.

Auswirkungen auf die Arbeit

Ein solches Tool (und seine Nachfolger) wird natürlich auch Konsequenzen für die Arbeitswelt haben. Tätigkeiten, bei denen es um reines Wissen oder um vergleichsweise einfache kognitive Tätigkeiten geht, können von einem solchen Werkzeug übernommen werden. Die Aufgabe des Menschen wird dann darin bestehen, die richtigen Fragen zu stellen, die Antworten auf Plausibilität zu überprüfen und ggf. zu einem größeren Ganzen zu kombinieren.

In gewisser Weise stellen solche Tools für die geistige Arbeit also das dar, was das Aufkommen der Maschinen für die körperliche Arbeit war: Der Handwerker muss nicht mehr alles selbst fertigen, er muss auch viele Dinge nicht mehr selbst können. Stattdessen prüft und montiert er fertige Komponenten. Ob das für die Tätigkeit nun gut oder schlecht ist, wage ich an dieser Stelle noch nicht vorherzusagen, aber ein Blick auf die Entwicklungen mit Beginn der Industrialisierung lässt erahnen, was dem Arbeitsmarkt für geistig Arbeitende blühen könnte (und ja, wenn man den Gedanken zu Ende denkt, dann könnten Personen in Lehrberufen durchaus auch betroffen sein).

Für mich selbst kommt aber gerade bei der Anwendung in der Programmierung noch ein anderer Faktor hinzu: der Trend geht immer weiter weg von dem, wofür ich gerade die Informatik geliebt habe. Wie man vielleicht in diesem Blog schon erkennen konnte, schätze ich an „meinem Fach“ die Möglichkeit, auf Wunsch bis ins kleinste Detail gehen, alles verstehen und alles selbst bauen zu können. Die Analogie zum Tischler, der wirklich aus reinem Rohholz alle Komponenten selbst fertigt, oder zum Musiker, der auf seiner Akustikgitarre noch „Musik von Hand“ macht, drängt sich für mich auf. Und genau wie diese wird meine Art, Informatik zu betreiben, allmählich zu einem reinen Hobby oder zu einem Beruf für einige wenige Auserwählte werden. Der Prozess hat ja schon vor vielen Jahren mit dem Aufkommen immer komplexerer Softwarebibliotheken und Frameworks und dem Aufbau immer größerer Entwicklerteams begonnen und wird sich vermutlich über Tools in der Nachfolge von ChatGPT noch beschleunigen. Ein Informatiker wird jemand sein, der mit Methoden des Softwareengineerings Komponenten anfordert und zusammenfügt. Seine Fertigkeiten und seine Ausbildung werden wahrscheinlich deutlich anders sein, als wir dies heute unterrichten. Und wenn Leute wie ich nicht aufpassen, laufen wir Gefahr, die alten Säcke zu sein, die mit Methoden von vorgestern Programme von vorgestern schreiben…

Forschung im 21. Jahrhundert

Als Randnotiz finde ich es übrigens interessant zu beobachten, dass auch dieser Durchbruch in der Informatik-Forschung nicht aus den Universitäten kam, sondern aus der freien Wirtschaft. Das Forschungsunternehmen OpenAI, das ChatGPT entwickelt hat, wurde u.a. von Elon Musk, Peter Thiel und dem Amazon-Clouddienst AWS gegründet und mit einer Milliarde US$ Startkapital versehen (man vergleiche das mal mit der 10-Jahres-Finanzierung einer kompletten deutschen Universität).

Diesen Trend beobachte ich schon seit längerem: egal ob es um maschinelles Lernen, um Quantencomputer, um Computergrafik, um VR oder um Blockchains geht: überall treiben die Macher aus der kommerziellen Forschung die Universitäten vor sich her. Nicht selten schreiben Akademiker nur noch Paper after the fact, sinngemäß mit dem Inhalt: „Es gibt da diese neue Technologie, die ist zwar nicht von uns, aber wir wollen die jetzt mal analysieren (Uni) bzw. ausprobieren (FH)“. Um bei der Forschung auf Weltniveau eine Vorreiterrolle einzunehmen, reichen zumindest in der IT-Branche weder Größe noch Struktur noch Finanzierung akademischer Institutionen aus. Die erforderlichen Teams sind teilweise riesig, die erforderliche Hardware ist es auch. Nichts davon kann eine Universität leisten. Und im Gehälterwettstreit um die besten Köpfe mithalten kann sie auch nicht.

Interessant ist aber auch, dass die Risikobereitschaft und der Mut zum Scheitern inzwischen außerhalb der Hochschulen größer zu sein scheinen. Das Publish-or-Perish-Prinzip und der Zwang zur zeitlich und finanziell eng begrenzten Drittmittelfinanzierung erlaubt den Forschenden an den Hochschulen gar keine wirklich mutigen Projekte mehr.

Der großartige Randy Pausch beschrieb in The Last Lecture, dass er bei seinem Sabbatical bei Disney mit den Worten „Ok, Professor Boy, what can you do for us?“ begrüßt wurde. Professor Boy. Professorchen. Ich frage mich schon seit Jahren, ob es nicht genau das ist, was die Macher in der Welt außerhalb des Elfenbeinturms denken, wenn sie einem Akademiker begegnen…

Ausblick

Natürlich habe ich in der Kürze der Zeit noch keine intensiven Studien zu ChatGPT durchgeführt. Und ich weigere mich auch entschieden, in den Chor der Schwarzseher einzustimmen, die jetzt mal wieder das Ende der Welt heraufdämmern sehen. Aber ich muss zugeben: Nach dem, was ich in den letzten Tagen gesehen habe, halte ich diese Entwicklungsstufe von Sprachmodellen für eine sehr disruptive Technologie, die meiner Einschätzung nach binnen kürzester Zeit massive Veränderungen nach sich ziehen wird.

Manche konzentrieren sich jetzt darauf, aufzuzeigen, wo der Mensch eben doch klüger ist oder wo ChatGPT noch Schwachstellen aufweist. Ich finde aber, dass das den entscheidenden Punkt verfehlt: ChatGPT ist nämlich nur ein Prototyp. Die Entwicklung ist noch nicht zu Ende, und wo ich noch bis vor wenigen Wochen sicher war, wo die Grenzen liegen, ist mir diese Gewissheit völlig abhanden gekommen. Der Zug rollt, und wohin er fährt, kann vermutlich niemand mit Sicherheit sagen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert