Geht ein Mensch zum Podologen

Eine Glosse

Andreas Mertin

Christoph Markschies ironisiert in z(w)eitzeichen die mangelnde wissenschaftliche Qualität der künstlichen Plaudertasche ChatGPT. Das kann man machen, das macht im Augenblick jeder, weil es ja noch ein Programm im Beta-Stadium ist und man ziemlich schnell auf einige scheinbare und wirkliche Fehler stößt. Ich hatte ja auch im letzten Heft des Magazins von meinen Gesprächen mit Chat-GPT berichtet und mich an der einen oder anderen Stelle über dessen Antworten gewundert. Ich hatte auf Chat-GPT wie auf einen Menschen reagiert, der eine Unterhaltung mit mir führt und bei dem man enttäuscht ist, wenn die Kommunikation anders verläuft als erwartet. Das ist natürlich die falsche Herangehensweise, sie zeugt, wie ich einsehen musste, von einem falschen Verständnis dessen, wozu ChatGPT programmiert wurde. Aber das Programm macht es einem auch leicht, zu diesem Missverständnis zu kommen, denn es antwortet ja „wie ein Mensch im Gespräch“ – aber eben nur formal, nicht inhaltlich. Es will doch nur sprechen, nicht informieren – könnte man leicht ironisch sagen. Zu Problemen und Fehlurteilen kommt es daher schnell, vor allem, wenn man nicht der Logik der Programmierer folgt, sondern sich auf mediale Zuschreibungen verlässt („in der Presse stand, dass Programm Chat-GPT leiste Folgendes“). Aber als Wissenschaftler sollte man solche Feststellungen nur machen, wenn man weiß, welche Pro­bleme die KI als ChatBot(!) überhaupt lösen soll und welche nicht.

Es macht m.a.W. keinen Sinn, den Podologen nach den Augen zu fragen (nur weil der sich auch mit Hühneraugen beschäftigt), dafür muss man schon Augenärzte besuchen. Und man kann auf die notwendig folgende Kritik am eigenen Vorgehen auch nicht antworten: aber alle machen das doch! Denn das macht die eigene Frage nicht besser, sondern die Menschheit dümmer.

Zunächst ist ChatGPT ein amerikanisches Programm mit einer im Wesentlichen angelsächsischen Textbasis bis 2021. Es hat keinen Zugang zum Internet und seine Aufgabe ist es, mit Hilfe von Algorithmen zu berechnen, welche Worte in welchen Kontexten wahrscheinlich sind und wie eine Antwort auf eine Frage in sprachlicher Form aussehen muss. Das ist gar nicht so leicht für ein Computerprogramm, aber es hat den Vorteil, dass es von Sekunde zu Sekunde besser wird, weil es lernfähig ist und jede Antwort und jede Reaktion auf jede Antwort auswertet. Es übt sich also darin, die Form(!) menschlicher Kommunikation zu simulieren und ist nicht dafür gemacht, Begrüßungs­texte von Akademieleiter:innen zu formulieren oder gar wissenschaftliche Essays zu schreiben. Das Programm soll m.a.W. gar nicht Wissenschaftler:innen ersetzen, es soll nicht beim Fälschen von eigenen Seminararbeiten verwendet werden.

Aber es kann – so scheint es zumindest – dafür missbraucht werden. Und einige wollen sich nun darüber lustig machen, dass nicht einmal das, wozu es gar nicht programmiert wurde, überzeugend gelingt. Ich verstehe das nicht. Wir haben also die interessante Situation vor uns, dass es ein Programm gibt, das für einen bestimmten Zweck erstellt wurde, dann zweckwidrig verwendet wird und einige nun meinen, damit eine Schwäche des Programms aufzuzeigen. Aber das stimmt ja so nicht.

Stattdessen zeigt es nur die falschen Ansätze derjenigen auf, die es missbrauchen wollten oder die ihm Eigenschaften zugeschrieben haben, die ihm gar nicht innewohnen. Die Frage ist daher, über wen man sich eigentlich lustig machen müsste: das Programm oder die Fragesteller:innen, die, wenn sie etwas über Augen erfahren wollen, sich an Podolog:innen wenden und nicht an Augenärzt:innen, und deshalb nur etwas über Hühneraugen erfahren und nicht über ihre Retina.

Um ein anderes Bild zu verwenden: legendär (im wahren Sinn des Wortes: bloß legendär) ist die Tötung einer Katze in einer Mikrowelle durch ihre Besitzerin, weil diese auf die Aussage der Werbung vertraut hatte, die neue Maschine könne alles, was bisher der alte Backofen geleistet hatte. Sie könne diesen vollständig ersetzen. Und die Besitzerin hatte bisher mit Hilfe des Backofens ihre alte nasse Katze getrocknet.

Sie verklagte die Firma, weil auf der Verpackung nicht gestanden habe, dass das Gerät zum Trocknen von Tieren nicht geeignet sei – und bekam recht. Das ist natürlich nur eine urban legend, scheint mir aber ganz gut das oben skizzierte Verfahren des zweckwidrigen Einsatzes der KI zu beschreiben.

Will man also eine andere als die programmierte Fragestellung beantwortet haben (weil man zum Beispiel dem eigenen wissenschaftlichen Narzissmus frönen möchte), muss man andere Programme nutzen, die nicht als artifizielle Plaudertaschen konzipiert wurden, sondern für die Abbildung wissenschaftlicher Karrieren. Man könnte fürs Renommee selbstironisch das Programm Publish or Perish (veröffentliche oder geh unter) befragen. Dort erfährt man etwas über den Hirsch-Index und die wichtigsten, d.h. meistzitierten Arbeiten von Wissenschaftler:innen.

Man könnte aber auch jene Verbindung nutzen, die Microsofts Suchmaschine Bing neuerdings mit dem Programm ChatGPT eingegangen ist. Die hat den Vorteil, dass sie stärker faktenbasiert arbeitet und aktuelle Quellen aus dem Internet berücksichtigt. Es ist sozusagen immer noch kein Facharzt, aber immerhin näher an dem gewünschten Themengebiet als ein Podologe.

Bing kombiniert zwei Dinge: die sprachliche Qualität des ChatBots mit den Ergebnissen von Microsofts Suchmaschine. Und das Ergebnis wird so präsentiert, das deutlich wird, woher die einzelnen Informationen stammen. Fragt man Bing im neuen Chat-Modus zum Beispiel Wer ist Christoph Markschies? dann antwortet die Suchmaschine nach kurzer Zeit (wobei ich als Qualitätsstufe „normal“ und nicht „präzise“ eingestellt habe) Folgendes:

Ein Vierzeiler mit drei angegebenen Quellen, so dass man sich in etwa ein Urteil über die Qualität der Informationen bilden kann. Vor wenigen Jahren wäre der Verweis auf die Wikipedia noch unzureichend gewesen, der Verweis auf die Selbstauskunft auf den Seiten der Humboldt-Universität müsste durch eine neutrale Quelle gegengeprüft werden, der Verweis auf Erfurt scheint fast kontingent, Markschies ist dort im Universitätsrat.

Ich bitte Bing nun (was mir die Suchmaschine im Chatmodus übrigens auch vorschlägt) um weitergehende biografische Informationen. Und sie liefert das:

Erkennbar stützt Microsoft sich hier primär auf das Munzinger-Archiv, eine kommerzielle Datenbank vor allem für Journalist:innen. Zweite Quelle ist wieder die Wikipedia und die dritte Quelle die Selbstauskunft. Für oberflächliche Informationen reicht das und es ist mehr, als man vielleicht zunächst erwarten würde. Zumindest erkennt man nun, woher die Informationen kommen.

Andererseits ist mir an dieser Stelle nicht einsichtig, wie Bing und die KI die Informationen aus dem Munzinger-Archiv eigentlich auswerten und gewichten: wie entscheiden sie, welche Informationen dort bedeutsam sind und welche nicht? Aber mit Hilfe der drei angegebenen Quellen könnten Interessierte nun weiterschauen, was sie sonst noch an Informationen finden. Das ist die Aufgabe des Chats bei Bing.

Der Microsoft-Chat schlägt mir nun vor, ich solle mich doch einmal für die Publikationen von Christoph Markschies interessieren (oder auch dafür, wo ich sie kaufen kann – man merkt, Microsoft ist ein kommerzielles Unternehmen). Die entsprechende Antwort der Suchmaschine lautet:

Vier Bücher sind als Angaben für einen renommierten Fachwissenschaftler wie Markschies natürlich zu wenig, aber immerhin werden diese Angaben verlinkt, so dass man weiterforschen kann. Die Wikipedia bietet wesentlich mehr und bessere Informationen, ist aber unübersichtlicher und nimmt einem auch nicht die Entscheidung ab, was nun wichtig ist und was nicht. Andererseits ist die Auswahl der wichtigsten Bücher in der obigen Liste nicht wirklich einleuchtend. Ich hätte zumindest erwartet, dass auch die jeweils jüngste Buch-Veröffentlichung eines Forschenden genannt wird oder auch Bücher mit unterschiedlichen Akzentsetzungen.

Ich habe gerade erst drei Fragen gestellt, im Beta-Modus erlaubt mir das Programm im Augenblick acht Fragen zu einem einzelnen Thema. Ich könnte nun hingehen und detaillierter nach den Fakten fragen, die mich interessieren. Aber darum geht es hier nicht. Es ging ja darum, Tools zu nutzen, die dafür gemacht sind, die Fragen, die uns interessieren, schnell und effizient zu beantworten.

Und ChatGPT ist dafür nicht gemacht, wohl aber Bing in Verbindung mit ChatGPT. Und ähnliche Funktionen werden in Kürze alle Suchmaschinen und auch die Textverarbeitungsprogramme bekommen. Hoffentlich wird in der Zwischenzeit noch etwas an der Qualität und den Falsifizierungsalgorithmen gearbeitet. Trotzdem lässt sich sagen, dass Microsofts Bing in der Allianz mit ChatGPT in die richtige Richtung entwickelt. Aber nicht einmal im Ansatz leistet die Chatfunktion von Bing das, was Markschies von ihr erwartet hatte. Das kann und das soll sie auch gar nicht. Ein Kriterium aber, dem sich Bing durchaus unterwirft, ist die faktenbasierte und nachprüfbare Auskunft – was ChatGPT erklärtermaßen nicht tut.

All das kann man Studierenden schnell erklären und ist ihnen auch einsichtig – was sie wahrscheinlich nicht daran hindern wird, dennoch auf Chat-GPT für universitäre Leistungen zurückzugreifen. Zumindest solange, bis sie eine bessere Alternative gefunden haben. Und die wird nicht lange auf sich warten lassen.

Wir sollten uns also auf wissenschaftliche Tugenden besinnen: Instrumente dafür einzusetzen, wofür sie auch gemacht sind, und Auskünfte bei denen einzuholen, die dafür auch ausgebildet (oder programmiert) wurden. Im Kunsthandel wären KIs tatsächlich hilfreich, neben all den angewandten natur- und kunstwissenschaftlichen Methoden auch stilistische Vergleiche vorzunehmen, um Fälschungen zu erkennen. So wie KI auch immer besser darin werden wird, in wissenschaftlichen Texten Plagiate zu erkennen. Es lassen sich für derartige Programme sehr viele, sehr sinnvolle Anwendungsfälle denken. Wer wie ein schlechter Schüler zunächst die Möglichkeiten der Manipulation erkundet, ist auf dem falschen Weg. Er sollte lieber fragen, wobei ihm derartige Programme sinnvoll helfen können.

Aber natürlich gilt auch hier der umgedrehte Hölderlin: Mit dem Rettenden wächst die Gefahr. Das kann nicht abgestritten werden. Schon jetzt kann die von Bing verwendete Chat-GPT dazu missbraucht werden, die Nutzer:innen auszuspionieren. Das hat der Sicherheitsexperte Kai Greshake von der Universität Saarland gezeigt. Weil die Suchmaschine im Chat-Modus z.B. nicht nur die gerade aufgerufene Seite auswertet, sondern alle offenen Tabs, kann es schnell Infos erschleichen, die nicht für die Öffentlichkeit gedacht sind.

Aber selbst, wenn man so etwas abstellen würde, hilft es nicht weiter. Und das liegt in der Logik des Chats. Denn der muss ja wissen, was man liest, um es zusammenfassen oder auswerten zu können. Man kann ihm das (Mit)Lesen schlecht verbieten, ohne ihn seiner Funktionalität zu berauben. (Das ist ähnlich dem Mithören von Alexa.)

Sobald derartige Dinge in der Öffentlichkeit erörtert werden, wird zunehmend auch etwas mehr Ernüchterung und damit auch mehr Zurückhaltung bei der Nutzung dieser Tools einkehren. Vor allem, wenn die KIs demnächst bei längeren Texten mit Wasserzeichen ausgestattet werden (was OpenAI überlegt), dürfte der mediale Spuk schnell vorbei sein und wir können zum vernünftigen und das heißt unaufgeregten Gebrauch dieser Instrumente zurückkehren.

Bis dahin sollte man mit all den schönen und neuen Spielzeugen gelassen spielen. Dabei braucht man nicht überheblich zu sein, sondern kann schauen, was dieses Spielzeug leisten kann, um uns zu unterhalten.

Artikelnachweis: https://www.theomag.de/142/am780.htm
© Andreas Mertin, 2023