Kürzlich las ich einen Text für eine Tourismusorganisation Korrektur. Dabei stolperte ich über den folgenden Satz (hier leicht abgeändert):
«In Beispieldorf lädt ein Besuch im Museum zum Verschnaufen.»
Lädt zum Verschnaufen? Mein Sprachgefühl sagte mir, dass es nicht «laden», sondern «einladen» heissen musste. Aber ich war verunsichert, denn im Text kam die gleiche Formulierung nochmals vor. Um keine Zeit zu verlieren, konsultierte ich ChatGPT.
«Ist dieser Satz so korrekt?», fragte ich die KI.
«Ja», kam es prompt von der Maschine zurück. «Der Satz ‘In Beispieldorf lädt ein Besuch im Museum zum Verschnaufen‘ ist grammatisch korrekt.»
Wirklich? In meinen Ohren klang es immer noch falsch.
«Confirmation Bias» oder der Bestätigungsfehler
Nun ist aus der Psychologie ein Phänomen bekannt, das sich «Confirmation Bias» nennt. Dahinter steckt die Erkenntnis, dass wir Menschen eine unbewusste Tendenz haben, jenen Informationen zu glauben, die unsere eigene Sichtweise bestätigen. Informationen, die unserer Überzeugung zuwiderlaufen, stehen wir hingegen skeptisch oder ablehnend gegenüber. Bei der «Confirmation Bias» handelt es sich also um eine kognitive Denkverzerrung. Auf Deutsch nennt sich das Phänomen «Bestätigungsfehler».
Die Satzvariante «Ein Besuch lädt zum Verschnaufen» bestätigte nun ganz und gar nicht meine Sichtweise. Damit hatte ich Glück, denn meine Skepsis veranlasste mich, bei ChatGPT nachzuhaken. «Muss es nicht heissen: ‘… lädt ein Besuch zum Verschnaufen ein‘?», fragte ich.
Dieses Mal antwortet ChatGPT – Achtung, Trommelwirbel:
«Ja, Sie haben recht. Der Satz sollte tatsächlich lauten: ‘In Beispieldorf lädt ein Besuch im Museum zum Verschnaufen ein.‘ Dies folgt der korrekten Struktur des deutschen trennbaren Verbs einladen.»
«Na also! Blöde Maschine», dachte ich. «Hat mich das Ding beim ersten Mal doch brandschwarz angelogen.»
Künstliche Sprachmodelle halluzinieren
Denn das hatte ChatGPT – wobei es in der Fachsprache nicht lügen heisst, was hier passiert war. Sondern das künstliche Sprachmodell hatte «halluziniert». So bezeichnen KI-Fachleute die Tendenz dieser Modelle, Dinge frei zu erfinden. Das heisst: Nicht immer, aber ab und zu geben ChatGPT und Co. Antworten, die zwar überzeugend klingen, aber nachweislich falsch sind. Die KI-Fachleute wissen um das Problem, konnten es bis jetzt aber nicht aus der Welt schaffen.
Besonders gemein ist: Sind Sie ein Laie in einem bestimmten Gebiet, können Sie gar nicht beurteilen, ob eine Aussage wahr ist oder ob gerade halluziniert wird. Will ich zum Beispiel etwas über Quantenphysik erfahren – von der ich null Ahnung habe – und ChatGPT erzählt mir etwas darüber, bin ich im Prinzip genauso schlau wie vorher. Ich habe zwar eine Antwort, aber der Chatbot kann mir auch ein Märchen aufgetischt haben. Ich kann es nicht wissen.
Halluzinationen und «Confirmation Bias» – im Doppelpack brandgefährlich
Doch richtig problematisch wird es, wenn ich von einem bestimmten Gebiet eine halbe Ahnung habe. Angenommen, ChatGPT präsentiert mir jetzt eine Geschichte, die mich in meinem Halbwissen bestätigt, die jedoch kreuzfalsch ist. Meine menschliche Tendenz, das zu glauben, was ich zu wissen meine – die «Confirmation Bias» – führt mich zusammen mit der KI-Halluzination also ins totale Abseits.
Im obigen Beispiel hatte ich Glück, denn ChatGPTs Antwort lief meiner ursprünglichen Annahme zuwider. Insofern half mir die «Confirmation Bias», misstrauisch zu bleiben.
Wieder fragte ich ChatGPT, diesmal leicht angesäuert: «Woher weiss ich nun, welche Variante korrekt ist?»
ChatGPT: «Um festzustellen, welche Variante korrekt ist, können Sie sich auf zwei wesentliche Aspekte konzentrieren: die Grammatikregeln der deutschen Sprache und den Kontext des Satzes.»
Mir reichte es. Ich tat, was ich schon von Anfang an hätte tun sollen: Ich schaute im Duden nach. Dort gibt es keine Halluzinationen, sondern nur von Experten zusammengetragene, verlässliche Informationen. Diese sind im Zeitalter der künstlichen Intelligenz wertvoller als je zuvor.
(PS: Falls Sie die richtige Antwort wissen möchten: Es heisst «einladen», nicht «laden».)