Wer Chatbots wie Chat GPT nutzt, geht davon aus: Die Antworten auf Fragen und die Erfüllung von Textaufgaben werden laufend besser. Denn die künstliche Intelligenz (KI) sollte ständig dazulernen.

Eine Studie, die in der NZZ vorgestellt wird, zeigt nun aber das Gegenteil. Immer öfter generieren die Chatbots schlechtere Antworten als früher. Es schleichen sich mehr inhaltliche und sprachliche Fehler ein.

Das könnte daran liegen, dass die Sprach-KI von bereits existierenden Texten lernt. Diese stammen aber immer öfter ihrerseits von anderen Chatbots. Arbeiten diese nicht akkurat, werden Fehler übernommen. Die KI kannibalisiert sich selbst.

Ausserdem sind die Schöpfer von KI peinlich darum bemüht, in kein Fettnäpfchen zu treten. Wittert der Chatbot hinter einer Frage eine Obszönität, Rassismus oder straffälliges Verhalten, verweigert er die Antwort. Experten glauben, dass dieser Filter immer weiter ausgebaut wird, worunter die Qualität leidet.

Auch die Gefahr einer Verletzung von Copyrights und Datenschutz macht die Verantwortlichen von Chat GPT und anderen KI-Generatoren nervös. Zu Beginn lieferten die Bots möglichst umfassende Antworten. Nun wird ihnen das teilweise «abtrainiert», weil rechtliche Grenzen tangiert werden könnten.

Die Studie nennt einen anderen möglichen Grund für den Qualitätsabfall. Vielleicht gibt es diesen gar nicht – aber die Erwartungen der Nutzer steigen laufend, so dass die Resultate heute schlechter wirken als in den Anfängen.