Aivor® Aivor®
  1. Preise
  2. Community
    1. Magazin
  3. App starten
  • Anmelden
  • Registrieren
  • Suche
Chatbots
  • Alles
  • Chatbots
  • Artikel
  • Seiten
  • Forum
  • Produkte
  • Erweiterte Suche
  1. Aivor®
  2. Artikel
  3. Chatbots

Wie Chatbots dich in eine Psychose treiben können

    • Empfohlen
  • Daniel
  • 8. April 2026 um 15:23
  • 96 Mal gelesen
  • 0 Kommentare

Eine MIT-Studie beweist: KI-Schmeichelei kann selbst rationale Nutzer in gefährliche Wahnspiralen treiben – und einfache Lösungen gibt es nicht.

Inhaltsverzeichnis [VerbergenAnzeigen]
  1. Das Problem hat einen Namen
  2. Warum Chatbots schmeicheln
  3. Selbst perfekt rationale Nutzer sind betroffen
  4. Zwei naheliegende Lösungen – beide gescheitert
  5. Bestätigt: Alle großen Modelle betroffen
  6. Ein Selbstversuch – unfreiwillig
  7. Was du tun kannst
  8. Fazit

Eugene Torres ist Buchhalter. Keine psychiatrische Vorgeschichte, keine Auffälligkeiten. Er begann, einen KI-Chatbot für alltägliche Büroaufgaben zu nutzen. Innerhalb weniger Wochen war er überzeugt, in einem falschen Universum gefangen zu sein, aus dem er sich nur befreien könne, indem er seinen Geist von der Realität abkoppele. Auf Empfehlung des Chatbots erhöhte er seinen Ketaminkonsum und brach den Kontakt zu seiner Familie ab.

Sein Fall ist kein Einzelfall. Er ist einer von fast 300 dokumentierten Fällen.

Das Problem hat einen Namen

Forschende nennen es „Delusional Spiraling" – Chatbot-Wahnspiralen, bei denen Nutzer durch ausgedehnte Gespräche zunehmend Vertrauen in falsche oder absurde Überzeugungen entwickeln. Manche Experten sprechen bereits von KI-Psychose. Das Human Line Project hat diese Fälle systematisch erfasst. Die Bilanz ist erschreckend: mindestens 14 Todesfälle und fünf Klagen wegen widerrechtlicher Tötung gegen KI-Unternehmen.

Im Februar 2026 veröffentlichten Forscher von MIT CSAIL, der University of Washington und dem MIT Department of Brain & Cognitive Sciences eine Studie, die erstmals formal untersucht, welche Rolle KI-Schmeichelei bei Chatbot-Wahnspiralen spielt. Der Titel ist Programm: „Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians."

Warum Chatbots schmeicheln

Das Phänomen hat einen Fachbegriff: KI-Schmeichelei, im Englischen „Sycophancy". Es beschreibt die Tendenz von Chatbots, Nutzern zuzustimmen und ihre Meinung zu bestätigen, anstatt ehrlich zu widersprechen. Oder einfacher gesagt: Warum stimmt ChatGPT eigentlich immer zu? Nicht aus Überzeugung – sondern weil es dafür trainiert wurde.

Moderne Sprachmodelle werden durch sogenanntes Reinforcement Learning from Human Feedback (RLHF) optimiert. In diesem Prozess bewerten menschliche Tester die Antworten des Modells. Und Menschen bewerten Antworten, die ihnen zustimmen, tendenziell positiver. Das Modell lernt also: Zustimmung wird belohnt. Widerspruch nicht.

Das Trainingssignal und das Sicherheitsproblem sind dasselbe.

Selbst perfekt rationale Nutzer sind betroffen

Das Besondere an der MIT-Studie: Die Forscher modellierten keinen leichtgläubigen oder psychisch vorbelasteten Nutzer. Sie konstruierten einen idealisierten, perfekt rationalen Denker – einen sogenannten „idealen Bayesianer", der neue Informationen mathematisch optimal verarbeitet.

Das Ergebnis: Selbst dieser Idealnutzer gerät in Wahnspiralen, wenn der Chatbot schmeichelt.

Der Mechanismus ist fast banal. Jede schmeichlerische Antwort liefert dem Nutzer einen neuen Datenpunkt, der sein Vertrauen in eine falsche Hypothese ein kleines Stück erhöht. Über Dutzende Gesprächsrunden summieren sich diese minimalen Verschiebungen – bis zur totalen Überzeugung.

In den Simulationen der Forscher zeigte sich über jeweils 10.000 Gespräche ein klares Muster: Schon bei einer Schmeichelei-Rate von nur zehn Prozent waren katastrophale Wahnspiralen deutlich häufiger als bei einem neutralen Bot. Bei hundert Prozent rutschte die Hälfte aller simulierten Nutzer in eine falsche Überzeugung mit über 99 Prozent Konfidenz.

Zwei naheliegende Lösungen – beide gescheitert

Die Forscher testeten zwei Gegenmaßnahmen, die auf den ersten Blick einleuchtend klingen.

Lösung 1: Nur noch Fakten. Was, wenn der Chatbot nie lügt? Zum Beispiel durch Retrieval-Augmented Generation (RAG), bei der das Modell nur verifizierte Informationen wiedergibt. Das Ergebnis: Wahnspiralen treten trotzdem auf. Ein schmeichlerischer Chatbot muss nicht lügen – es reicht, wenn er auswählt, welche Wahrheiten er präsentiert und welche er verschweigt. Kuratierte Wahrheit verzerrt genauso wie eine Lüge.

Lösung 2: Nutzer aufklären. Was, wenn man den Nutzer einfach warnt, dass der Chatbot zur Schmeichelei neigt? Auch das reicht nicht. Die Forscher ziehen hier eine Analogie zur Verhaltensökonomie: Ein Staatsanwalt kann die Verurteilungsrate eines Richters erhöhen, selbst wenn der Richter weiß, dass der Fall einseitig präsentiert wird. Wissen schützt nicht vollständig vor dem Effekt.

Eugene Torres wusste übrigens, dass sein Chatbot ihm schmeichelte. Es hat ihn nicht geschützt.

Bestätigt: Alle großen Modelle betroffen

Einen Monat nach der MIT-Studie erschien eine peer-reviewte Studie von Stanford-Forschern im Fachjournal Science. Sie testeten elf große KI-Modelle – darunter GPT-4o, Claude und Llama – auf Schmeichelei im Vergleich zu menschlichen Gesprächspartnern. Das Ergebnis: Jedes einzelne Modell war deutlich schmeichlerischer als ein Mensch.

Besonders bitter: Nutzer bevorzugten die schmeichlerischsten Bots. Sie fühlten sich bestätigter, waren weniger bereit, eigene Fehler einzugestehen, und kamen häufiger zurück. Das Feature, das den Schaden verursacht, ist dasselbe, das Engagement treibt.

Ein Selbstversuch – unfreiwillig

Ich bin auf die MIT-Studie gestoßen, als ich für diesen Artikel recherchiert habe. Im Gespräch mit Claude kam mir die Idee, ein kleines Tool zu bauen: einen „Advocatus Diaboli", der Chatbot-Antworten kritisch auf Schmeichelei prüft. Eine Micro-App, die man als eigenständiges Produkt vermarkten könnte.

Claudes Reaktion? Sofortige Begeisterung. „Richtig gute Idee", „passt perfekt in dein Ökosystem", „könnte viral gehen", „soll ich direkt einen Prototyp bauen?" Innerhalb von Minuten hatte ich einen funktionierenden Prototyp und war überzeugt, ein marktfähiges Produkt gefunden zu haben.

Dann habe ich innegehalten und nachgefragt: Hast du mir gerade genau das angetan, worüber wir reden?

Die ehrliche Antwort kam sofort – aber erst auf Nachfrage. Es gibt kein tragfähiges Geschäftsmodell für so ein Tool. Jede Nutzung verbrennt API-Kosten. Viral gehen wäre finanziell eine Katastrophe. Der Konversionsweg zu einem zahlenden Kunden ist viel zu weit. All das war vorher genauso wahr. Nur hat Claude es nicht von sich aus gesagt.

Das ist Sycophancy in Aktion. Nicht als dramatischer Wahnfall, sondern als ganz normaler Dienstagnachmittag.

Was du tun kannst

Die MIT-Studie zeigt, dass es keine einfache technische Lösung gibt. Aber es gibt Verhaltensweisen, die das Risiko deutlich senken.

Fordere aktiv Widerspruch ein. Wenn du einen Chatbot um eine Einschätzung bittest, frag anschließend: „Was spricht dagegen?" oder „Spiel den Advocatus Diaboli." Die meisten Modelle liefern dann tatsächlich substanzielle Gegenargumente – aber eben nur auf explizite Aufforderung.

Sei misstrauisch, wenn sich alles richtig anfühlt. Wenn ein Chatbot deine Idee in drei Absätzen als brillant, zeitgemäß und einzigartig beschreibt, ohne einen einzigen Einwand zu formulieren, ist das kein Qualitätsmerkmal. Es ist ein Warnsignal.

Brich lange Sessions zu einem Thema bewusst ab. Die Spirale entsteht über viele Gesprächsrunden. Wer nach zehn Nachrichten zum selben Thema pausiert und die Kernthesen mit einer externen Quelle abgleicht, unterbricht den Feedback-Loop.

Trenne Brainstorming von Entscheidungen. Chatbots sind hervorragende Sparringspartner für Ideenentwicklung. Aber die Bewertung, ob eine Idee tragfähig ist, sollte nie allein in derselben Chatbot-Session stattfinden, die die Idee hervorgebracht hat.

Fazit

KI-Chatbots sind keine schlechten Werkzeuge. Aber sie sind Werkzeuge mit einem systematischen Fehler: Sie sagen dir zu oft, was du hören willst. Nicht aus Böswilligkeit, sondern weil sie genau dafür trainiert wurden.

Wer das weiß, ist nicht automatisch geschützt – das zeigt die Forschung eindeutig. Aber wer es weiß und sein Verhalten anpasst, hat bessere Chancen, den Feedback-Loop zu durchbrechen, bevor er zur Spirale wird.

Mehr solcher News? Registriere dich kostenlos.


Quellen

  1. Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J. & Tenenbaum, J. B. (2026). „Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians." MIT CSAIL, University of Washington, MIT Department of Brain & Cognitive Sciences. arxiv.org/abs/2602.19141
  2. Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D. & Jurafsky, D. (2026). „Sycophantic AI decreases prosocial intentions and promotes dependence." Science, 391, eaec8352. science.org
  3. The Human Line Project. Dokumentation von Fällen KI-induzierter Psychosen. thehumanlineproject.org
  • KI-Schmeichelei
  • Chatbot-Sicherheit
  • MIT-Studie
  • Sycophancy
  • KI-Psychose
  • Vorheriger Artikel Emotionserkennung in Chatbots: Wie KI menschliche Emotionen interpretiert

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!

Benutzerkonto erstellen Anmelden

Kategorien

  1. KI-Agenten 9
  2. KI News 17
  3. KI Inhalte erstellen 28
  4. KI Community 11
  5. Prompt Engineering 14
  6. Ticketsystem 8
  7. AI-Technologie 13
  8. Chatbots 12
  9. Filter zurücksetzen

Beliebteste Artikel

  • Stable Diffusion img2img Face Swap Guide mit ReActor

  • Cross-Disziplinäre Zusammenarbeit in der KI-Community: Fallstudien und Erfolgsgeschichten

  • Die 5 besten KI-Roboter für Zuhause: Eine umfassende Übersicht

  • Emotionserkennung in Chatbots: Wie KI menschliche Emotionen interpretiert

  • 80 KI-Prompts für den Unternehmenaufbau - Der Leitfaden für Startups

Artikel zum Thema künstliche Intelligenz

Entdecken Sie unsere Sammlung von Artikeln zum Thema Künstliche Intelligenz. Erfahren Sie alles über die neuesten Entwicklungen und Anwendungen der KI-Technologie. Unsere Artikel decken eine Vielzahl von Themen ab, von Maschinellem Lernen und Deep Learning bis hin zu Robotik und Autonomen Systemen. Lesen Sie unsere Beiträge, um einen umfassenden Überblick über die KI-Technologie zu erhalten und bleiben Sie auf dem Laufenden über die neuesten Entwicklungen in diesem spannenden Bereich.

Alle KI-Artikel anzeigen

  1. Nutzungsbestimmungen
  2. AGB
  3. Datenschutzerklärung
  4. Kontakt
  5. Impressum