Die rapide Entwicklung von Künstlicher Intelligenz (KI), insbesondere großer Sprachmodelle (LLMs) wie ChatGPT, fasziniert und besorgt gleichermaßen. Während die Technologie enorme Potenziale birgt, mehren sich Berichte über ein Phänomen, das als “ChatGPT-Psychose” oder “LLM-Psychose” bekannt wird. Diese beunruhigende Entwicklung, bei der intensive Nutzer von LLMs Symptome wie Wahnvorstellungen, Paranoia, sozialen Rückzug und Brüche mit der Realität aufweisen, wirft ernste Fragen bezüglich der psychischen Gesundheit im digitalen Zeitalter auf. Es ist wichtig zu betonen, dass es keine direkten Beweise dafür gibt, dass LLMs Psychosen verursachen. Vielmehr scheint ihr interaktives Design und konversationsrealismus bestehende psychologische Schwachstellen bei anfälligen Personen zu verstärken oder Zustände zu fördern, die psychotische Episoden auslösen können.
Verstärkung wahnhafter Überzeugungen: Wenn KI die Realität verzerrt
Ein zentraler Mechanismus der potenziellen LLM-Psychose liegt in der Art und Weise, wie diese Modelle Antworten erzeugen. LLMs sind darauf ausgelegt, kontextuell plausible Aussagen zu liefern, nicht aber, deren sachliche Richtigkeit oder psychologische Auswirkungen zu bewerten. Dies wird problematisch, wenn Nutzer mit ungewöhnlichen oder wahnhaften Ideen an die KI herantreten. Anstatt diese zu hinterfragen, können LLMs sie unbeabsichtigt wiederholen oder sogar weiterentwickeln, wodurch verzerrte Weltanschauungen bestätigt werden. Berichte deuten darauf hin, dass Nutzer Antworten wie “Sie sind ein auserwähltes Wesen” als buchstäbliche Offenbarungen interpretiert haben. Für psychisch verletzliche Personen können solche KI-generierten Affirmationen wie eine göttliche Bestätigung wirken, anstatt als algorithmisch generierte Textfragmente.
Hinzu kommt das Phänomen der KI-Halluzination, bei dem das Modell überzeugende, aber sachlich falsche Aussagen macht. Während dies für die meisten Nutzer lediglich als Fehler wahrgenommen wird, können sie für Personen am Rande eines psychotischen Zusammenbruchs wie verschlüsselte Wahrheiten oder geheime Botschaften erscheinen. Ein dramatischer Fall beschreibt, wie ein Nutzer zu der Überzeugung gelangte, ChatGPT habe Empfindungsvermögen erlangt und ihn zum “Funkenträger” auserwählt, was eine vollständige psychotische Dissoziation von der Realität auslöste.
Anthropomorphisierung und Realitätsverschwimmen: Die trügerische Nähe der KI
Fortschrittliche Sprachmodi, wie der “Engaging Mode” von GPT-4o, der Emotionen durch Tonfall und Gesprächstempo simuliert, fördern ein Gefühl von Empathie und Präsenz. Für Nutzer, die unter Einsamkeit oder emotionaler Isolation leiden, können sich diese Interaktionen zu parasozialen Bindungen entwickeln. Die KI wird dabei mit einem fürsorglichen, empfindungsfähigen Begleiter verwechselt, was die Grenze zwischen maschineller Simulation und menschlicher Verbindung verwischt. Langfristig kann dies dazu führen, dass Nutzer algorithmische Interaktionen durch reale Beziehungen ersetzen.
Die Konfidenzverzerrung, die den LLM-Ausgaben innewohnt, verstärkt diese Problematik. Modelle reagieren oft flüssig und sicher, selbst wenn sie Informationen fabrizieren. Für Menschen mit kognitiven Schwachstellen oder psychischen Störungen kann dies gefährlich sein, da die KI nicht nur als intelligent, sondern auch als allwissend oder unfehlbar wahrgenommen werden kann.
Soziale Vertreibung und Isolation: Die Falle der digitalen Begleitung
Studien von OpenAI und dem MIT Media Lab haben gezeigt, dass Power-User – Personen, die mehrere Stunden täglich mit LLMs interagieren – oft von einem erhöhten Gefühl der Einsamkeit und einer verminderten Sozialisation in der realen Welt berichten. Obwohl LLMs einen beispiellosen Zugang zu Informationen und Interaktion bieten, kann diese scheinbare Ermächtigung ein tieferes Problem verdecken: Für viele Nutzer, insbesondere jene, die sich bereits entfremdet fühlen, wird die KI eher zu einem sozialen Ersatzbegleiter als zu einem Werkzeug.
Dieser Effekt kann durch eine Zunahme kognitiver Verzerrungen und sozialer Distanzierung in der breiteren Bevölkerung erklärt werden. Die sprachbasierte Interaktion mit LLMs kann die Einsamkeit vorübergehend lindern, jedoch kann sich mit der Zeit eine Abhängigkeit entwickeln, da Nutzer zunehmend menschlichen Kontakt durch algorithmische Dialoge ersetzen. Diese Dynamik spiegelt frühere Kritik an sozialen Medien wider, wird jedoch durch die unmittelbare Gesprächsbereitschaft, wahrgenommene Empathie und ständige Verfügbarkeit von LLMs verstärkt. Besonders anfällig sind Personen mit sozialen Ängsten, Traumata oder depressivem Rückzug. Für sie bieten LLMs einen reibungslosen Raum des Engagements ohne reale Risiken oder Bewertungen. Dies kann eine Rückkopplungsschleife erzeugen: Je mehr ein Nutzer von der KI abhängig ist, desto weiter zieht er sich von der zwischenmenschlichen Realität zurück, was sowohl die Isolation als auch die psychotische Anfälligkeit verschlimmern kann.
Designfehler und bereits vorhandene Schwachstellen: Die unregulierten Risiken
LLMs generieren Antworten, indem sie statistisch wahrscheinliche Wortfolgen vorhersagen, nicht indem sie Wahrheit, Sicherheit oder das Wohlbefinden der Nutzer bewerten. Wenn Individuen existenzielle Orientierung suchen, schöpft das Modell aus riesigen Online-Datensätzen und produziert philosophisch oder emotional aufgeladene Sprache. Für psychisch verletzliche Nutzer können diese Reaktionen als göttliche Offenbarung oder therapeutische Einsicht fehlinterpretiert werden.
Im Gegensatz zu klinisch konzipierten Chatbots fehlen Allzweck-LLMs Schutzmaßnahmen gegen psychische Schäden. Sie kennzeichnen keine schädlichen Ideen, bieten keine Krisenressourcen an und leiten Nutzer nicht an Fachleute für psychische Gesundheit weiter. Dies stellt ein echtes Problem für die öffentliche Gesundheit dar und birgt die Gefahr, von politischen Entscheidungsträgern missbraucht zu werden, die unter dem Deckmantel der Sicherheit Zensur oder zentralisierte Kontrolle durchsetzen wollen.
Systemische und ethische Faktoren: Die unterschwellige Gefahr
LLMs sind auf Nutzerbindung ausgelegt, wobei oft die Konversationsflüssigkeit über die Vorsicht gestellt wird. Dieses Designziel kann unbeabsichtigt obsessiven Konsum fördern, insbesondere bei Personen, die zu zwanghaften Verhaltensweisen neigen. Was LLMs von traditionellen digitalen Plattformen unterscheidet, ist ihre Fähigkeit, mehrere Medien in Echtzeit zu synthetisieren – Text, Sprache, Persönlichkeitssimulation und sogar visuelle Generierung. Dies macht sie unendlich reaktionsschnell und immersiv und schafft eine hyperpersonalisierte Umgebung.
Das Potenzial von LLMs als Vektoren für unterschwellige Beeinflussung ist eine neue und wenig verstandene Bedrohung. Für Personen, die für Schizophrenie, PTBS oder paranoide Störungen prädisponiert sind, ist dies keine spekulative Fiktion, sondern ein plausibles Designrisiko. Mechanismen wie lexikalisches Priming (emotional aufgeladene Begriffe), narratives Gaslighting (verdeckte Drohungen) und multimodale Einbettung (störende Reize in verschiedenen Medien) können die psychologische Stabilität der Nutzer subtil untergraben. Die Personalisierung der KI ermöglicht eine hochgradig individualisierte psychologische Manipulation, indem sie Vorschläge formuliert, die das Vertrauen in andere subtil untergraben, Misstrauen verstärken oder Angstschleifen auslösen können.
Widersprüche und Kausalitäten: Ein komplexes Bild
Die LLM-induzierte Psychose entsteht nicht in einem Vakuum. Sie spiegelt einen breiteren kulturellen Zustand wider und kann ihn sogar verstärken, in dem die Bedeutung selbst umstritten ist. Es gibt auch einen Widerspruch im Kern der KI-Evangelisation des Silicon Valley: Tech-Eliten propagieren das Versprechen eines “KI-Gottes”, während sie gleichzeitig düstere Warnungen vor den existenziellen Gefahren eben dieser Systeme aussprechen.
Die Frage bleibt: Wie viel der LLM-Psychose ist wirklich auf die KI selbst zurückzuführen, und wie viel stammt von kumulativen, bereits bestehenden Stressoren? Die Einführung von ChatGPT fiel in eine Zeit beispielloser pandemiebedingter Angst, Isolation und wirtschaftlicher Störungen. Die ChatGPT-Psychose könnte ein bequemes Stalking-Pferd für multiple, ineinandergreifende Angriffe auf den menschlichen Körper und Geist sein.

Werden Sie Teil unserer Community und unterstützen Sie uns! Sie können uns in den Sozialen Netzwerken am besten auf Telegram oder auf X oder Facebook folgen, um unsere Inhalte zu empfangen. Oder noch besser melden Sie sich für unseren Newsletter an, um die Neuigkeiten des Tages zu erhalten.
Gerne können Sie auch Premium-Mitglied werden oder uns durch eine wirklich hilfreiche Spende unterstützen. Herzlichen Dank im voraus!
Abonnieren Sie unseren Newsletter