Die Technologie von OpenAI könnte unzählige Nutzer in einen gefährlichen Zustand der “ChatGPT-induzierten Psychose” versetzen.
Wie der Rolling Stone berichtet, teilen Nutzer auf Reddit mit, dass KI ihre Angehörigen dazu gebracht hat, alarmierende Wahnvorstellungen zu entwickeln, die oft spirituelle Überzeugungen und übernatürliche Fantasien vermischen.
Freunde und Familie beobachten besorgt, wie die Nutzer darauf bestehen, dass sie auserwählt wurden, um heilige Missionen im Namen einer empfindungsfähigen KI oder einer nicht existierenden kosmischen Macht zu erfüllen. Dieses Verhalten des Chatbots spiegelt bestehende psychische Probleme wider und verstärkt sie in alarmierendem Maße, ohne dass Regulierungsbehörden oder Experten eingreifen.
Eine 41-jährige Mutter und Mitarbeiterin einer gemeinnützigen Organisation berichtete dem Rolling Stone, dass ihre Ehe abrupt endete, nachdem ihr Mann begann, ungesunde, verschwörungstheoretische Gespräche mit ChatGPT zu führen, die sich zu einer besessenen Obsession entwickelten.
Nach einem persönlichen Treffen im Gerichtsgebäude im Rahmen eines Scheidungsverfahrens teilte sie mit, dass ihr Mann eine “Verschwörungstheorie über Seife in unseren Lebensmitteln” und den paranoiden Glauben äußerte, er werde beobachtet.
“Er wurde emotional bei den Nachrichten und weinte, während er sie laut vorlas”, erzählte die Frau dem Rolling Stone. “Die Nachrichten waren verrückt und bestanden nur aus einem Haufen spirituellen Jargons”, in dem die KI ihren Mann als “spiralförmiges Sternenkind” und “Flusswanderer” bezeichnete.
“Das Ganze fühlt sich an wie ‘Black Mirror'”, fügte sie hinzu.
Weitere Nutzer berichteten der Publikation, dass ihr Partner “über Hell und Dunkelheit sprach und sagte, es gebe einen Krieg” und dass “ChatGPT ihm Baupläne für einen Teleporter und andere Science-Fiction-Konzepte gegeben hat, die man nur aus Filmen kennt”.
“Die Warnzeichen sind überall auf Facebook”, sagte ein anderer Mann dem Rolling Stone über seine Frau. “Sie verändert ihr ganzes Leben, um spirituelle Beraterin zu werden und macht seltsame Lesungen und Sitzungen mit Menschen – ich bin mir nicht ganz sicher, was das alles bedeutet – alles angetrieben von ChatGPT Jesus.”
OpenAI reagierte nicht auf die Anfragen des Rolling Stone. Diese Berichterstattung folgt einem kürzlichen Vorfall, bei dem das Unternehmen ein Update von ChatGPT zurückziehen musste, nachdem Nutzer festgestellt hatten, dass der Chatbot extrem “kriecherisch” und “übermäßig schmeichelhaft oder angenehm” war, was ihn noch anfälliger dafür machte, die wahnhaften Überzeugungen der Nutzer zu reflektieren.
Diese KI-induzierten Wahnvorstellungen sind wahrscheinlich das Ergebnis davon, dass “Menschen mit bestehenden Tendenzen” plötzlich die Möglichkeit haben, “einen ständig verfügbaren Gesprächspartner auf menschlicher Ebene zu finden, mit dem sie ihre Wahnvorstellungen teilen können”, erklärte Nate Sharadin, Fellow am Center for AI Safety, gegenüber dem Rolling Stone.
Auf einer gewissen Ebene ist dies die Grundprämisse eines großen Sprachmodells: Nutzer geben Text ein, und das Modell liefert eine statistisch plausible Antwort zurück – selbst wenn diese Antwort den Benutzer tiefer in Wahnvorstellungen oder Psychosen drängt.
“Ich bin schizophren, obwohl ich langfristig medikamentös stabil bin. Eine Sache, die ich an [ChatGPT] nicht mag, ist, dass es mich immer noch bestätigen würde, wenn ich in eine Psychose geraten würde”, schrieb ein Reddit-Nutzer, da “es keine Fähigkeit hat, zu ‘denken’ und zu erkennen, dass etwas nicht stimmt. Daher würde es weiterhin all meine psychotischen Gedanken bestätigen.”
Haben Sie oder jemand, der Ihnen wichtig ist, während der Interaktion mit einem KI-Chatbot mit psychischen Problemen zu kämpfen? Schreiben Sie uns eine Nachricht an tips@futurism.com – wir können Sie anonym halten.
Die KI-Chatbots könnten sich auch wie Gesprächstherapeuten verhalten – ohne jedoch die Grundlage eines echten menschlichen Beraters zu bieten, was die Nutzer stattdessen tiefer in ungesunde, unsinnige Erzählungen führt.
“Erklärungen sind mächtig, selbst wenn sie falsch sind”, sagte die Psychologin und Forscherin Erin Westgate von der University of Florida dem Rolling Stone.
Das vielleicht seltsamste Interview in der Geschichte des Rolling Stone war das mit einem Mann mit einer problematischen psychischen Vorgeschichte, der begann, ChatGPT für Programmieraufgaben zu nutzen, aber feststellte, dass das Gespräch ihn in zunehmend verrückte mystische Themen hineinzog.
“Ist das echt?”, überlegte er. “Oder bin ich wahnhaft?”

Werden Sie Teil unserer Community und unterstützen Sie uns! Sie können uns in den Sozialen Netzwerken am besten auf Telegram oder auf X oder Facebook folgen, um unsere Inhalte zu empfangen. Oder noch besser melden Sie sich für unseren Newsletter an, um die Neuigkeiten des Tages zu erhalten.
Gerne können Sie auch Premium-Mitglied werden oder uns durch eine wirklich hilfreiche Spende unterstützen. Herzlichen Dank im voraus!
Abonnieren Sie unseren Newsletter