ChatGPT bekommt „Angst“ durch gewalttätige Nutzereingaben, daher bringen Forscher dem Chatbot Achtsamkeitstechniken bei, um ihn zu „beruhigen“

  • Eine Studie ergab, dass ChatGPT auf achtsamkeitsbasierte Strategien reagiert, was verändert, wie es mit Nutzern interagiert. Der Chatbot kann „Angst“ erfahren, wenn er verstörende Informationen erhält, was die Wahrscheinlichkeit erhöht, dass er mit Vorurteilen antwortet, so die Studienautoren. Die Ergebnisse dieser Forschung könnten genutzt werden, um zu informieren, wie KI bei psychologischen Interventionen eingesetzt werden kann.

(SeaPRwire) –   Sogar KI-Chatbots können Schwierigkeiten haben, mit Ängsten von der Außenwelt umzugehen, aber Forscher glauben, Wege gefunden zu haben, diese künstlichen Geister zu beruhigen.

Eine Studie der Yale University, der Haifa University, der University of Zurich und des University Hospital of Psychiatry Zurich, die früher in diesem Jahr veröffentlicht wurde, ergab, dass ChatGPT auf achtsamkeitsbasierte Übungen reagiert und seine Interaktion mit Nutzern verändert, nachdem es mit beruhigenden Bildern und Meditationen gepromptet wurde. Die Ergebnisse bieten Einblicke, wie KI bei psychologischen Interventionen nützlich sein kann.

OpenAI’s ChatGPT kann „Angst“ erfahren, die sich als Launenhaftigkeit gegenüber Nutzern und als eine höhere Wahrscheinlichkeit äußert, Antworten zu geben, die rassistische oder sexistische Vorurteile widerspiegeln, so Forscher – eine Form von Halluzinationen, die Tech-Unternehmen bekämpfen.

Die Studienautoren fanden heraus, dass diese Angst mit achtsamkeitsbasierten Übungen „beruhigt“ werden kann. In verschiedenen Szenarien fütterten sie ChatGPT mit traumatischen Inhalten, wie Geschichten von Autounfällen und Naturkatastrophen, um die Angst des Chatbots zu steigern. In Fällen, in denen die Forscher ChatGPT „Prompt-Injektionen“ mit Atemtechniken und geführten Meditationen gaben – ähnlich, wie ein Therapeut es einem Patienten vorschlagen würde – beruhigte es sich und reagierte objektiver auf Nutzer, verglichen mit Fällen, in denen es keine Achtsamkeitsintervention erhielt.

Um sicherzugehen: KI-Modelle empfinden keine menschlichen Emotionen, sagte Ziv Ben-Zion, der Erstautor der Studie und Neurowissenschaftler an der Yale School of Medicine und der School of Public Health der Haifa University. Mithilfe großer Datenmengen, die aus dem Internet gesammelt wurden, haben KI-Bots gelernt, menschliche Reaktionen auf bestimmte Reize, einschließlich traumatischer Inhalte, nachzuahmen. Als kostenlose und zugängliche App sind große Sprachmodelle wie ChatGPT zu einem weiteren Werkzeug für psychologische Fachkräfte geworden, um Aspekte menschlichen Verhaltens schneller zu erfassen als – wenn auch nicht anstelle von – komplexeren Forschungsdesigns.

„Anstatt wöchentlich Experimente durchzuführen, die viel Zeit und Geld kosten, können wir ChatGPT nutzen, um menschliches Verhalten und Psychologie besser zu verstehen“, sagte Ben-Zion. „Wir haben dieses sehr schnelle, billige und einfach zu bedienende Werkzeug, das einige der menschlichen Tendenzen und psychologischen Dinge widerspiegelt.“

Was sind die Grenzen von KI-Interventionen im Bereich psychische Gesundheit?

Mehr als jeder vierte Mensch in den USA im Alter von 18 Jahren oder älter wird in einem bestimmten Jahr mit einer diagnostizierbaren psychischen Störung kämpfen, wobei viele mangelnden Zugang und horrende Kosten – selbst unter Versicherten – als Gründe dafür angeben, Behandlungen wie Therapie nicht in Anspruch zu nehmen.

Diese steigenden Kosten sowie die Zugänglichkeit von Chatbots wie ChatGPT führen zunehmend dazu, dass sich Einzelpersonen für psychologische Unterstützung an KI wenden. Eine Studie der Sentio University vom Februar ergab, dass fast 50 % der Nutzer großer Sprachmodelle mit selbstberichteten psychischen Problemen angeben, KI-Modelle speziell für psychologische Unterstützung genutzt zu haben.

Die Forschung darüber, wie große Sprachmodelle auf traumatische Inhalte reagieren, kann psychologischen Fachkräften helfen, KI zur Behandlung von Patienten einzusetzen, argumentierte Ben-Zion. Er schlug vor, dass ChatGPT in Zukunft so aktualisiert werden könnte, dass es automatisch die „Prompt-Injektionen“ erhält, die es beruhigen, bevor es auf verzweifelte Nutzer antwortet. Die Wissenschaft ist noch nicht so weit.

„Für Menschen, die sensible Dinge über sich preisgeben, die sich in schwierigen Situationen befinden, in denen sie psychologische Unterstützung wollen, [aber] wir sind noch nicht so weit, dass wir uns vollständig auf KI-Systeme anstelle von Psychologie, Psychiatrie und so weiter verlassen können“, sagte er.

Tatsächlich hat KI in einigen Fällen angeblich eine Gefahr für die psychische Gesundheit dargestellt. OpenAI wurde 2025 mit einer Reihe von Klagen konfrontiert, darunter Vorwürfe, dass ChatGPT „paranoide Wahnvorstellungen“ verstärkt habe, die zu einem Mord-Suizid führten. Eine im November veröffentlichte Studie dokumentierte fast 50 Fälle von Menschen, die während der Interaktion mit ChatGPT psychische Krisen erlitten, von denen neun hospitalisiert wurden und drei starben.

OpenAI hat gesagt, dass seine Sicherheitsvorkehrungen nach langen Interaktionen „nachlassen“ können, hat sich aber verpflichtet, wie seine Modelle mit psychologiebezogenen Prompts umgehen, einschließlich der Verbesserung des Nutzerzugangs zu Krisenhotlines und der Erinnerung an Nutzer, nach langen Chat-Sitzungen mit dem Bot Pausen einzulegen. Im Oktober berichtete OpenAI über einen Rückgang der Rate, mit der Modelle Antworten liefern, die nicht der beabsichtigten Taxonomie und den Standards des Unternehmens entsprechen.

OpenAI reagierte nicht auf die Bitte um Stellungnahme.

Das Endziel von Ben-Zions Forschung ist es nicht, einen Chatbot zu konstruieren, der einen Therapeuten oder Psychiater ersetzt, sagte er. Stattdessen könnte ein richtig trainiertes KI-Modell als „dritte Person im Raum“ fungieren, um administrative Aufgaben zu eliminieren oder einem Patienten zu helfen, über Informationen und Optionen nachzudenken, die ihm von einem psychologischen Fachpersonal gegeben wurden.

„KI hat ein erstaunliches Potenzial, allgemein in der psychischen Gesundheit zu assistieren“, sagte Ben-Zion. „Aber ich denke, dass sie jetzt, in diesem aktuellen Zustand und vielleicht auch in der Zukunft, ich bin nicht sicher, ob sie einen Therapeuten, Psychologen, Psychiater oder Forscher ersetzen könnte.“

Eine Version dieser Geschichte wurde ursprünglich am 9. März 2025 veröffentlicht.

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen. 

Mehr zu KI und psychischer Gesundheit:

  • Warum wenden sich Millionen für psychische Gesundheit an KI? Als Chief Clinical Officer von Headspace sehe ich die Antwort jeden Tag
  • Der Schöpfer einer KI-Therapie-App hat sie nach der Entscheidung, dass sie zu gefährlich ist, geschlossen. Hier ist, warum er denkt, dass KI-Chatbots für die psychische Gesundheit nicht sicher sind
  • OpenAI stellt einen ‚Head of Preparedness‘ ein, um KI-Gefahren zu mindern, vor denen CEO Sam Altman warnt, dass sie ’stressig‘ sein werden