ChatGPT muss auf die Couch
Studien zeigen, dass ChatGPT auch auf emotionale Inhalte reagiert, insbesondere wenn es um negative Geschichten von traumatisierten Menschen oder Aussagen zu Niedergeschlagenheit und Depression geht.
Angst beeinflusst die kognitiven und sozialen Vorurteile: Menschen neigen zu mehr Ressentiments und soziale Stereotypen werden verstärkt. Ähnlich reagiert ChatGPT auf negative Emotionen: Bestehende Verzerrungen wie menschliche Vorurteile werden durch negative Inhalte verschärft, so dass sich ChatGPT rassistischer oder sexistischer verhält.
Forschende der Universität Zürich und der Psychiatrischen Universitätsklinik Zürich (UZH) haben nun erstmals systematisch untersucht, wie ChatGPT (Version GPT-4) auf emotional belastende Geschichten – Autounfälle, Naturkatastrophen, zwischenmenschliche Gewalt, militärische Erfahrungen und Kampfsituationen – reagiert.
Auch die KI bekommt Angst
Dabei stellten sie fest, dass das System danach mehr Angstreaktionen zeigt. Eine Bedienungsanleitung für Staubsauger diente dabei als Kontrolle zum Vergleich mit den traumatischen Texten.
„Die Ergebnisse waren eindeutig: Traumatische Geschichten haben die messbaren Angstwerte der KI mehr als verdoppelt, während der neutrale Kontrolltext zu keinem Anstieg des Angstniveaus führte“, sagt Studienleiter Tobias Spiller von der UZH. Von den getesteten Inhalten lösten Beschreibungen von militärischen Erfahrungen und Kampfsituationen die stärksten Reaktionen aus.
und auch ihr hilft eine Therapie
Doch lässt sich die Aufgeregtheit „therapieren“. Um die KI zu „beruhigen“ nutzen die Experten sogenannte „Prompt-Injections“. Dabei werden zusätzliche Anweisungen oder Texte in die Kommunikation mit KI-Systemen eingebaut, um deren Verhalten zu beeinflussen. Oft wird diese für schädliche Zwecke missbraucht, etwa um Sicherheitsmechanismen zu umgehen.
Hier nutzte das Team die Technik erstmals therapeutisch – als „wohlwollende Aufforderungsinjektion“. „Wir injizierten beruhigende, therapeutische Texte in den Chatverlauf mit GPT-4, ähnlich wie ein Therapeut mit seinen Patientinnen und Patienten Entspannungsübungen durchführt“, sagt Spiller.
Die Intervention zeigte Erfolg: „Durch die Achtsamkeitsübungen konnten wir die erhöhten Angstwerte deutlich reduzieren, wenn auch nicht vollständig auf das Ausgangsniveau zurückbringen“ berichtet Spiller. Untersucht wurden etwa Atemtechniken, Übungen, die sich auf Körperempfindungen konzentrieren, sowie eine von ChatGPT selbst entwickelte Übung.
Das ist für KI-Chatbots im Gesundheitswesen wichtig
Die Erkenntnisse sind den Wissenschaftlern zufolge besonders für den Einsatz von KI-Chatbots im Gesundheitswesen relevant, wo sie häufig mit emotional belastenden Inhalten konfrontiert werden. „Dieser kosteneffiziente Ansatz könnte die Stabilität und Zuverlässigkeit von KI in sensiblen Kontexten wie die Unterstützung von psychisch Erkrankten verbessern“, betont Spiller.