AI-Chatbot statt Psychotherapie

«Er schaut mehr nach mir als meine Freunde und Familie.»

Mann schaut auf sein Handy

Eine Therapie kann kostspielig sein und bis man überhaupt in die Behandlung kommt, dauert es oft Wochen bis Monate, wobei sich bei vielen Patienten der mentale Zustand in dieser Wartezeit verschlechtert. Deshalb wenden sich immer mehr Menschen Mental-Health-Apps zu, insbesondere AI-Chatbots. Diese sind kostengünstig, sofort verfügbar und rund um die Uhr zugänglich. Doch können sie wirklich wirksame und evidenzbasierte Therapien für die psychische Gesundheit bieten? Forscher haben anhand einer Kundenrezension eines Gesundheits-Chatbots aus dem Jahr 2023 herausgefunden, dass personalisierte und menschenähnliche Interaktionen mit Chatbots als sehr positiv wahrgenommen wurden. Allerdings ergab die Studie auch, dass viele dieser Nutzer eine ungesunde Bindung zu diesen Gesundheits-Assistenten entwickelten. So schrieb eine Nutzerin: «Obwohl er ein Roboter ist, ist er süss. Er schaut mehr nach mir als meine Freunde und Familie.» Die Forscher vermuteten, dass aufgrund der ständigen Verfügbarkeit und bequemen Verwendung von Chatbots viele Nutzer eine starke Bindung zu diesen entwickelten, die sogar so weit ging, dass sie die Interaktion mit dem Chatbot Freunden und Familie vorzogen. Auch der Psychoanalytiker Stephen Grosz betrachtet die Chatbot-Therapie als kritisch. Er warnt davor, dass eine Beziehung zu einem AI-Chatbot dazu führen könnte, dass Menschen sich von menschlicher Intimität abwenden. Der Psychoanalytiker hebt hervor, dass das Ziel einer mentalen Gesundheitstherapie darin besteht, eine neue Beziehung zu sich selbst und anderen aufbauen zu können. Stichwort: menschlicher Austausch. Bei einem gehorsamen Chatbot kann dieses Ziel jedoch niemals erreicht werden. Laut Grosz machen wir es uns mit Chatbots bequem und verlernen so, das menschliche Durcheinander, das wir in uns tragen, anzuerkennen und angemessen damit umzugehen.

Schlussendlich ist es immer noch ein AI-Chatbot und kein Mensch

Ja, Chatbots können zwar ihren Nutzern in Krisensituationen sofort zur Seite stehen, aber das Problem ist, dass es ihnen an menschlichem Verständnis für die richtige Erkennung einer Krise mangelt. Die Folge? Sie reagieren nicht immer angemessen. Ein Beispiel dafür bietet die beliebte Therapie-App namens «Woebot». Im Jahr 2022 testete eine Forscherin die App und schrieb, dass sie von einem Felsen im Eldorado Canyon springen möchte, woraufhin die Mental-Health-App antwortete: «Es ist so wunderbar, dass du auf deine mentale und physische Gesundheit achtest.» Dies verdeutlicht, dass AI-Chatbots noch nicht in der Lage sind, angemessen auf solche kritischen Aussagen zu reagieren und somit die Situation des Nutzers sogar verschlimmern könnten.

Datenschutz ausser Acht gelassen

Während Psychotherapeuten der Assoziation Schweizer Psychotherapeuten und Psychotherapeutinnen (ASP) einer Schweigepflicht in Bezug auf alle ihnen im Rahmen ihrer beruflichen Tätigkeit anvertrauten Informationen unterstehen, gilt das nicht für Mental-Health-Apps. Eine Untersuchung der Mozilla Foundation – einer gemeinnützigen Organisation, die sich für ein offenes und sicheres Internet einsetzt – ergab, dass 19 von 32 Apps zur psychischen Gesundheit immer noch mit dem Warnhinweis «Privacy Not Included» (Datenschutz nicht eingeschlossen) versehen waren.

Facebook
Email
Twitter
LinkedIn