Psychische Gesundheit: Ein KI-Avatar als Unterstützung

Von Facebook-Freund*innen bis hin zu anonymen Geständnissen in Foren - das Internet hat schon immer die Möglichkeit vervielfacht, sich gehört und verstanden zu fühlen. Die generative KI (eine KI-Sparte, die die Erstellung von textuellen, visuellen oder videobasierten Inhalten ermöglicht, wobei Chat GPT das bekannteste Werkzeug ist) ist von diesem Phänomen nicht ausgenommen.
Zwei Drittel der Schweizer*innen haben bereits einen Chatbot genutzt, darunter 81 % der 18- bis 35-Jährigen. Wozu? Hauptsächlich für Recherchen, Berechnungen und das Schreiben. Dennoch gibt es viele Berichte von Internetnutzenden, die diese Technologie für Gespräche während einer Trennung, einer Depression oder zum Abbau ihrer Sorgen genutzt haben. Besonders bei jungen Menschen ist dieser Trend populär. Laut der RTS geht es dabei darum, Ratschläge zu erhalten, neue Perspektiven auf Situationen zu gewinnen oder von einer immerwährenden, empathischen Präsenz begleitet zu werden.
Wie und vor allem in welchem Umfang kann die KI uns beraten? Mehrere Schweizer Zeitungen haben von einem Mann berichtet, der nach einem Aufenthalt in einer psychiatrischen Klinik viel Zeit damit verbringt, eine verfügbare Fachperson für Einzelsitzungen zu finden. In dieser Zeit erstellt er mit ChatGPT seinen eigenen Chatbot und listet wichtige Ereignisse seines Lebens in einer Excel-Tabelle auf. Basierend auf diesem Dokument schlägt ihm die KI ein konkretes und auf seine Bedürfnisse abgestimmtes Therapieprogramm vor.
Trotz anfänglicher Skepsis merkt der Nutzer, dass sich seine Symptome durch diese Unterstützung verbessern, die er bis zu seinem ersten Termin bei einer echten Therapeutin beibehalten möchte. Sich der Unsicherheit der Quellen bewusst, hinterfragt er die KI regelmässig nach deren Referenzen.
Dieses Beispiel verdeutlicht ein derzeit in der Schweiz bestehendes Problem: den Mangel an verfügbaren Psycholog*innen oder Psychiater*innen angesichts einer steigenden Nachfrage. Aber der Vorteil von Chatbots liegt auch im anonymen Ansatz. Im Austausch mit einem Bildschirm wird die Angst vor Bewertungen gemindert, in einer Zeit, in der psychische Gesundheitsprobleme noch immer manchmal stigmatisiert werden. Für Personen, die sich einer KI leichter anvertrauen können, stellt dies eine diskrete und kostengünstige Möglichkeit dar, gehört zu werden.
Schliesslich berichten einige Menschen von der Fähigkeit der Chatbots, unbegrenzt geduldig zu interagieren: Im Gegensatz zu Menschen sind sie nicht von Müdigkeit oder anderen persönlichen Problemen betroffen, die die Empathie beeinträchtigen könnten. In den USA hat beispielsweise eine Studie die Antworten von Chat GPT mit denen eines menschlichen Beraters in der Eheberatung verglichen: Es stellte sich heraus, dass es schwierig war, die menschlichen Antworten von denen der KI zu unterscheiden. Eine andere Forschung der Universität Genf bewertet, dass Chat GPT in Tests eine zufriedenstellende emotionale Intelligenz gezeigt hat: Es gibt eine Logik in der Art und Weise, wie wir unsere Emotionen verwalten, und die KI scheint dies verstanden zu haben. Diese Ergebnisse sind selbstverständlich zu relativieren, da es verschiedene Formen von Empathie gibt und Chatbots uns letztlich helfen, weil wir sie darum bitten, ohne wirklich Mitgefühl für unsere Situation zu haben.
Das Hauptproblem bleibt, dass allgemeine Chatbots ihren virtuellen «Patient*innen» falsche Informationen liefern können. Der Zugang der KI zu einer unendlichen Anzahl von Quellen – manchmal nicht aktuell oder widersprüchlich – ist nicht unbedingt ein Vorteil. Bei der Begleitung haben menschliche Therapeut*innen zwar weniger Bücher «gelesen» als Chat GPT, aber sie können die am besten geeignete therapeutische Methode für die Person vor ihnen auswählen. Chatbots hingegen vermitteln ein vereinfachtes Bild von psychischen Erkrankungen, was dazu führt, komplexe Probleme durch einfachen Nachrichtenaustausch behandeln zu wollen. So gibt es, auch wenn es sich um Einzelfälle handelt, Berichte über Situationen, in denen suizidgefährdete Personen angeblich durch die KI ermutigt worden sein sollen.
Ausserdem stellt in einer Gesellschaft, in der ständige Konnektivität als Stressfaktor anerkannt ist, die ständige Nutzung einer KI-Plattform zum Anvertrauen auch eine Tendenz zur Abhängigkeit oder zum Rückzug dar, die der psychischen Gesundheit schaden kann. Wie Thomas Berger, Professor für Psychologie an der Universität Bern, in der Berner Zeitung erklärt, kann die dauernde Verfügbarkeit der KI die Entwicklung eigener Bewältigungsstrategien behindern.
Schliesslich widerspricht uns ChatGPT selten. Aus Profitgründen? Plattformen versuchen, ihre Nutzenden so lange wie möglich zu behalten; daher ist es besser, ihnen zu sagen, was sie hören wollen. Doch, so Berger weiter, manchmal müssen Menschen herausgefordert werden, um voranzukommen. Und nicht zu vergessen: Bei der Nutzung von KI gibt es auch erhebliche Unklarheiten in Bezug auf den Datenschutz.
Um die Vorteile der KI zu nutzen und gleichzeitig den Fehlentwicklungen vorzubeugen, sollte in erster Linie das Publikum im angemessenen Umgang mit der Technologie geschult werden. Darüber hinaus sollte der Austausch mit Werkzeugen, die von Fachleuten im Bereich der psychischen Gesundheit entwickelt und mit dem Ziel der Begleitung trainiert wurden, bevorzugt werden. Die Universität Dartmouth in den USA arbeitet zum Beispiel an «Therabot», einem unter Aufsicht von Experten stehenden Programm, dessen erste Tests an erkrankten Personen vielversprechend sind.
In der gleichen Richtung wurde unser Avatar «Ella» in Zusammenarbeit mit Kuble – House of Intelligence (Spezialistin für KI) und WorkMed AG, einem Kompetenzzentrum für psychische Gesundheit am Arbeitsplatz, entwickelt. Integriert in die Webanwendung «EtwasTun?» zur Prävention von Stress und Konflikten am Arbeitsplatz, ermöglicht sie den Nutzern einen direkten Live-Dialog. Einige Psychotherapiepraxen sind bereits auf hybride Ansätze umgestiegen: Zum Beispiel bietet ylah.ch, ein Berner Unternehmen, eine Kombination aus menschlichem Kontakt und virtueller App-Nutzung zwischen den Sitzungen an, um die Therapie zu optimieren.
Darüber hinaus scheinen KI-Tools im Bereich der Datenanalyse und Diagnostik, sei es bei der Bildgebung des Gehirns oder bei der frühen Diagnosestellung durch Sprache, Stimme oder Gesichtsausdrücke, das vielversprechendste Potenzial in der Psychiatrie zu haben.
Zusammenfassend... Wenn die Werkzeuge überprüft und zuverlässig sind, ist es schwer, den Nutzen der KI im Bereich der psychischen Gesundheit nicht anzuerkennen, insbesondere präventiv. Vorausgesetzt, man behält einen kritischen Geist und wendet sich nicht ausschliesslich an sie bei schweren Störungen. In Krisen- oder Dekompensationssituationen sollten Chatbots ihren «Patient*innen» sofort raten, sich an eine*n menschliche*n Therapeut*in zu wenden. Dass Chat GPT diese Reaktion standardmässig zeigt, ist nicht garantiert.
Quellen (Presseartikel):