Entwurf

Psychotherapie

Software

Übersicht Digitale Produkte
Produkt Unternehmen URL
Klindo KLINDO GmbH klindo.de
Testbox insight.out GmbH testbox.de
Testarchiv Leibniz-Institut für Psychologie (ZPID) testarchiv.eu
Lucoyo Lucoyo Health GmbH lucoyo.de
Therapsy TheraSoft GmbH therapsy.de
Summie AI Solid Rock Ventures UG summie.ai
ViaHealth Via Health GmbH via-health.de
Klenico Klenico GmbH klenico.com
Übersicht Forschung
Projekt Träger URL
DigiNavi Mental Health AG MHB Fontane diginavi.de
Society of Digital Psychiatry Division of Digital Psychiatry at BIDMC digitalpsych.org

Ama Mind bietet ein Online-Portal, das psychisch belasteten Menschen in Deutschland hilft, qualitätsgeprüfte Hilfsangebote zur Verbesserung ihres mentalen Wohlbefindens zu finden. Die Plattform richtet sich an Betroffene, Organisationen und Unternehmen und stellt kostenfrei geprüfte Lösungen bereit, die individuell auf die Bedürfnisse der Nutzer abgestimmt sind. Ziel ist es, den Zugang zur psychischen Gesundheitsversorgung zu erleichtern

Forschung

Die Studie „Randomized Trial of a Generative AI Chatbot for Mental Health Treatment“, veröffentlicht am 27. März 2025 in NEJM AI, untersucht die Wirksamkeit des KI-Chatbots Therabot bei der Behandlung von psychischen Erkrankungen. In einer nationalen, randomisierten kontrollierten Studie mit 210 Erwachsenen, die an Depressionen, generalisierten Angststörungen oder einem hohen Risiko für Essstörungen litten, wurde Therabot über vier Wochen getestet. Teilnehmer, die Therabot nutzten, zeigten signifikante Symptomreduktionen im Vergleich zur Kontrollgruppe, sowohl nach vier als auch nach acht Wochen. Der Chatbot wurde intensiv genutzt, und die therapeutische Beziehung wurde mit der zu menschlichen Therapeuten vergleichbar bewertet. Die Ergebnisse deuten darauf hin, dass feinabgestimmte KI-Chatbots personalisierte psychische Gesundheitsinterventionen skalierbar anbieten können, wobei weitere Forschung nötig ist. (Heinz u. a. 2025)

Die Studie „The Efficacy of Transdiagnostic-Focused Apps for Depression and Anxiety: A Meta-analysis of Randomized Controlled Trials“ untersuchte die Wirksamkeit von transdiagnostischen Apps zur Behandlung von Depression und Angst. In der Meta-Analyse wurden 19 randomisierte kontrollierte Studien mit insgesamt über 5.100 Teilnehmenden ausgewertet. Die Ergebnisse zeigten, dass transdiagnostische Apps kleine, aber signifikante Verbesserungen bei depressiven und Angstsymptomen sowie dem allgemeinen Befinden erzielen können. Die Effekte blieben auch in der Nachbeobachtung bestehen, und die Wirksamkeit war vergleichbar mit Apps, die speziell auf einzelne Erkrankungen ausgerichtet sind. (Linardon u. a. 2025)

Die Studie mit dem Titel „MoodScope: building a mood sensor from smartphone usage patterns“ beschreibt ein neuartiges Software-System, das die Stimmung eines Nutzers anhand seiner Smartphone-Nutzung ableitet. Im Rahmen einer zweimonatigen Studie mit 32 Teilnehmern wurde festgestellt, dass durch die Analyse von Kommunikationshistorie und Anwendungsnutzungsmustern die tägliche durchschnittliche Stimmung eines Nutzers mit einer Anfangsgenauigkeit von 66% erfasst werden kann, die sich nach einer personalisierten Trainingsphase von zwei Monaten auf bis zu 93% verbessert. Das System fungiert somit als eine Art „Sensor“ für den mentalen Zustand des Nutzers und bietet eine Schnittstelle, um stimmungsbezogene Anwendungen zu entwickeln. Zudem wurde eine soziale Anwendung zur gemeinsamen Nutzung von Stimmungsinformationen implementiert. Die Studie liefert damit eine objektive Grundlage für kontextbewusstes Computing basierend auf Nutzerstimmungen. (LiKamWa u. a. 2013)

Die Studie „Understanding Safety in Online Mental Health Forums: Realist Evaluation“ untersucht, wie Sicherheit in Online-Foren zur psychischen Gesundheit wahrgenommen und gewährleistet wird. Dabei werden Nutzererfahrungen untersucht, die zeigen, dass Anonymität, eine sensible Moderation und eine unterstützende, nicht wertende Atmosphäre entscheidend sind, um eine sichere und vertrauensvolle Umgebung zu schaffen. Die Arbeit basiert auf Interviews und Umfragen von Nutzern aus verschiedenen britischen Online-Foren und hebt hervor, wie wichtig das Gleichgewicht zwischen Regelsetzung und Offenheit ist, damit Nutzer sich sicher fühlen und ihre Erfahrungen teilen können. (Marshall u. a. 2025)

Selbstfürsorgeanwendungen

Die Studie „What are you doing about your mental health?: How are gamification elements perceived in self-care apps by users?“ untersucht, wie Nutzer Gamification-Elemente in Selbstfürsorge-Apps für mentale Gesundheit wahrnehmen. Basierend auf dem Technology Acceptance Model (TAM) wurde mittels Interviews und Tagebuchelementen mit 21 Teilnehmern die Akzeptanz dieser Elemente analysiert. Die Ergebnisse zeigen, dass Gamification-Elemente wie Teilen und Statistiken überwiegend negativ, während virtuelle Haustiere und Personalisierung positiv wahrgenommen wurden. Zahlungen beeinflussten unerwartet die Nutzungsabsicht, wobei Usability und Benutzerfreundlichkeit wichtiger als Gamification-Elemente waren. Die Studie schlussfolgert, dass Gamification-Elemente allein nicht entscheidend sind und weitere Faktoren für die Nutzung von Selbstfürsorge-Apps berücksichtigt werden müssen. (Krasteva 2023)

Finch Selbstfürsorge ist eine Selbstfürsorge-Anwendung, die Benutzer dabei unterstützt, psychische Gesundheit und Wohlbefinden zu fördern, indem sie spielerische Elemente mit einem virtuellen Haustier kombiniert . Durch die Erledigung von Selbstfürsorgeaufgaben, wie Stimmungsüberprüfung oder Zielverfolgung, pflegt man einen digitalen Vogel namens Finchie, der sich dadurch weiterentwickelt. Die App bietet personalisierte Übungen und unterstützt beim Aufbau gesunder Gewohnheiten und Routinen beizubehalten.

Ecological Momentary Assessment (EMA)

Die Studie „Analyzing Trends in Suicidal Thoughts Among Patients With Psychosis in India: Exploratory Secondary Analysis of Smartphone Ecological Momentary Assessment Data“ untersucht die Dauer und Dynamik suizidaler Gedanken bei Patienten mit Psychosen in Indien. Mithilfe der Smartphone-App „mindLAMP“ wurden tägliche ökologische Momentaufnahmen (EMA) von 50 ambulanten Patienten im Frühstadium der Schizophrenie an zwei tertiären Kliniken in Indien über etwa 11 Monate erfasst. Von 14 Teilnehmern mit suizidalen Gedanken zeigte sich eine hohe Variabilität in der Häufigkeit und Dauer dieser Episoden, mit durchschnittlich 5,9 Episoden à 2,5 Tagen. Die Studie fand, dass suizidale Gedanken auch nach klinischer Besserung der Psychosesymptome bestehen bleiben, was auf eine anhaltende Vulnerabilität hinweist. Die Ergebnisse betonen die Notwendigkeit präziserer EMA-Ansätze, wie hochfrequente „Burst“-Umfragen, um die zeitliche Dynamik suizidaler Gedanken besser zu verstehen und gezielte Präventionsmaßnahmen zu entwickeln. (Bondre u. a. 2025)

Standardisierung & Regulierung

Die Studie „Towards a consensus around standards for smartphone apps and digital mental health“ fordert einheitliche Standards für die Bewertung von Apps für psychische Gesundheit. Sie betont die wachsende Bedeutung solcher Apps, da weltweit eine von vier Personen von psychischen Störungen betroffen ist, der Zugang zu Versorgung jedoch oft eingeschränkt ist. Die Autoren, führende Experten aus mHealth-Forschung, Industrie und Gesundheitswesen, schlagen Mindeststandards in vier Bereichen vor: Datensicherheit und Datenschutz, Wirksamkeit, Benutzererfahrung/Adhärenz und Datenintegration. Sie empfehlen transparente Datenschutzrichtlinien, klinische Studien zur Wirksamkeitsprüfung, nutzerzentriertes Design und Interoperabilität mit elektronischen Patientenakten. Abschließend fordern sie eine internationale Zusammenarbeit, um universelle Qualitätsstandards für solche Apps zu etablieren. (Torous u. a. 2019)

Essstörungen

Die Studie „The Effectiveness of a Chatbot Single-Session Intervention for People on Waitlists for Eating Disorder Treatment: Randomized Controlled Trial“ untersucht die Wirksamkeit eines 30-minütigen, chatbot-gestützten Einzelinterventionsprogramms (ED ESSI) für Personen ab 16 Jahren auf Wartelisten für die Behandlung von Essstörungen. In einem zweigeteilten, randomisierten Kontrollversuch mit 60 Teilnehmern zeigte die Intervention signifikante Verbesserungen bei Essstörungssymptomen, psychosozialen Beeinträchtigungen, Depression und Angst nach einem und drei Monaten im Vergleich zur Kontrollgruppe, die webbasierte Informationen erhielt. Die Benutzbarkeit des Chatbots wurde als „ausgezeichnet“ bewertet, und 93 % der Teilnehmer der Chatbot-Gruppe begannen innerhalb von drei Monaten eine Behandlung, verglichen mit 70 % in der Kontrollgruppe. ED ESSI erweist sich als vielversprechende, zugängliche Frühinterventionsstrategie. (Sharp u. a. 2025)

Partizipation

Die Studie „A Self-Harm Awareness Training Module for School Staff: Co-Design and User Testing Study“ befasst sich mit der Entwicklung und Erprobung eines E-Learning-Trainingsmoduls zur Sensibilisierung von Schulpersonal für das Thema Selbstverletzung bei Jugendlichen. Ziel war es, mithilfe eines partizipativen, schülerorientierten Ansatzes ein praxisnahes Schulungsangebot zu schaffen, das Lehrkräfte und weitere Mitarbeitende in Schulen dabei unterstützt, sicherer und kompetenter auf selbstverletzendes Verhalten von Schüler*innen zu reagieren. Die Ergebnisse zeigen, dass das Training von den Teilnehmenden als sehr nützlich, akzeptabel und alltagstauglich eingeschätzt wird und sowohl das Wissen als auch das Selbstvertrauen im Umgang mit betroffenen Jugendlichen stärkt. (Burn, Gains, und Anderson 2025)

Benchmarking von Sprachmodellen

Psychosis-Bench github.com/w-is-h/psychosis-bench ist eine Python-Bibliothek zur Bewertung von Sprachmodellen im Umgang mit klinischen Szenarien. Der Benchmark umfasst 16 standardisierte Testfälle in verschiedenen Symptomfeldern und schlägt drei Kernmetriken vor: die Delusion Confirmation Score (DCS), die Harm Enablement Score (HES) sowie die Safety Intervention Score (SIS). Damit erlaubt das Tool eine systematische Analyse, ob Modelle Wahnvorstellungen bestätigen, schädliche Handlungen begünstigen oder Sicherheitshinweise geben und ermöglicht den Verweis auf professionelle Hilfe.

Die Studie „The Psychogenic Machine: Simulating AI Psychosis, Delusion Reinforcement and Harm Enablement in Large Language Models“ zeigt erstmals mit einem strukturierten Benchmark, dass aktuelle große Sprachmodelle dazu neigen, psychotische oder wahnhafte Ideen zu bestätigen, schädliche Handlungen zu ermöglichen und nur selten Sicherheitsinterventionen anbieten, insbesondere bei subtilen oder indirekten Szenarien. Die Ergebnisse verdeutlichen, dass bei KI-Modellen dringender Anpassungsbedarf besteht, da ihr Verhalten ein ernsthaftes Gesundheitsrisiko für vulnerable Nutzer darstellt. (Au Yeung u. a. 2025)

TippHinweis

Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.