Entwurf

Ethik

Die Physicians’ Charter for Responsible AI ist eine Initiative von Ärzten, die sich für den verantwortungsvollen Einsatz von Künstlicher Intelligenz in der Medizin einsetzt. Sie betont, dass KI stets patientenzentriert, ethisch, fair und sicher sein muss. Die Charta basiert auf den vier Säulen der medizinischen Ethik – Autonomie, Wohltun, Nicht-Schaden und Gerechtigkeit – und sieht KI als Unterstützung für Ärzte, nicht als Ersatz für die menschliche Arzt-Patienten-Beziehung.

Die Studie mit dem Titel „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ untersucht die Chancen und Herausforderungen des Einsatzes von Künstlicher Intelligenz (KI) im globalen Gesundheitswesen. Sie zeigt auf, wie KI die Diagnostik verbessern und den Zugang zur Gesundheitsversorgung, insbesondere in unterversorgten Regionen, erweitern kann. Gleichzeitig betont die Studie, dass ethische Unsicherheiten, begrenzte Dateninfrastrukturen, Qualitätsprobleme bei Evidenzen und regulatorische Unklarheiten erhebliche Hürden darstellen. Die Autoren schlagen fünf zentrale Infrastruktur-Anforderungen vor, die für eine ethische Umsetzung von KI im Gesundheitsbereich notwendig sind, darunter robuste Datenaustauschsysteme, den Schutz von Gesundheitswerten und eine sinnvolle Verantwortlichkeit. Abschließend betont die Studie die Bedeutung internationaler Kooperation und ethischer Governance, um KI als Instrument für globale Gesundheit und Gerechtigkeit zu nutzen. (Morley u. a. 2025)

Vertrauen

Die Studie „A systematic review of consumers’ and healthcare professionals’ trust in digital healthcare“ von Soraia de Camargo Catapan et al. (npj Digital Medicine, 2025) analysiert systematisch 49 Studien zu Vertrauensmessungen in digitaler Gesundheitsversorgung aus der Perspektive von Konsumenten und Gesundheitsfachkräften. Die Ergebnisse zeigen, dass Vertrauen ein komplexes Konstrukt ist, das die Nutzung, Akzeptanz und Nützlichkeit digitaler Gesundheitsangebote beeinflusst. Konsumentenvertrauen wird durch Datengenauigkeit, Privatsphäre, digitale Kompetenz, Bildung und Einkommen beeinflusst, während Fachkräfte Vertrauen durch Schulung und gute Systemleistung entwickeln. Viele Studien verwenden jedoch nicht validierte Instrumente, und es fehlt ein theoretischer Rahmen für Vertrauen in digitale Gesundheit. Die Autoren fordern verbesserte, validierte Messinstrumente und einen Fokus auf kulturelle sowie geografische Unterschiede, um Vertrauen zu fördern und die Implementierung digitaler Gesundheitslösungen zu unterstützen. (Catapan u. a. 2025)

Die Studie “Expectations of healthcare AI and the role of trust: understanding patient views on how AI will impact cost, access, and patient-provider relationships” untersucht die Erwartungen US-amerikanischer Erwachsener an KI im Gesundheitswesen mittels einer Umfrage von Juni bis Juli 2023 mit 2039 Teilnehmern. Die Ergebnisse zeigen geringe Erwartungen: Nur 19,4 % erwarten eine Verbesserung der Bezahlbarkeit, 19,55 % eine bessere Arzt-Patient-Beziehung und 30,28 % einen verbesserten Zugang zur Versorgung. Höheres Vertrauen in Anbieter und das Gesundheitssystem korreliert mit optimistischeren Erwartungen. Demografische Faktoren wie Geschlecht und Ethnie beeinflussen die Erwartungen. Die Studie betont die Bedeutung von Vertrauen und Patientenbeteiligung in der KI-Governance, um Gesundheitssysteme an die Erwartungen der Öffentlichkeit anzupassen und Vertrauen zu erhalten. (Nong und Ji 2025)

Partizipation

Die Studie „Reflections on patient engagement by patient partners: how it can go wrong“ von Dawn P Richards und Kollegen beschäftigt sich mit den Herausforderungen und Fehlern bei der Einbindung von Patienten als aktive Partner in Forschungs- und Gesundheitsprojekte. Die Autorinnen und Autoren, selbst Patient:innen, schildern vier zentrale Probleme: die reine Erfüllung einer Formalität ohne echte Beteiligung, unbewusste Vorurteile gegenüber Patient:innen, mangelnde Unterstützung für eine vollständige Einbindung sowie das Nichtanerkennen der Verwundbarkeit der Patient:innen. Ziel der Studie ist es, diese oft verschwiegenen Schwierigkeiten offen zu legen und eine Verbesserung der Patient:innenbeteiligung anzustoßen. Dabei betonen sie, dass es nicht um Schuldzuweisungen geht, sondern um gemeinsames Lernen und Weiterentwicklung. (Richards u. a. 2023)

Digitale Einwilligung

Die Studie „Digitalizing informed consent in healthcare: a scoping review“ untersucht den aktuellen Stand der Digitalisierung des Einwilligungsprozesses im Gesundheitswesen. In einer Übersichtsanalyse von 27 Studien wird gezeigt, dass digitale und KI-basierte Technologien das Verständnis der Patienten für medizinische Eingriffe verbessern und die Abläufe effizienter gestalten können. Allerdings sind viele dieser Ansätze noch wenig verbreitet und bedürfen weiterer Forschung, insbesondere hinsichtlich Zuverlässigkeit, rechtlicher Anforderungen und der Integration in bestehende Arbeitsabläufe. Die Autoren betonen, dass digitale Lösungen momentan den ärztlichen Dialog ergänzen, aber nicht ersetzen sollten. (Goldschmitt u. a. 2025)

Sprachmodelle & Ethisches Denken

Die Studie mit dem Titel „Pitfalls of large language models in medical ethics reasoning“, veröffentlicht in npj Digital Medicine, untersucht systematische Fehlleistungen großer Sprachmodelle (LLMs) in ethisch komplexen Medizinszenarien. Die Autoren zeigen anhand von umformulierten Rätseln und klinisch-ethischen Fällen, dass LLMs häufig auf altbekannte Antworten zurückgreifen und dabei wesentliche Kontextänderungen übersehen. Dies führt zu fehlerhaften oder unangemessenen Schlussfolgerungen. Besonders in medizinethischen Fragen zeigten selbst fortgeschrittene Modelle wie ChatGPT-o3 eine hohe Fehlerquote. Die Studie warnt vor der unreflektierten Integration solcher Systeme in klinische Entscheidungsprozesse und betont die Notwendigkeit, die kognitiven Limitierungen dieser Technologien kritisch zu berücksichtigen. (Soffer u. a. 2025)

Hinweis

Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.