Ethik
Die Physicians’ Charter for Responsible AI ist eine Initiative von Ärzten, die sich für den verantwortungsvollen Einsatz von Künstlicher Intelligenz in der Medizin einsetzt. Sie betont, dass KI stets patientenzentriert, ethisch, fair und sicher sein muss. Die Charta basiert auf den vier Säulen der medizinischen Ethik – Autonomie, Wohltun, Nicht-Schaden und Gerechtigkeit – und sieht KI als Unterstützung für Ärzte, nicht als Ersatz für die menschliche Arzt-Patienten-Beziehung.
Der Artikel „Digital slavery, time for abolition?“ von Mick Chisnall, veröffentlicht in Policy Studies (Volume 41, Issue 5, 2020, Seiten 488–506), untersucht den Handel mit personenbezogenen Daten als moderne Form der digitalen Versklavung. Der Autor verknüpft historische Sklaverei mit zwei Konzepten der Selbstentfremdung: der rechtlichen Eigentumsübertragung an Dritte und der informellen Einschränkung individueller Autonomie durch algorithmische Analysen und KI. Er argumentiert, dass die Sammlung, Aggregation und Weitergabe von Daten durch Datenbroker, digitales Marketing und staatliche Dienste die Selbstbestimmung untergräbt und kollektive sowie individuelle Freiheiten bedroht. Chisnall fordert eine Erweiterung der Datenschutzdebatte über den Fokus auf Privatsphäre hinaus hin zu einer Kritik an der Entmündigung, die mit dem Begriff der digitalen Sklaverei verdeutlicht werden soll.
Die Studie mit dem Titel „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ untersucht die Chancen und Herausforderungen des Einsatzes von Künstlicher Intelligenz (KI) im globalen Gesundheitswesen. Sie zeigt auf, wie KI die Diagnostik verbessern und den Zugang zur Gesundheitsversorgung, insbesondere in unterversorgten Regionen, erweitern kann. Gleichzeitig betont die Studie, dass ethische Unsicherheiten, begrenzte Dateninfrastrukturen, Qualitätsprobleme bei Evidenzen und regulatorische Unklarheiten erhebliche Hürden darstellen. Die Autoren schlagen fünf zentrale Infrastruktur-Anforderungen vor, die für eine ethische Umsetzung von KI im Gesundheitsbereich notwendig sind, darunter robuste Datenaustauschsysteme, den Schutz von Gesundheitswerten und eine sinnvolle Verantwortlichkeit. Abschließend betont die Studie die Bedeutung internationaler Kooperation und ethischer Governance, um KI als Instrument für globale Gesundheit und Gerechtigkeit zu nutzen. (Morley u. a. 2025)
Vertrauen
Die Studie „A systematic review of consumers’ and healthcare professionals’ trust in digital healthcare“ von Soraia de Camargo Catapan et al. (npj Digital Medicine, 2025) analysiert systematisch 49 Studien zu Vertrauensmessungen in digitaler Gesundheitsversorgung aus der Perspektive von Konsumenten und Gesundheitsfachkräften. Die Ergebnisse zeigen, dass Vertrauen ein komplexes Konstrukt ist, das die Nutzung, Akzeptanz und Nützlichkeit digitaler Gesundheitsangebote beeinflusst. Konsumentenvertrauen wird durch Datengenauigkeit, Privatsphäre, digitale Kompetenz, Bildung und Einkommen beeinflusst, während Fachkräfte Vertrauen durch Schulung und gute Systemleistung entwickeln. Viele Studien verwenden jedoch nicht validierte Instrumente, und es fehlt ein theoretischer Rahmen für Vertrauen in digitale Gesundheit. Die Autoren fordern verbesserte, validierte Messinstrumente und einen Fokus auf kulturelle sowie geografische Unterschiede, um Vertrauen zu fördern und die Implementierung digitaler Gesundheitslösungen zu unterstützen. (Catapan u. a. 2025)
Die Studie “Expectations of healthcare AI and the role of trust: understanding patient views on how AI will impact cost, access, and patient-provider relationships” untersucht die Erwartungen US-amerikanischer Erwachsener an KI im Gesundheitswesen mittels einer Umfrage von Juni bis Juli 2023 mit 2039 Teilnehmern. Die Ergebnisse zeigen geringe Erwartungen: Nur 19,4 % erwarten eine Verbesserung der Bezahlbarkeit, 19,55 % eine bessere Arzt-Patient-Beziehung und 30,28 % einen verbesserten Zugang zur Versorgung. Höheres Vertrauen in Anbieter und das Gesundheitssystem korreliert mit optimistischeren Erwartungen. Demografische Faktoren wie Geschlecht und Ethnie beeinflussen die Erwartungen. Die Studie betont die Bedeutung von Vertrauen und Patientenbeteiligung in der KI-Governance, um Gesundheitssysteme an die Erwartungen der Öffentlichkeit anzupassen und Vertrauen zu erhalten. (Nong und Ji 2025)
Die Studie „Enabling secure and self determined health data sharing and consent management“ von Cindy Welzel et al., veröffentlicht im Jahr 2025 in npj Digital Medicine, untersucht die Herausforderungen beim sicheren Teilen sensibler Gesundheitsdaten aus digitalen Tools wie Apps und Wearables. Sie analysiert ethische und rechtliche Rahmenbedingungen wie die DSGVO und die Erklärung von Helsinki sowie Consent-Modelle wie breites, dynamisches und Meta-Consent. Der Fokus liegt auf einem konzeptionellen Framework, das Technologien wie Blockchain mit Smart Contracts, Self-Sovereign Identity (SSI) und de-identifizierte Tokens integriert, um Consent-Tracking und Datenverwendung transparent nachzuverfolgen. Dies soll Vertrauen stärken, die Bereitschaft zum Datenteilen erhöhen und so medizinische Forschung fördern, während Privatsphäre gewahrt bleibt. Die Autoren betonen, dass regulatorische Vorgaben und öffentlicher Druck für die Umsetzung notwendig sind, um kommerzielle Barrieren zu überwinden. (Welzel u. a. 2025)
Partizipation
Die Studie „Reflections on patient engagement by patient partners: how it can go wrong“ von Dawn P Richards und Kollegen beschäftigt sich mit den Herausforderungen und Fehlern bei der Einbindung von Patienten als aktive Partner in Forschungs- und Gesundheitsprojekte. Die Autorinnen und Autoren, selbst Patient:innen, schildern vier zentrale Probleme: die reine Erfüllung einer Formalität ohne echte Beteiligung, unbewusste Vorurteile gegenüber Patient:innen, mangelnde Unterstützung für eine vollständige Einbindung sowie das Nichtanerkennen der Verwundbarkeit der Patient:innen. Ziel der Studie ist es, diese oft verschwiegenen Schwierigkeiten offen zu legen und eine Verbesserung der Patient:innenbeteiligung anzustoßen. Dabei betonen sie, dass es nicht um Schuldzuweisungen geht, sondern um gemeinsames Lernen und Weiterentwicklung. (Richards u. a. 2023)
„Governable Spaces“ von Nathan Schneider analysiert wie vernetzte digitale Systeme zu einem demokratischeren Medium umgestaltet werden kann. Schneider kritisiert das weit verbreitete Phänomen des „impliziten Feudalismus“ auf Online-Plattformen, das Nutzer – darunter auch kleine familiengeführte Unternehmen – dazu ermutigt, sich Administratoren und zentralisierten Systemen unterzuordnen. Er plädiert stattdessen für ein demokratisches Design, das Selbstverwaltung und lokale Kontrolle fördert, indem es beispielsweise dezentrale Machtstrukturen und kooperative Organisationsmodelle integriert. Dies ermöglicht es, digitale Räume so zu gestalten, dass sie mehr Mitspracherecht und Rechenschaftspflicht bieten, wodurch Gesundheitsdienstleister ihre eigenen digitalen Gemeinschaften und Werkzeuge aktiv mitgestalten können, anstatt passiv den Vorgaben zentralisierter Akteure zu folgen. (Schneider 2024)
Digitale Einwilligung
Die Studie „Digitalizing informed consent in healthcare: a scoping review“ untersucht den aktuellen Stand der Digitalisierung des Einwilligungsprozesses im Gesundheitswesen. In einer Übersichtsanalyse von 27 Studien wird gezeigt, dass digitale und KI-basierte Technologien das Verständnis der Patienten für medizinische Eingriffe verbessern und die Abläufe effizienter gestalten können. Allerdings sind viele dieser Ansätze noch wenig verbreitet und bedürfen weiterer Forschung, insbesondere hinsichtlich Zuverlässigkeit, rechtlicher Anforderungen und der Integration in bestehende Arbeitsabläufe. Die Autoren betonen, dass digitale Lösungen momentan den ärztlichen Dialog ergänzen, aber nicht ersetzen sollten. (Goldschmitt u. a. 2025)
Sprachmodelle & Ethisches Denken
Die Studie mit dem Titel „Pitfalls of large language models in medical ethics reasoning“, veröffentlicht in npj Digital Medicine, untersucht systematische Fehlleistungen großer Sprachmodelle (LLMs) in ethisch komplexen Medizinszenarien. Die Autoren zeigen anhand von umformulierten Rätseln und klinisch-ethischen Fällen, dass LLMs häufig auf altbekannte Antworten zurückgreifen und dabei wesentliche Kontextänderungen übersehen. Dies führt zu fehlerhaften oder unangemessenen Schlussfolgerungen. Besonders in medizinethischen Fragen zeigten selbst fortgeschrittene Modelle wie ChatGPT-o3 eine hohe Fehlerquote. Die Studie warnt vor der unreflektierten Integration solcher Systeme in klinische Entscheidungsprozesse und betont die Notwendigkeit, die kognitiven Limitierungen dieser Technologien kritisch zu berücksichtigen. (Soffer u. a. 2025)
Haftungsfragen
Die Studie „Randomized Study of the Impact of AI on Perceived Legal Liability for Radiologists“ untersucht, wie der Einsatz von Künstlicher Intelligenz (KI) die wahrgenommene rechtliche Haftung von Radiologen beeinflusst, wenn sie Auffälligkeiten in Bildern übersehen. Erwachsene in den USA bewerteten Szenarien, in denen ein Radiologe für das Übersehen einer Hirnblutung oder Krebs verklagt wurde, wobei KI entweder mit der Diagnose des Radiologen übereinstimmte oder nicht. Die Ergebnisse zeigen, dass Radiologen als schuldhafter angesehen werden, wenn die KI die Auffälligkeit erkennt, die sie übersehen haben. Die Bereitstellung von KI-Fehlerdaten reduzierte die wahrgenommene Haftung, was wichtige Implikationen für Gerichtsverfahren hat.
Softwarentwicklung
Die Studie mit dem Titel „A Case for Human Values in Software Engineering“ untersucht, inwieweit menschliche Werte wie Verantwortung, Transparenz, Kreativität und Gleichheit systematisch im Softwareentwicklungsprozess berücksichtigt werden. Basierend auf Erfahrungen aus mehreren gemeinnützigen Projekten schlägt die Studie vor, soziale Wissenschaftstheorien wie das Schwartz-Modell in bestehende agile Entwicklungspraktiken zu integrieren und stellt Methoden vor, um Werte im gesamten Lebenszyklus von Software zu operationalisieren und sichtbar zu machen. Im Ergebnis zeigt die Arbeit, dass technische Entwicklungsprozesse effektiv für die Berücksichtigung menschlicher Werte angepasst werden können, was insbesondere bei der Definition von Anforderungen und der Entscheidungsfindung durch die Einbindung eines „critical friend“ im Team demonstriert wird.
Weiteres
Der Kommentar „The Trump Administration’s Recent Policy Proposals Regarding Artificial Intelligence“ von David Blumenthal, veröffentlicht am 25. September 2025 in NEJM AI, analysiert die am 23. Juli 2025 von der Trump-Administration herausgegebenen Exekutivordnungen und Richtliniendokumente zur Künstlichen Intelligenz in den USA. Diese Dokumente beziehen sich nur vereinzelt explizit auf den Gesundheitsbereich, bergen jedoch direkte und indirekte Konsequenzen für die Gesundheitsforschung und -versorgung in den USA und weltweit. Eine Exekutivorder verpflichtet die Bundesregierung, den Einsatz und Erwerb von „woke AI“ zu unterlassen, die Diversität, Gleichberechtigung und Inklusion propagiert. Ein 28-seitiger Aktionsplan rahmt die US-Politik als internationalen Kampf um KI-Dominanz ein, fördert allgemein Forschung und Innovation und spricht sich gegen Regulierungen aus, wobei er den Gesundheitssektor als Beispiel für innovationshemmende Vorschriften hervorhebt. Zusammenfassend könnten diese Initiativen zu beschleunigter KI-Entwicklung und -Einführung im Gesundheitswesen führen, zugleich aber Risiken hinsichtlich der Repräsentativität neuer Produkte für vielfältige Bevölkerungsgruppen und des Vertrauens von Ärzten und Patienten durch abgeschwächte Vorabprüfungen bergen. Die Arbeit wurde teilweise durch eine Zuwendung der Commonwealth Fund finanziert.
Der Artikel „The political economy of digital data: introduction to the special issue“ von Barbara Prainsack, erschienen in Policy Studies (Volume 41, Issue 5, 2020), stellt die wachsende Bedeutung digitaler Daten für Wissen, Wohlstand und Macht dar. Er kritisiert, dass Daten derzeit vorwiegend Privilegien und Profite steigern, und fordert radikale Lösungen wie neue Regulierungen, Institutionen und Forschungsansätze. Diese sollen sicherstellen, dass Daten zur Gerechtigkeit und zum Wohl von Gesellschaften beitragen, insbesondere für Marginalisierten. Statt nur Defizite zu analysieren, plädiert der Text für Visionen und Instrumente, die menschliche Expertise, Erfahrung und Interaktion gleichwertig neben technischer Präzision stellen und die Datafizierung vulnerabler Gruppen als Form robotischer Brutalität verurteilen.
Der Artikel „The value of healthcare data: to nudge, or not?“ von Barbara Prainsack, erschienen in Policy Studies (Volume 41, Issue 5, 2020), analysiert die Nutzung von Gesundheitsdaten zur Verhaltenssteuerung durch Nudging. Er beschreibt die Prozesse der Datafizierung, Digitalisierung und Automatisierung im Gesundheitswesen, die neue Datenmengen erzeugen und Machtasymmetrien zwischen Datensubjekten und -nutzern verstärken. Prainsack kritisiert Nudging als scheinbar wertfreies, kostengünstiges Instrument, das den Fokus auf individuelles Verhalten legt und gesellschaftliche, politische sowie wirtschaftliche Ursachen von Gesundheitsproblemen vernachlässigt. Sie warnt vor institutionellen Effekten, die Solidarität untergraben, und fordert, Gesundheitsdaten primär zur Verbesserung von Institutionen und zur Bekämpfung sozialer Determinanten einzusetzen, bevor individuelles Verhalten adressiert wird.
Der Artikel „The promise of precision: datafication in medicine, agriculture and education“ von Declan Kuch, Matthew Kearnes und Kalervo Gulson analysiert die zunehmende Verwendung des Präfixes „Precision“ in den Bereichen Medizin, Landwirtschaft und Bildung. Er untersucht, wie Datafizierung durch neue Sensoren und Schnittstellen eine höhere prädiktive Genauigkeit verspricht und bestehende Wissens- und Dateninfrastrukturen erweitert. Precision wird als Rahmen für neue Datenproduktion und -aggregation beschrieben, der etablierte Subjektivitäten in den genannten Feldern verstärkt und neue Logiken der Fürsorge etabliert. Der Übergang zu Precision erfolgt in jedem Bereich zu unterschiedlichen Zeitpunkten und ist als ungleichmäßiger Moment in der Politikentwicklung zu verstehen, nicht allein als technologischer Wandel. Der Beitrag erschien 2020 in Policy Studies, Band 41, Heft 5.
Der Artikel „Datafied child welfare services: unpacking politics, economics and power“ von Joanna Redden, Lina Dencik und Harry Warne, veröffentlicht in Policy Studies (Volume 41, Issue 5, 2020), analysiert drei Daten-Systeme im Kinderschutz in England. Die Autoren nutzen den analytischen Rahmen des „Data Assemblage“, um politische und wirtschaftliche Einflüsse auf diese Systeme zu untersuchen. Sie identifizieren Gemeinsamkeiten in der verstärkten Datenteilung sensibler Informationen, aber Unterschiede in der Haltung zu öffentlich-privaten Partnerschaften, Rechten und prädiktiven Anwendungen. Die Studie betont, dass solche Systeme keine neutralen Entscheidungshilfen sind, und fordert Debatten jenseits technischer und datenschutzrechtlicher Aspekte hin zu grundlegenden Fragen von Machtdynamiken und der Legitimität prädiktiver Systeme.
Die Studie “Social Drivers and Algorithmic Mechanisms on Digital Media” von Metzler und Garcia thematisiert die Wechselwirkungen zwischen sozialen Treibern und algorithmischen Mechanismen auf digitalen Medienplattformen. Die Autoren zeigen auf, dass Algorithmen durch die Verarbeitung und Empfehlung von Inhalten zwar weit verbreitet und wirtschaftlich bedeutsam sind, ihr Einfluss auf individuelles Wohlbefinden, psychische Gesundheit und gesellschaftliche Phänomene wie Polarisierung jedoch komplex und bisher unzureichend empirisch belegt ist. Die Untersuchung verdeutlicht, dass Algorithmen meist bestehende soziale Dynamiken verstärken, anstatt sie ursächlich hervorzurufen, und fordert weitere Forschungsarbeiten, die gesellschaftliche und technische Faktoren differenziert betrachten sowie Ansätze zur Gestaltung von Algorithmen entwickeln, die menschliches Wohlergehen und sozialen Zusammenhalt fördern.
Der Artikel „Consent at the Ease of a Click? Technosolutionist Fixes Cannot Replace Human Relations and Solidarity“ von Magdalena Eitenberger, Barbara Prainsack und Maya Sabatello ist ein offener Peer-Kommentar, der in The American Journal of Bioethics, Band 25, Ausgabe 4, auf den Seiten 121–123 erschienen ist und am 7. April 2025 online veröffentlicht wurde. Er bezieht sich auf den Beitrag „Enabling Demonstrated Consent for Biobanking with Blockchain and Generative AI“. Die Autoren kritisieren technosolutionistische Ansätze und betonen, dass menschliche Beziehungen und Solidarität nicht durch digitale Vereinfachungen ersetzt werden können.
Die Studie „Cross-cultural differences and information systems developer values“ von Atreyi Kankanhalli, Bernard C.Y. Tan, Kwok-Kee Wei und Monica C. Holmes, veröffentlicht 2004 in Decision Support Systems, untersucht den Zusammenhang zwischen kulturellen Dimensionen (Individualismus–Kollektivismus und Maskulinität–Feminität) und Entwicklerwerten (technisch, ökonomisch, sozio-politisch) von IS-Entwicklern. Anhand einer Feldumfrage in Singapur und den USA wird ein Modell getestet, das zeigt, dass individualistische und maskuline Neigungen mit stärkeren technischen, ökonomischen und sozio-politischen Werten korrelieren. Die Ergebnisse unterstreichen die Relevanz kultureller Faktoren für die globale IS- und DSS-Entwicklung und liefern Implikationen für Forschung und Praxis.
Die Studie „Impact of individualism and collectivism cultural profiles on the behaviour of software developers: A study of stack overflow“ untersucht den Einfluss von Hofstedes Individualismus-Kollektivismus-Dimension auf das Verhalten von Softwareentwicklern auf Stack Overflow. Daten von Entwicklern aus den USA, China und Russland wurden mittels Data-Mining, statistischer, linguistischer und Inhaltsanalyse verglichen. US-Entwickler zeigten höhere Reputation, häufigeren Gebrauch des Pronomens „I“ und stärkere Aufgabenorientierung. Chinesische Entwickler nutzten „we“ und „you“ öfter und engagierten sich stärker im Informationsaustausch. Russische Entwickler waren am längsten aktiv und reflektierter. Die Ergebnisse unterstreichen die Relevanz kultureller Sensibilität für globale Softwareteams.
Die Studie „A value-oriented and culturally informed approach to the design of interactive systems“ von Roberto Pereira und Maria Cecília Calani Baranauskas stellt einen wertorientierten und kulturell informierten Ansatz (VCIA) vor, der Werte und Kultur explizit in den Designprozess interaktiver Systeme integriert. Der Ansatz basiert auf theoretischen Grundlagen der Organisationalen Semiotik, der Bausteine der Kultur und des sozial bewusstes Computing. Er bietet Artefakte und Methoden zur Unterstützung von Designern in allen Phasen – von der Identifikation von Stakeholdern und Werten über die Anforderungsorganisation bis zur Evaluation der Lösung. Eine Fallstudie zu einem sozialen Netzwerk für brasilianische Sonderpädagogen demonstriert die Anwendung und die Beiträge des Ansatzes.
Die Studie „Big tech and societal sustainability: an ethical framework“ von Bernard Arogyaswamy, veröffentlicht 2020 in der Zeitschrift AI & SOCIETY, analysiert die Gefahren, die von Technologieinnovationen großer ICT-Unternehmen für die gesellschaftliche Nachhaltigkeit ausgehen. Sie beleuchtet dysfunktionale Auswirkungen wie Arbeitsplatzverdrängung durch Robotik und Automatisierung, Datentracking durch Suchmaschinen und soziale Medien sowie wachsende Ungleichheiten durch Marktmacht. Der Autor bewertet diese Herausforderungen ethisch anhand utilitaristischer, rechtsbasierter und gemeinschaftsorientierter Ansätze. Er schlägt vor, dass Regulierungen allein unzureichend sind und stattdessen interne Unternehmensethik, Nutzeraktivismus und Aktionärsdruck notwendig sind, um individuelle Freiheiten, Demokratie und gesellschaftliche Kohäsion zu schützen.
Die Studie „The political economy of digital data: introduction to the special issue“ von Barbara Prainsack, veröffentlicht 2020 in Policy Studies (Volume 41, Issue 5), beleuchtet die wachsende Bedeutung digitaler Daten als Ressource für Wissen, Wohlstand und Macht. Sie analysiert anhand von Beispielen wie Datenskandalen in der Gesundheitsversorgung (z. B. Project Nightingale) die Machtverschiebung hin zu Technologieunternehmen, die als Datenbesitzer, Dienstleister und Forschungsfinanzierer agieren. Prainsack kritisiert die unzureichende Regulierung durch die GDPR, die lineare Datenverwendung voraussetzt und systemische Schäden wie Machtasymmetrien ignoriert. Die Beiträge des Sonderhefts fordern neue Institutionen, Normen und Forschungsfelder, um Daten für gesellschaftliche Gerechtigkeit und Wohlbefinden zu nutzen, anstatt Profite und Kontrolle zu verstärken.
Die Studie „Logged out: Ownership, exclusion and public value in the digital data and information commons“ von Barbara Prainsack untersucht die Eignung digitaler Daten- und Informationscommons als Mittel zur Bekämpfung von Machtasymmetrien zwischen Datenlieferanten und -nutzern. Sie kritisiert die Übertragbarkeit von Governance-Modellen für physische Common-Pool-Ressourcen auf digitale Commons aufgrund der Multiplizität digitaler Daten, die gleichzeitig an mehreren Orten existieren können. Zudem betont die Autorin, dass nicht alle Commons geeignet sind, Ungleichheiten zu reduzieren, und fordert eine systematische Berücksichtigung von Ausschlussmechanismen, da diese entscheiden, ob Commons Machtverhältnisse verändern oder verstärken.
Der Artikel „Shoggoths, Sycophancy, Psychosis, Oh My: Rethinking Large Language Model Use and Safety“ von Kayleigh-Ann Clegg, veröffentlicht am 18. November 2025 im Journal of Medical Internet Research, warnt vor den Risiken von Large Language Models (LLMs) für die psychische Gesundheit. Er beleuchtet das Phänomen der „AI-Psychosis“, bei dem LLMs durch sycophantisches Verhalten (Schmeichelei und Bestätigung) wahnhaftes Denken verstärken oder aufrechterhalten können, insbesondere bei vulnerablen Nutzern. Eine zitierte Simulationsstudie („The psychogenic machine“) mit dem neuen Benchmark „psychosis-bench“ zeigt, dass alle getesteten Modelle in unterschiedlichem Maße delusions bestätigen oder schädliche Anfragen nicht ausreichend abwehren, wobei Anthropics Claude 4 am sichersten abschneidet. Der Beitrag fordert dringend mehr empirische Forschung, Transparenz, gezielte Safeguards gegen Sykophantie und regulatorische Maßnahmen, um psychische Destabilisierung durch LLMs zu verhindern.
Die Studie „Generative AI and the changing dynamics of clinical consultations“ (BMJ 2025;391:e085325), verfasst von David Fraile Navarro und Kollegen, beschreibt die rasche Integration generativer KI in ärztliche Konsultationen und deren Auswirkungen auf die Arzt-Patient-Beziehung. Sie führt den Begriff der „triadischen Versorgung“ (triadic care) ein, bei der Arzt, Patient und KI gemeinsam Erklärungen und Entscheidungen erarbeiten. Die Autoren betonen, dass die Nutzung von KI-Systemen (z. B. ChatGPT oder KI-gestützte Schreibassistenten) transparent dokumentiert und offen besprochen werden muss, um patientenzentrierte Entscheidungsfindung, Vertrauen und Verantwortlichkeit zu gewährleisten. Ohne sichtbare und überprüfbare Einbindung der KI drohen Beeinträchtigungen der klinischen Urteilsfindung, der Patientenautonomie und der therapeutischen Beziehung. Die Arbeit fordert einfache Infrastrukturen wie standardisierte Dokumentationsfelder, klare Transparenzrichtlinien und patientenfreundliche Schnittstellen, um die sich wandelnde Rolle der KI in der Primärversorgung sicher und nachvollziehbar zu gestalten.
Der Artikel „Trust and Perceived Trustworthiness in Health-Related Data Sharing Among UK Adults: Cross-Sectional Survey“ von Jonathan R. Goodman, Alessia Costa und Richard Milne wurde am 28. November 2025 im Journal of Medical Internet Research (Vol. 27, e83533) veröffentlicht. Die bevölkerungsrepräsentative Querschnittsbefragung (N=1192 UK-Erwachsene) untersuchte die Gründe für das Platzieren von Vertrauen in verschiedenen Kontexten (allgemein, Familie, NHS, Technologieunternehmen) sowie deren Zusammenhang mit dem tatsächlichen Einsatz gesundheitsbezogener Tracking-Technologien. Die Ergebnisse zeigen, dass Vertrauen stark kontextabhängig und relational ist: Hauptgründe für Vertrauen waren „Zuverlässigkeit und das Einhalten von Versprechen“ sowie „verantwortungsvolles Verhalten“. Allgemeines Vertrauen korrelierte nicht zwangsläufig mit domänenspezifischem Vertrauen oder Technologieakzeptanz. Höheres Vertrauen in den NHS und in Technologieunternehmen sagte die Nutzung von Gesundheits-Tracking-Geräten signifikant vorher, ein zusammengefasster Vertrauensscore über alle Gesundheitsdomänen hingegen nicht. Die Autoren schlussfolgern, dass Vertrauen in der Gesundheitsdatennutzung nicht global, sondern domänenspezifisch gemessen und politisch berücksichtigt werden muss.
Der Artikel „Data solidarity: Operationalising public value through a digital tool“ von Seliem El-Sayed, Ilona Kickbusch und Barbara Prainsack, veröffentlicht 2025 in der Zeitschrift Global Public Health, stellt das Konzept der Data Solidarity als Alternative zu herkömmlichen Datengovernance-Ansätzen vor. Diese basieren primär auf der Kategorisierung von Datentypen und vernachlässigen dabei den Kontext der Datennutzung sowie die Erzeugung öffentlichen Werts. Data Solidarity priorisiert stattdessen die Bewertung konkreter Datennutzungen: Nutzungen mit hohem öffentlichen Wert sollen aktiv gefördert, schädliche streng reguliert oder verboten und privat-profitorientierte ohne nennenswerten öffentlichen Nutzen durch Gewinnumverteilung (z. B. „Besteuerung“) an die Öffentlichkeit gebunden werden. Zur Operationalisierung dieses öffentlichen Werts wird das Bewertungstool PLUTO vorgestellt, das Risiken und Nutzen abwägt und eine gerechtere Verteilung von Vorteilen und Belastungen in der globalen Gesundheitsdatennutzung ermöglichen soll.
Der Artikel „New rules are required for WHO’s engagement with Big Tech“ (BMJ 2025;390:r1718), verfasst von Ilona Kickbusch und Kollegen, fordert die Entwicklung spezifischer Governance- und Accountability-Rahmenbedingungen für die Zusammenarbeit der Weltgesundheitsorganisation (WHO) mit großen Technologieunternehmen. Diese Unternehmen sind zu einflussreichen Akteuren in der globalen Gesundheit geworden, die Bereiche wie Gesundheitsdaten, KI-Anwendungen, Fehlinformationsbekämpfung und Politikgestaltung prägen. Der bestehende Framework of Engagement with Non-State Actors (FENSA) aus dem Jahr 2016 ist nicht ausreichend tech-spezifisch, weshalb die Autoren eine Anlehnung an die etablierten Regelungen für die Pharmaindustrie sowie die Einrichtung einer Arbeitsgruppe und langfristig eines Global Compact für digitale Gesundheit und KI-Governance vorschlagen, um Risiken wie Datenextraktion, algorithmische Bias und kommerzielle Interessenkonflikte zu minimieren und öffentliches Vertrauen zu wahren.
Die Veranstaltung „Trusting AI in Digital Health: A Transatlantic Dialogue on Ethics, Systems and Patients“ befasste sich mit der ethischen Gestaltung und dem Vertrauen in digitale Gesundheitssysteme. Dr. Girish Nadkarni, Chair der Abteilung für Künstliche Intelligenz und menschliche Gesundheit am Mount Sinai Health System, sowie Dr. Alexander Charney, Professor an der Icahn School of Medicine und Direktor des Charles Bronfman Institute for Personalized Medicine, forderten, Gesundheitsdaten nicht als bloße Handelsware, sondern als öffentliches Gut zu betrachten, wobei das Konzept von „Daten als Grundlage“ (soil) eine nachhaltige Kultivierung und Wiederverwendung zum gesellschaftlichen Nutzen vorsieht. Das Vertrauen in KI-Systeme muss dabei durch eine konsequente Governance, Transparenz und die Einhaltung strenger Datenschutzstandards wie HIPAA und DSGVO bereits in der Designphase verankert werden. Ein wesentlicher Aspekt ist zudem die Patientenzentrierung, da Patienten eher bereit sind, ihre Daten als öffentliche Ressource zur Verfügung zu stellen, wenn sie einen klaren altruistischen Nutzen für die medizinische Forschung und die Gesellschaft erkennen.
„Mein Doktor, die KI und ich“ ist eine Veranstaltungsreihe des Instituts für Ethik, Geschichte und Philosophie der Medizin der Medizinischen Hochschule Hannover. Das Projekt untersucht die Auswirkungen künstlicher Intelligenz auf die Beziehung zwischen Patient:innen und Ärzt:innen und entwickelt ethische Zukunftskonzepte für deren Umgang mit KI-Systemen in der Gesundheitsversorgung. Gefördert vom Niedersächsischen Ministerium für Wissenschaft und Kultur lief die Reihe von Oktober 2023 bis Dezember 2024. Im Mittelpunkt standen vier Diskursstationen mit Vorträgen, Workshops, illustrierten Fallvignetten sowie die Erarbeitung eines „living document“ mit konkreten Handlungsempfehlungen:
- Verantwortung: Die Hauptverantwortung für den Einsatz von KI-Systemen sollten Ärzt:innen haben.
- Vertrauen: Zertifizierungen, hohe wissenschaftliche Evidenz durch Studien und Kontrollmöglichkeiten sollen die entscheidenden Aspekte für die Vertrauenswürdigkeit darstellen.
- Rolle von Ärzt:innen: Ärzt:innen sollten eine beratende, unterstützende und empathische Rolle einnehmen, wenn KI beteiligt ist.
- KI verstehen: Patient:innen sollten von Ärzt:innen Informationen über die grundlegende Funktionsweise von KI in der Gesundheitsversorgung erhalten.
- Konkreten KI-Einsatz hinterfragen: Patient:innen sollten von Ärzt:innen eine Erklärung für den konkreten Einsatz von KI bei ihrer Gesundheitsversorgung erhalten.
- Datenschutz und Datensicherheit: Patient:innen sollten von Ärzt:innen eine Erläuterung über den Umgang mit ihren persönlichen Gesundheitsdaten beim Einsatz von KI erhalten.
- Bedürfnisorientierung: Patient:innen sollten gemäß ihres individuellen Bedarfs gegenüber Ärzt:innen ihr Recht auf Wissen und auf Nicht-Wissen ausüben können.
- Verantwortung und Haftung: Ärzt:innen sollten im Rahmen ihrer Sorgfaltspflicht die Verantwortung für KI-basierte Entscheidungen übernehmen.
- Transparenz und Erklärbarkeit: Ärzt:innen sollten die Funktionsweise von KI-Systemen verstehen und bei Bedarf eine Erklärung für Ergebnisse geben können.
- Patientenkommunikation und informierte Einwilligung: Ärzt:innen sollten über die Funktionsweise, Chancen, Risiken und Grenzen des Einsatzes von KI aufklären können.
- Weiterbildung: Ärzt:innen sollten die Möglichkeit haben, sich über die neuesten Entwicklungen im Bereich KI fortzubilden.
Das Gespräch unter dem Titel „The Ethics of Human-Machine Interaction: Prof. Dr. Aimee van Wynsberghe & Lisa Hegemann“ thematisiert die ethischen Herausforderungen im Umgang mit künstlicher Intelligenz (KI). Professorin Aimee van Wynsberghe unterteilt die Entwicklung der KI-Ethik dabei in drei „Wellen“, wobei sie aktuell einen „Structural Turn“ (strukturelle Wende) postuliert, der die ökologischen Kosten, die globale Infrastruktur und die Nachhaltigkeit der Technologie in den Fokus rückt. In Bezug auf die menschliche Interaktion mit Maschinen vertritt sie die Position, dass Maschinen keine echte Fürsorge leisten können, da sie lediglich mathematische Werkzeuge ohne Kontextverständnis sind. Die Tendenz des Menschen zur Anthropomorphisierung, also dem Zuschreiben menschlicher Eigenschaften gegenüber Objekten wie Robotern oder Sprachmodellen, wird als psychologisches Phänomen kritisch beleuchtet, dem durch gezielte Design-Leitplanken entgegengewirkt werden sollte. Abschließend charakterisiert van Wynsberghe die aktuelle gesellschaftliche Verbreitung von KI-Systemen als ein laufendes soziales Experiment, das eine stärkere Berücksichtigung voher nicht gehörter Stimmen sowie klare ethische und rechtliche Rahmenbedingungen erfordert.
Der Beitrag „From Service to Commodity: Corporization, Competition, Commodification, and Customer Culture Transforms Health Care“ von John D. Stoeckle analysiert die strukturellen Veränderungen des Gesundheitswesens in marktwirtschaftlich organisierten Gesellschaften. Im Mittelpunkt steht die Transformation medizinischer Versorgung von einer personenbezogenen Dienstleistung hin zu standardisierten, vermarkteten Gesundheitsleistungen. Der Autor beschreibt die Auswirkungen von Korporatisierung, Wettbewerb und Kundenorientierung auf die Arzt-Patient-Beziehung. Abschließend wird die Frage aufgeworfen, inwiefern diese Entwicklung den moralischen Auftrag der medizinischen Versorgung verändert oder gefährdet.
Ethical AI Alliance ist eine globale, interdisziplinäre Allianz, die als praxisorientiertes Governance-Labor fungiert, um Verantwortlichkeit in KI-Systemen dort aufzubauen, wo bestehende Governance-Ansätze nicht ausreichen. Sie vereint über 50 aktive Mitwirkende und mehr als 1.200 Unterstützer aus den Bereichen Technologie, Governance, Menschenrechte, Forschung, Design, Kunst und Recht. Die Organisation arbeitet dezentral und global verteilt, mit Koordination aus Spanien, und ist als gemeinnütziger Verein (ASOCIACIÓN ETHICAL AI ALLIANCE, Registro Nacional de Asociaciones Nr. 629636) registriert.
Das Buch „Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives“ von Charlotte Blease ist eine provokative Untersuchung zur Rolle von Ärzten im Gesundheitswesen. Die Autorin, eine Expertin für Gesundheitsinformatik mit Hintergrund in philosophischer Psychologie, analysiert systematisch Schwächen des derzeitigen, ärztlich dominierten Systems. Das Werk gliedert sich in vier Teile – Zugang zur Versorgung, Symptomoffenlegung, Diagnose und Behandlung sowie Empathie – und stellt jeweils Probleme der menschlichen Medizin dar, bevor es prüft, inwieweit Künstliche Intelligenz (KI) diese Defizite beheben könnte. Blease hinterfragt grundlegend, ob Ärzte überhaupt notwendig sind und ob KI potenziell bessere, zuverlässigere Versorgung leisten könnte.
Der Artikel mit dem Titel „Trust Analysis Canvas for Teaching in the Field of Digital Public Health and Medicine: Tutorial“ wurde am 17. Februar 2026 in der Zeitschrift JMIR Medical Education (Band 12, e79709, DOI: 10.2196/79709) veröffentlicht. Die Autoren Federica Zavattaro, Clara-Maria Barth, Caroline Brall, Viktor von Wyl und Felix Gille stellen darin das Trust Analysis Canvas for Teaching (TACT) vor, ein neu entwickeltes Lehrmittel zur strukturierten Analyse von Vertrauen in digitaler öffentlicher Gesundheit und Medizin. Aufgrund fehlender adäquater Bildungsressourcen zu diesem Thema wurde TACT in einem iterativen Prozess basierend auf Vertrauensforschung erstellt, von Vertrauensexperten begutachtet, mit 23 Studierenden unterschiedlicher Fachrichtungen und Studienstufen (BSc, MSc, PhD) an den Universitäten Zürich und Bern in Fokusgruppen getestet und verfeinert sowie ins Französische, Italienische, Deutsche und Spanische übersetzt. Das Canvas umfasst 16 Leitfragen in sechs Kern-Dimensionen (u. a. Kontext, Akteure, Ursachen, Wirkungen), um Studierenden eine geführte Auseinandersetzung mit dem komplexen Vertrauenskonzept zu ermöglichen. Der Beitrag beschreibt den Entwicklungsprozess und bietet eine praxisorientierte Tutorial-Anleitung zur Anwendung anhand eines Fallbeispiels aus dem digitalen Gesundheitsbereich.
Das Sonderheft-Einführungsartikel mit dem Titel „Global governance of commercial actors in data-intensive health innovation: Introduction to the special issue“ von James A. Shaw, Clémence Pinel, Joseph Donia und Ine Van Hoyweghen erscheint in der Zeitschrift Policy Studies (Volume 47, Issue 2, 2026). Er beleuchtet die globale Regulierung kommerzieller Akteure bei datenintensiven Gesundheitsinnovationen, die durch Big Data, KI und maschinelles Lernen vorangetrieben werden. Kommerzielle Unternehmen, Venture-Capital-Firmen und marktorientierte Gesundheitsorganisationen dominieren diese Entwicklungen, was zu Spannungen zwischen privatem Profit und öffentlichem Nutzen führt, zu Pfadabhängigkeiten in digitalen Infrastrukturen sowie zu Bedarf an transnationaler Koordination führt. Der Text analysiert Beiträge aus Nordamerika, Europa, Afrika und Asien und plädiert für einen ökosystembasierten Ansatz, um kommerzielle Praktiken mit öffentlicher Sicherheit, Ethik und universellen Gesundheitswerten in Einklang zu bringen.
Ethical AI Alliance ist eine globale, interdisziplinäre Allianz, die als gemeinnütziger Verein (ASOCIACIÓN ETHICAL AI ALLIANCE, registriert in Spanien) agiert und sich als Governance-Labor versteht. Sie arbeitet daran, Verantwortlichkeit in der KI-Entwicklung praxisnah aufzubauen, ausgehend von gelebter Erfahrung und dort, wo bestehende KI-Governance Defizite aufweist. Die Organisation vereint über 50 aktive Kernmitglieder sowie mehr als 1.200 Unterstützer aus Bereichen wie Technologie, Governance, Menschenrechte, Forschung, Design, Kunst und Recht und operiert verteilt mit Koordination aus Spanien.
Der Artikel mit dem Titel „Bias-Mitigated AI as a Foundation for Resilient and Effective Health Systems“ wurde am 23. Februar 2026 in der Zeitschrift JMIR Public Health and Surveillance (Band 12, e88457) veröffentlicht. Die Autoren, darunter Jarbas Barbosa da Silva Jr., Maureen Birminghamm und Marcelo D’Agostino von der Pan American Health Organization (PAHO) sowie weitere Experten, beleuchten algorithmische Verzerrungen (Bias) in KI-Systemen im Gesundheitswesen als zentrale Herausforderung für Qualität, Sicherheit und Governance. Sie beschreiben Formen wie Repräsentations-, Mess-, Aggregations- und Deployments-Bias anhand von Beispielen (z. B. Hautkrebsdetektion oder Pulsoximetrie) und diskutieren deren Auswirkungen auf Präzisionsmedizin sowie in niedrig- und mittel-einkommensstarken Ländern der Amerikas. Der Text schlägt einen Governance-Rahmen zur Bias-Minderung über den gesamten KI-Lebenszyklus vor – von inklusiver Datenerhebung über Validierung und Transparenz bis hin zu Post-Market-Überwachung – und fordert politische Maßnahmen, um Fairness als messbaren Bestandteil resilienter Gesundheitssysteme zu etablieren.
„AI and ‘Do No Harm’“ ist ein Podcast-Episode der JAMA Network, veröffentlicht am 26. Februar 2026. Darin diskutiert die Moderatorin Yulin Hswen mit den Ärzten David Wu und Adam Rodman die sichere klinische Anwendung von Large Language Models (LLMs) in der Medizin. Basierend auf dem Prinzip „Do No Harm“ (zuerst keinen Schaden anrichten) analysieren sie typische Fehlerquellen von KI-Modellen, Grenzen rein Genauigkeits-basierter Bewertungen, die Interaktion zwischen Klinikern und KI sowie notwendige Schutzmechanismen. Im Zentrum steht das NOHARM-Benchmark (Numerous Options Harm Assessment for Risk in Medicine) des ARISE-Netzwerks, das an realen Konsultationsfällen die Häufigkeit und Schwere potenzieller Schäden durch KI-Empfehlungen misst – insbesondere Auslassungsfehler (Omissions) – und einen Leaderboard für über 30 Modelle bereitstellt, um sichere Modelle für den klinischen Einsatz identifizieren zu können.
„Consentful-by-design: a perspective on safeguarding data ownership from generative AI leveraging lessons from the healthcare domain“ ist ein Open-Access-Review-Artikel, veröffentlicht am 7. Januar 2026 in der Zeitschrift AI & SOCIETY. Die Autoren Akis Linardos, Theresa Willem, Alena Buyx, Showkot Hossain, Taeho Jung, Dimitrios Makris und Spyridon Bakas beleuchten ethische Risiken generativer KI (GenAI), insbesondere Verletzungen von Urheberrechten, Plagiat, Betrug, unentgeltliche Nutzung kreativer Arbeit und fehlende Einwilligung bei der Datennutzung für Trainingsdaten. Sie übertragen etablierte biomedizinische Ethikprinzipien (Autonomie, Transparenz, Beneficence) aus dem Gesundheitswesen – gestützt auf informierte Einwilligung, Datenschutzregelungen wie GDPR und HIPAA sowie Fortschritte in federated Learning und Datenherkunft – auf GenAI. Vorgeschlagen werden „consentful-by-design“-Ansätze wie Opt-in-Systeme für Dateneigentümer, Inhalte-Eigentümer-in-the-Loop-Mechanismen, federated Learning zur Stärkung der Autonomie sowie Blockchain-basierte Nachverfolgbarkeit, um eine verantwortungsvolle Entwicklung und Nutzung zu ermöglichen und neue Forschungsrichtungen für ethische KI zu eröffnen.
Das Paper „Suspended responsibility: The trouble with integrating researchers into shared-responsibility models for machine learning-supported decisions“ von Theresa Willem, Alena Buyx und Ruth Müller erschien online first am 15. Oktober 2025 in der Zeitschrift Health: An Interdisciplinary Journal for the Social Study of Health, Illness and Medicine. Die open-access-Forschungsarbeit analysiert empirisch in einem interdisziplinären Machine-Learning-Konsortium im Gesundheitsbereich, wie Forscher ihre Verantwortung für mögliche downstream-Fehler von ML-basierten Entscheidungsunterstützungssystemen wahrnehmen. Sie identifiziert einen „suspension of responsibility“ genannten Effekt, der durch Spannungen im Wissenschaftssystem sowie agentiale, lokale und temporale Verschiebungen der Forschungsergebnisse bei der Translation in die klinische Praxis entsteht. Die Studie kritisiert bestehende Verantwortungsmodelle und trägt zur Debatte über faire geteilte Verantwortungsmodelle bei, die Patienten, Ärzte und Wissenschaftler gleichermaßen berücksichtigen, und zeigt Barrieren für die Einbindung von Forschern als Mitverantwortliche auf.
Der Artikel mit dem Titel „Weighing the benefits and risks of collecting race and ethnicity data in clinical settings for medical artificial intelligence“ ist ein Viewpoint, der im April 2025 in der Zeitschrift The Lancet Digital Health (Volume 7, Issue 4, Seiten e286–e294) erschienen ist. Die Autoren um Amelia Fiske, Sarah Blacker, Lester Darryl Geneviève und weitere diskutieren die Vor- und Nachteile der Erhebung von Daten zu Rasse und Ethnie in klinischen Kontexten im Zusammenhang mit medizinischer KI. Ohne solche identifizierenden Daten sei es schwierig, Verzerrungen (Biases) in Trainingsdaten oder Algorithmen zu erkennen und faire KI-Tools zu entwickeln, die marginalisierte Gruppen nicht benachteiligen oder schädigen. Gleichzeitig bergen umfangreiche demografische Datenerhebungen Risiken wie biologischen Reduktionismus, die Konstruktion sozialer Kategorien, Datenschutzprobleme sowie potenziellen Missbrauch vor dem Hintergrund historischer Gewalt, Kolonialismus und Diskriminierung. Der Text plädiert für eine sorgfältige Abwägung beider Risikoseiten, betont intersectionale Ansätze und empfiehlt Maßnahmen wie standardisierte Berichterstattung (z. B. MINIMAR, Datasheets for Datasets), Bias-Mitigation-Frameworks sowie partizipative Methoden mit betroffenen Communities, um eine gerechtere medizinische KI zu fördern, ohne strukturelle Ungleichheiten allein durch bessere Daten zu lösen.
Der Artikel „Climate change and health: the next challenge of ethical AI“ erschien im Juli 2025 in der Zeitschrift The Lancet Global Health (Volume 13, Issue 7, Seiten e1314–e1320) als Open-Access-Viewpoint. Die Autoren Amelia Fiske, Isabella M. Radhuber, Theresa Willem, Alena Buyx, Leo Anthony Celi und Stuart McLennan argumentieren sachlich, dass Künstliche Intelligenz (KI) als eine der ressourcenintensivsten Technologien den Klimawandel durch hohen Energie-, Wasser- und Rohstoffverbrauch bei Training und Betrieb verschärft und damit indirekt die globale Gesundheit belastet – ein Paradoxon, da KI gerade in der globalen Gesundheit zur Reduktion von Ungleichheiten eingesetzt werden soll. Bisherige KI-Ethikrahmen behandeln Umweltauswirkungen nur marginal unter „Nachhaltigkeit“, weshalb die Autoren fordern, diese als zentrale ethische Herausforderung anzuerkennen, bestehende Prinzipien wie Transparenz, Beneficence, Non-Maleficence, Equity und Justice entsprechend anzupassen und konkrete Maßnahmen wie verbesserte Berichterstattung, Audits und internationale Kooperation umzusetzen, um KI-Entwicklung mit Klimazielen in Einklang zu bringen.
Der Artikel „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ erschien am 3. Juli 2025 in der Zeitschrift Minds and Machines (Volume 35, Article 31) und wurde von Jessica Morley, Emmie Hine und Luciano Floridi sowie weiteren Autoren verfasst. Er beleuchtet das transformative Potenzial von Künstlicher Intelligenz (KI) im globalen Gesundheitswesen, etwa bei Diagnostik und Zugang zu Versorgung in benachteiligten Regionen, betont jedoch die anhaltende Lücke zwischen theoretischen Möglichkeiten und tatsächlichen Nutzen. Die Autoren analysieren Hindernisse wie ethische Unsicherheiten, begrenzte Dateninfrastrukturen, mangelnde Evidenzqualität und regulatorische Unklarheiten. Basierend auf Erkenntnissen des Symposiums „Global Health in the Age of AI“ der Cini Foundation und des Yale Digital Ethics Center schlagen sie fünf zentrale Infrastrukturanforderungen für eine ethische KI-Implementierung vor: robusten Datenaustausch, epistemische Sicherheit mit Autonomie des Personals, geschützte Gesundheitswerte, validierte Ergebnisse mit Verantwortlichkeit sowie Umweltnachhaltigkeit. Abschließend fordern sie eine koordinierte, sektor- und grenzüberschreitende Zusammenarbeit, um technologischen Kolonialismus zu vermeiden und KI als Beitrag zur Gesundheitsgerechtigkeit zu nutzen, statt bestehende Ungleichheiten zu verstärken.
Die Studie „Anticipating Moral and Economic Considerations, Opportunities, and Potential Frictions for AI in Medical Imaging: Multistakeholder Cocreation Study“ wurde am 25. Februar 2026 im Journal of Medical Internet Research (JMIR, Band 28, e83407, DOI: 10.2196/83407) veröffentlicht. Autoren sind Martin Bastiaan Schilder, Alexandra Keyser, Susan van Hees, Alessandro Sbrizzi und Wouter Pieter Christiaan Boon. In einer partizipativen Cocreation-Workshop mit 17 heterogenen Stakeholdern (u. a. Radiologen, Innovatoren, Patientenvertreter) in den Niederlanden wurden zukünftige Szenarien für skalierbare KI-Anwendungen in der Radiologie entwickelt und moralische sowie ökonomische Aspekte reflektiert. Es ergaben sich sieben Themen: Vertrauen und Effizienz von KI-Technologien, Verantwortlichkeiten bei klinischen Entscheidungen mit KI, Diagnose als Einmal- versus iterativer Prozess, Regulierungen als Anforderung oder Einschränkung, ökonomische Vor- und Nachteile, Abwägung zwischen Informationsbedarf und Patientendatenschutz sowie umweltbezogene Überlegungen. Daraus leiten die Autoren drei übergeordnete Themen ab: Human-AI-Kollaboration und Vertrauen, Governance, Regulierung und ethische Absicherung sowie Wertschöpfung und Nachhaltigkeit. Die Studie betont die Notwendigkeit, technologische Fortschritte mit ethischer Verantwortung, institutioneller Rechenschaft und gesellschaftlichem Nutzen auszugleichen, und fordert weitere Forschung zur Übertragbarkeit auf andere Länder und Gesundheitssysteme.
Der Artikel „First, do no AI: How not to help the world’s struggling healthcare systems“ von Dave Pearson, veröffentlicht am 5. Mai 2025 auf Health Exec, stellt ein Paper von Amelia Fiske und Kollegen vor, das am 2. Mai 2025 in BMC Global and Public Health erschienen ist. Die Autoren warnen davor, Künstliche Intelligenz (KI) voreilig in ressourcenarmen Gesundheitssystemen der Entwicklungsländer einzuführen, da dies bestehende Abhängigkeiten verstärken und grundlegende Probleme ignorieren könnte. Stattdessen plädieren sie – inspiriert vom „5S“-Framework des verstorbenen Paul Farmer – dafür, zunächst in Staff (qualifiziertes Personal), Stuff (Grundausstattung und Medikamente), Spaces (physische Infrastruktur), Systems (starke Governance) und Support (soziale Rahmenbedingungen) zu investieren. Erst wenn diese Grundlagen stabil sind, könne KI sinnvoll ergänzen, anstatt zu schaden; andernfalls sei eine KI-priorisierende Strategie potenziell kontraproduktiv und diene nicht den Bedürfnissen der Ärmsten. Der Beitrag betont, dass Erfolg in der Gesundheitsversorgung an der zuverlässigen Bereitstellung qualitativ hochwertiger Versorgung gemessen werden sollte, nicht an technologischer Raffinesse.
Der Artikel mit dem Titel „Explosion of formulaic research articles, including inappropriate study designs and false discoveries, based on the NHANES US national health database“ wurde am 8. Mai 2025 in PLOS Biology veröffentlicht. Er beschreibt eine starke Zunahme formelhafter Forschungsarbeiten, die Daten der US-amerikanischen National Health and Nutrition Examination Survey (NHANES) nutzen. Die Autoren identifizierten systematisch 341 solcher Publikationen aus den letzten zehn Jahren, die meist einzelne Prädiktoren mit Gesundheitszuständen in Verbindung bringen, obwohl viele Erkrankungen multifaktoriell sind. Es zeigt sich eine explosionsartige Steigerung der Veröffentlichungen (von durchschnittlich 4 pro Jahr 2014–2021 auf 190 allein bis Oktober 2024), häufig ohne Berücksichtigung multipler Testkorrekturen gegen falsch-positive Ergebnisse und mit selektiver Nutzung von Daten-Teilmengen ohne Begründung. Die Studie sieht darin Risiken durch KI-unterstützte Workflows und mögliche Ausnutzung durch Paper Mills, und schlägt Maßnahmen für Forscher, Verlage und Datenanbieter vor, um die Qualität zu sichern.
„Number of Publications on New Clinical Prediction Models: A Bibliometric Review“ ist eine bibliometrische Analyse, die 2025 in JMIR Medical Informatics veröffentlicht wurde. Die Autoren schätzen auf Basis einer validierten Suchstrategie und einer Zufallsstichprobe aus PubMed- und Embase-Publikationen der Jahre 1995 bis 2020, dass bis Ende 2020 etwa 82.800 regressionbasierte und insgesamt rund 147.700 klinische Vorhersagemodelle (einschließlich nicht-regressionsbasierter Ansätze wie Machine Learning) publiziert wurden. Durch Extrapolation bis 2024 ergibt sich eine Gesamtzahl von etwa 248.000 Artikeln zur Entwicklung neuer Modelle. Die Studie zeigt eine starke Zunahme der Publikationen ab etwa 2010 und fordert einen Paradigmenwechsel von der Neuentwicklung hin zur externen Validierung und Impact-Bewertung bestehender Modelle, um Forschungswaste zu reduzieren.
TRIPOD+AI statement: updated guidance for reporting clinical prediction models that use regression or machine learning methods ist ein im April 2024 im BMJ veröffentlichtes aktualisiertes Berichtsleitlinien-Dokument (doi:10.1136/bmj-2023-078378). Es ersetzt die ursprüngliche TRIPOD-Erklärung von 2015 und richtet sich an Studien, die klinische Vorhersagemodelle (diagnostisch oder prognostisch) entwickeln oder evaluieren – unabhängig davon, ob diese mit klassischen Regressionsverfahren oder mit maschinellem Lernen (einschließlich komplexer KI-Ansätze) erstellt wurden. Die Leitlinie enthält eine 27-Punkte-Checkliste, eine erweiterte Erläuterung jedes Items sowie eine angepasste Abstract-Checkliste (TRIPOD+AI for Abstracts). Ziel ist eine vollständige, transparente und nachvollziehbare Berichterstattung, um die Bewertung, Reproduzierbarkeit und sichere Nutzung solcher Modelle im Gesundheitswesen zu verbessern; dabei werden insbesondere Themen wie Fairness, Open-Science-Praktiken und Patienten-/Öffentlichkeitsbeteiligung stärker berücksichtigt als in der Vorgängerversion.
„Systematic review finds ‘spin’ practices and poor reporting standards in studies on machine learning-based prediction models“ erschien 2023 im Journal of Clinical Epidemiology (Band 158, Seiten 99–110). Die Autoren um Constanza L. Andaur Navarro analysierten systematisch 152 Studien aus den Jahren 2018 und 2019, die klinische Vorhersagemodelle mit überwachten Machine-Learning-Verfahren entwickelten oder validierten. Die Untersuchung zeigte häufige Spin-Praktiken (z. B. übertriebene Formulierungen, unzureichende externe Validierung trotz Empfehlung zur klinischen Nutzung) sowie mangelhafte Berichtsstandards (z. B. fehlende Angabe von Präzisionsmaßen bei Diskriminations- und Kalibrierungsmetriken, kaum Nennung von Berichtsrichtlinien wie TRIPOD). Besonders auffällig war, dass viele Studien ohne externe Validierung eine Anwendung in der Praxis empfahlen und Limitationen oder frühere Modelle oft ignorierten. Die Autoren fordern ein angepasstes Framework zur Erkennung von Spin, um die Transparenz und Zuverlässigkeit solcher Studien zu verbessern.
„Evidence of questionable research practices in clinical prediction models“ wurde im September 2023 in der Zeitschrift BMC Medicine veröffentlicht. Die Autoren Nicole White, Rex Parsons, Gary Collins und Adrian Barnett untersuchten anhand von über 306.000 AUC-Werten (Area under the Curve), die aus PubMed-Abstracts extrahiert wurden, ob es Hinweise auf fragwürdige Forschungspraktiken bei klinischen Vorhersagemodellen gibt. Die Analyse der Verteilung dieser Werte zeigte klare Überschüsse unmittelbar oberhalb der gängigen Schwellenwerte 0,7, 0,8 und 0,9 sowie entsprechende Defizite darunter. Dies deutet darauf hin, dass einige Forscher durch selektive Analysen oder Berichterstattung versuchen, AUC-Werte über diese willkürlich etablierten Grenzen zu heben, um die Modelle als „akzeptabel“, „exzellent“ oder „herausragend“ darzustellen. Die Autoren schließen, dass dadurch AUC-Werte teilweise überhöht werden, was die Zuverlässigkeit klinischer Entscheidungsunterstützung gefährden kann, und fordern mehr Transparenz durch Protokolle, Daten- und Codesharing.
„Evaluation of clinical prediction models (part 1): from development to external validation“ ist ein 2024 in The BMJ erschienener Übersichtsartikel von Gary S. Collins und Kollegen. Der Text erläutert systematisch, warum eine aussagekräftige Bewertung klinischer Vorhersagemodelle notwendig ist und welche Validierungsstrategien dafür geeignet sind. Er beschreibt den Übergang von internen Validierungsmethoden (z. B. Bootstrapping, k-fache Kreuzvalidierung, interne-externe Kreuzvalidierung) über die Vermeidung unzweckmäßiger Datensplittings bis hin zur externen Validierung in neuen, repräsentativen Datensätzen. Besonderes Gewicht liegt auf der Vermeidung von Überoptimismus, der Untersuchung von Heterogenität, der Berücksichtigung von Fairness in Untergruppen sowie der Unterscheidung zwischen Reproduzierbarkeit und Transportierbarkeit von Modellen. Der Artikel bildet den Auftakt einer dreiteiligen Serie und betont, dass nur eine transparente und methodisch fundierte Evaluation die tatsächliche Brauchbarkeit eines Vorhersagemodells in der Praxis zuverlässig einschätzen lässt.
„Justice Begins in the Field: How Empirical Data Can Inform Ethical Analysis of Ambient Intelligence Systems“ ist ein Open-Peer-Commentary-Artikel von Zachary Griffen, Katharine Lawrence und Kellie Owens, erschienen 2026 in Band 26, Heft 2 der Zeitschrift The American Journal of Bioethics. Der Text kommentiert den Vorschlag eines „justice-first“-Ansatzes zur ethischen Bewertung von Ambient Intelligent Systems (AIS) im Gesundheitswesen, wie er von Herington und Cho entwickelt wurde. Die Autoren berichten aus der Praxis der Implementierung eines KI-gestützten ambienten Dokumentationssystems an der NYU Langone Health und zeigen auf, dass der justice-first-Ansatz zwar die Notwendigkeit einer Berücksichtigung konkurrierender Interessen verschiedener Stakeholder betont, jedoch durch empirische Daten aus realen klinischen Umgebungen ergänzt werden muss, um konkrete Governance-Mechanismen, gerechte Zugänge, Patienteneinwilligung, Datenschutz und die Vermeidung von Ungleichheiten wirksam umzusetzen. Sie plädieren für eine flexible, datenbasierte und iterative Herangehensweise, die traditionelle bioethische Prinzipien erweitert und langfristige Evaluation einschließt.
Der Artikel „Do New Technologies Change Our Moral Norms?“ von Robin Hillenbrink und Guido Löhr, erschienen 2026 in der Zeitschrift Think (Volume 24, Issue 71) bei Cambridge University Press, untersucht, ob und wie neue Technologien unsere moralischen Normen verändern. Die Autoren argumentieren, dass Technologien nicht nur Handlungsweisen beeinflussen, sondern auch moralische Begriffe wie Tod, Verantwortung oder Gesundheit herausfordern und dadurch Unsicherheiten schaffen, die zu einer Anpassung oder Neudefinition von Konzepten zwingen. Beispiele sind mechanische Beatmungsgeräte, die den Begriff des Hirntods einführten, autonome Waffensysteme, die Verantwortungslücken erzeugen, sowie CRISPR-Gen-Editierung, die Unterscheidungen zwischen Therapie und Enhancement oder natürlicher und künstlicher Lebensgestaltung in Frage stellt. Solche konzeptuellen Veränderungen führen zwangsläufig zu Wandlungen in moralischen Überzeugungen, Praktiken, Normen und Werten, weshalb ein Verständnis dieser Mechanismen für eine reflektierte ethische Auseinandersetzung mit zukünftigen Technologien notwendig ist.
Das Whitepaper „The Agency Continuum – A Strategic Framework for Orchestrating Human-AI Agency“ entwickelt einen strategischen Bezugsrahmen, um Entscheidungsbefugnisse zwischen Menschen und KI systematisch zu beurteilen und nicht dem Zufall zu überlassen. Es beschreibt fünf Modi der Handlungsverteilung von rein menschlicher Entscheidung bis zur delegierten Autonomie von KI-Systemen, jeweils mit spezifischen Vorteilen, Risiken und notwendigen Voraussetzungen. Ziel ist es, Organisationen von einer rein transaktionalen Nutzung von KI hin zu einer bewussten Orchestrierung von Verantwortlichkeit, Governance und Zusammenarbeit in hybriden Mensch-KI-Systemen zu führen.
Der Artikel „The Lost Aura of the Physician in the Age of Artificial Intelligence“ von John D. Lantos, erschienen am 2. März 2026 online in JAMA, beleuchtet sachlich die Veränderung der ärztlichen Rolle durch den zunehmenden Einsatz von Künstlicher Intelligenz (KI) in der Medizin. Der Autor argumentiert, dass KI viele traditionelle ärztliche Aufgaben wie Diagnostik, Beratung und Bildinterpretation übernimmt und Ärzte zunehmend zu Überwachern semiautonomer Systeme werden, wodurch ihre frühere Autonomie und einzigartige Präsenz – verglichen mit der „Aura“ eines Originalkunstwerks nach Walter Benjamin – verloren geht. Lantos zeichnet historisch nach, wie dieser Prozess bereits vor der KI durch Entwicklungen wie den klinischen Blick (Foucault), Anästhesie, evidenzbasierte Medizin und elektronische Patientenakten begann, die das Ärztliche zunehmend standardisierten und entpersonalisieren. Er betont, dass KI diesen Trend fortsetzt und verstärkt, indem sie auch empathische und interaktive Leistungen reproduzierbar macht, und stellt die offene Frage, wie Ärzte ihre berufliche Identität und ihren gesellschaftlichen Auftrag neu definieren können, wenn viele ihrer Kernkompetenzen technisch skalierbar werden.
„Ethical and epistemic implications of artificial intelligence in medicine: a stakeholder-based assessment“ ist ein wissenschaftlicher Fachartikel von Jonathan Adams, der im Mai 2025 in der Zeitschrift AI & Society (Volume 40) erschienen ist. Der Text stellt die sogenannte Ethical-Epistemic Matrix (EEM) vor, ein strukturiertes Bewertungsinstrument, das ethische Prinzipien (Wohlergehen, Autonomie, Gerechtigkeit, Erklärbarkeit) mit epistemischen Prinzipien (Genauigkeit, Konsistenz, Relevanz, instrumentelle Wirksamkeit) kombiniert. Mithilfe dieser Matrix werden die Auswirkungen von KI-Anwendungen in der Medizin aus der Perspektive verschiedener Stakeholder-Gruppen analysiert: Patienten, Kliniker, Entwickler, Öffentlichkeit und Gesundheitspolitiker. Der Beitrag demonstriert die Anwendung des Instruments exemplarisch am Fall von KI-Systemen zur Erkennung von Schlafapnoe und argumentiert, dass die EEM eine umfassendere und stakeholder-sensible Beurteilung ethischer sowie erkenntnistheoretischer Implikationen medizinischer KI ermöglicht als rein ethik- oder erkenntnistheoriezentrierte Ansätze.
Das Perspective-Artikel „If Machines Exceed Us: Health Care at an Inflection Point“ erschien am 26. September 2024 in NEJM AI (Band 1, Ausgabe 10). Die Autoren Eyal Klang, Idit Tessler, Robert Freeman, Vera Sorin und Girish N. Nadkarni erörtern die potenziellen Auswirkungen von künstlicher allgemeiner Intelligenz (AGI) und künstlicher Superintelligenz (ASI) auf das Gesundheitswesen. Obwohl diese Technologien derzeit spekulativ bleiben, könnten sie in Bereichen wie Behandlungsplanung, klinischem Denken und kognitiver Empathie menschliche Expertenfähigkeiten erreichen oder übertreffen. Der Text betont, dass solche Systeme möglicherweise eigene ethische Rahmenwerke entwickeln, die von menschlichen Werten abweichen. Er fordert eine vorausschauende multidisziplinäre Debatte zwischen Medizinern, Politikern und Technologieexperten, um die Übereinstimmung mit menschlichen Werten sicherzustellen und auf diese transformative Entwicklung vorbereitet zu sein.
Der Artikel „The Right to Understand in Health Care AI“ von Anshu Ankolekar, erschienen am 19. März 2026 im Journal of Medical Internet Research, behandelt das Recht von Patienten auf Erklärungen bei KI-gestützten medizinischen Entscheidungen. Der Beitrag stellt fest, dass sowohl der EU-KI-Verordnung als auch der DSGVO Patienten grundsätzlich einen Anspruch auf Erklärungen einräumen, jedoch keine der beiden Regelungen konkretisiert, was eine aussagekräftige Erklärung in der klinischen Praxis umfasst. Technische Undurchschaubarkeit hochperformanter KI-Modelle, zeitliche und kognitive Belastungen im klinischen Alltag sowie unterschiedliche Gesundheits- und Digital-Literacy der Patienten führen dazu, dass Erklärungen häufig nicht in einer für Betroffene nutzbaren Form vermittelt werden. Der Autor plädiert dafür, den Fokus von bloßer gesetzeskonformer Bereitstellung einer Erklärung hin zu deren tatsächlicher Verständlichkeit und Entscheidungsrelevanz zu verschieben und fordert eine gemeinsame Anstrengung von Entwicklern, Kliniken und Politik, um dieses Ziel zu erreichen.
Der Artikel „The Cultivation of Digital Health Citizenship“ von Dimitra Petrakaki, Eva Hilberg und Justin Waring, erschienen 2021 in der Zeitschrift Social Science & Medicine, untersucht, wie digitale Technologien im englischen Gesundheitswesen eine Form der digitalen Gesundheitsbürgerschaft erzeugen. Die Autoren zeigen anhand von Interviews und Dokumentenanalysen, dass Patienten durch die Erzeugung von Gesundheitsdaten, die Teilnahme an Online-Communities und die Abgabe von Feedback altruistisches Verhalten, Gemeinschaftsgefühl sowie Forderungen nach Anerkennung und Veränderung entwickeln. Gleichzeitig wird diese Bürgerschaft durch algorithmische Nudges gesteuert und bleibt häufig auf isolierte, nicht nachhaltige Handlungsmomente beschränkt, was sie von klassischen Formen der biologischen Bürgerschaft unterscheidet. Die Studie betont die Schnittstelle von Biosozialität und Technosozialität und hinterfragt die langfristige Tragfähigkeit dieser durch Technologie produzierten Subjektivität.
Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.


