Künstliche Intelligenz
Einleitung
Das Positionspapier des HAEV aus Juli 2024, betitelt „Künstliche Intelligenz (KI) in der Hausarztpraxis“, beleuchtet den Einsatz von KI in der hausärztlichen Versorgung. Es betont die Chancen von KI, wie die Unterstützung bei Diagnose und Therapieplanung, die Entlastung von administrativen Aufgaben und die Verbesserung der Patienteninteraktion durch Chatbots. Gleichzeitig werden Risiken wie Datenschutzbedenken, ethische Fragen und mögliche Verzerrungen angesprochen. Das Papier fordert Transparenz, Qualitätssicherung der Daten, Anpassung an Praxisprozesse und die Entwicklung eines klaren regulatorischen Rahmens für den verantwortungsvollen Einsatz von KI in der Medizin. Es wird betont, dass KI als Ergänzung und nicht als Ersatz für ärztliche Entscheidungen dient, wobei die Sicherheit und der Datenschutz der Patienten sowie die Entlastung des Praxisteams im Vordergrund stehen.
Der Artikel “Ten Ways Artificial Intelligence Will Transform Primary Care” aus dem Jahr 2019 beschreibt, wie KI die hausärztliche Versorgung in den USA verändern könnte. Er hebt zehn Bereiche hervor, darunter Risikoprädiktion, Populationsgesundheitsmanagement, medizinischer Rat und Triage, und Diagnostik, in denen KI Verbesserungen bringen könnte. Die Herausforderung besteht darin, die Balance zu finden, wie KI am besten in den hausärztlichen Alltag integriert wird, um die vier Ziele (bessere Versorgung, bessere Gesundheit, geringere Kosten, Wohlbefinden der Arbeitskräfte) zu erreichen. (Lin, Mahoney, und Sinsky 2019)
Die Trendstudie „Künstliche Intelligenz in der ambulanten Versorgung: Trends, Chancen und Potenziale für das deutsche Gesundheitswesen“ untersucht die Rolle von KI im Gesundheitswesen. Sie zeigt, dass ein Drittel der Ärzt:innen bereits KI nutzt, insbesondere in Bildgebung, Diagnostik und Dokumentation, während zwei Drittel ein hohes Zukunftspotenzial sehen. KI entlastet vor allem administrative Aufgaben, verbessert Prävention und ermöglicht personalisierte Medizin. Haftungsrisiken und Kontrollverlust sind jedoch zentrale Vorbehalte. Die Studie betont die Notwendigkeit europäischer Gesundheitsdaten, strenger Datenschutzstandards und umfassender Fortbildung, um KI verantwortungsvoll einzusetzen und den Fachkräftemangel zu mildern.
Die Studie mit dem Titel „General practitioners’ opinions of generative artificial intelligence in the UK: An online survey“ untersucht, wie britische Hausärztinnen und Hausärzte den Einsatz von generativer Künstlicher Intelligenz (KI) im klinischen Alltag bewerten. In einer landesweiten Online-Befragung von 1005 GPs im Januar 2025 zeigte sich, dass die Mehrheit Vorteile bei Dokumentation, Informationssammlung und Effizienz erwartet, jedoch große Skepsis hinsichtlich Empathie, Datenschutz und Chancengleichheit besteht. Lediglich wenige Ärztinnen und Ärzte wurden bislang von Arbeitgebern zur Nutzung von KI ermutigt oder speziell geschult, und der Wunsch nach klaren Leitlinien und gezielter Fortbildung ist weit verbreitet. (Kharko u. a. 2025)
Die Studie „Peer perceptions of clinicians using generative AI in medical decision-making“ untersucht, wie Ärzt:innen ihre Kolleg:innen wahrnehmen, wenn diese generative KI (GenAI) in der medizinischen Entscheidungsfindung einsetzen. In einem randomisierten Experiment mit 276 klinischen Fachkräften wurden Szenarien verglichen, in denen GenAI entweder nicht genutzt, als primäres Entscheidungswerkzeug oder als Verifizierungsinstrument eingesetzt wurde. Die Ergebnisse zeigen, dass Ärzte, die GenAI als primäres Tool verwenden, von ihren Peers signifikant weniger kompetent und klinisch versiert eingeschätzt werden, während eine Rahmung von GenAI als Verifikation diese negativen Einschätzungen nur teilweise mildert. Trotz dieser Wahrnehmungen erkennen die Teilnehmer den generativen KI-Systemen einen Nutzen zur Verbesserung der Genauigkeit zu, insbesondere wenn diese institutionell angepasst sind. (Yang u. a. 2025)
Das Editorial „The Generalist–Specialist Paradox of Medical AI“ beschreibt, dass Künstliche Intelligenz im medizinischen Bereich vor allem in spezialisierten, klar definierten Aufgaben – zum Beispiel bei der Auswertung von EEGs oder radiologischen Bildern – bereits Expert*innen-Niveau erreichen kann. Im Gegensatz dazu zeigt sich, dass KI beim flexiblen, ganzheitlichen Arbeiten, wie es von Generalisten in der Klinik gefordert wird, noch deutlich hinter menschlichen Fähigkeiten zurückbleibt. Diese Diskrepanz hat wichtige Folgen für die zukünftige Entwicklung, medizinische Ausbildung und praktische Anwendung von KI im Gesundheitswesen. (Murthy 2025)
Die Studie mit dem Titel „Revolutionizing healthcare: the role of artificial intelligence in clinical practice“ beleuchtet, wie künstliche Intelligenz (KI) das Gesundheitswesen grundlegend verändert. Sie zeigt auf, dass KI bei der Diagnose von Krankheiten, der Entwicklung personalisierter Behandlungspläne und in der Entscheidungsfindung von Ärzten eine wichtige Rolle spielt. Dabei verbessert KI die Genauigkeit, verkürzt Behandlungszeiten, senkt Kosten und reduziert Fehler. Die Studie betont auch Herausforderungen wie Datenschutz, Vorurteile in den Daten und die Notwendigkeit menschlicher Expertise, um den Einsatz von KI verantwortungsvoll zu gestalten. Insgesamt hebt sie hervor, dass KI Ärztinnen und Ärzte unterstützt, aber nicht ersetzt. (Alowais u. a. 2023)
Die Studie mit dem Titel „Predicting the Future — Big Data, Machine Learning, and Clinical Medicine“ von Ziad Obermeyer und Ezekiel J Emanuel zeigt, wie maschinelles Lernen und Big Data die klinische Medizin revolutionieren können. Die Autoren erklären, dass Algorithmen, die aus sehr großen und komplexen Datensätzen lernen, Prognosen, Diagnose und Bildinterpretation verbessern und dabei teilweise besser als menschliche Experten werden können. Gleichzeitig weisen sie darauf hin, dass maschinelles Lernen zwar sehr leistungsfähig in der Vorhersage ist, aber keine Ursache-Wirkungs-Beziehungen herstellt. Die Anwendungsmöglichkeiten umfassen verbesserte Prognosemodelle, automatisierte Analyse von medizinischen Bildern und genauere Diagnosen, mit einem bedeutenden Potenzial für eine verbesserte Patientenversorgung in den nächsten Jahren. (Obermeyer und Emanuel 2016)
Die Studie mit dem Titel „Artificial intelligence (AI) in health and medicine“ gibt einen umfassenden Überblick über die Fortschritte, Herausforderungen und Chancen künstlicher Intelligenz im medizinischen Bereich. Sie fasst wichtige Entwicklungen der letzten Jahre zusammen, insbesondere bei der Anwendung von Deep Learning in der medizinischen Bildanalyse wie Radiologie, Pathologie und Ophthalmologie. Zudem beleuchtet die Studie neuartige Forschungsrichtungen, darunter die Nutzung nicht-bildgebender Datenquellen sowie Kooperationen zwischen Mensch und KI, die in der klinischen Praxis vielversprechend sind. Abschließend werden zentrale technische und ethische Herausforderungen diskutiert, wie etwa Datenqualität, Vertrauen in KI-Systeme, regulatorische Fragen sowie der Umgang mit Verzerrungen und Fairness in der medizinischen KI. Die Studie betont, dass trotz großer Fortschritte die medizinische KI noch in einer frühen Phase der praktischen Umsetzung ist und weitere Forschung sowie sorgfältige Regulierung notwendig sind. (Rajpurkar u. a. 2022)
Beispielanwendungen
Name | Link |
---|---|
Tali AI | tali.ai |
Dougall GPT | dougallgpt.com |
S10 AI | s10.ai |
Abridge | fireflies.ai |
Scribeberry | scribeberry.com |
Speke | scribeamerica.com |
Tortus | tortus.ai |
Nabla/Nabla Copilot | nabla.com |
Bot MD | botmd.io |
Doximity/DocsGPT | doximity.com |
Nuance DAX | microsoft.com |
Suki AI | suki.ai |
Med-PaLM | sites.research.google |
DermGPT | dermgpt.com |
Ferma | ferma.ai |
NoteMD | notemd.ai |
Freed | getfreed.ai |
Lernmaterialien
Kostenfreie Angebote
Der KI-Campus bietet kostenlose Online-Kurse und Ressourcen zum Thema Künstliche Intelligenz in der Medizin, darunter Kurse zu Grundlagen, klinischen Anwendungen und Ethik. Diese Kurse sind für Mediziner:innen konzipiert und werden in Zusammenarbeit mit renommierten Partnern wie der Charité und dem DFKI angeboten.
openHPI ist die Bildungsplattform des Hasso-Plattner-Instituts, die kostenlose Online-Kurse zu Themen der Informatik anbietet. Diese Kurse richten sich an verschiedene Zielgruppen, von Einsteigern bis zu Fachpublikum, und decken sowohl Grundlagen als auch aktuelle Forschungsthemen ab. Die Plattform wurde 2012 als erstes europäisches MOOC-Projekt gestartet und bietet innovative Lernformate.
Kaggle Learn bietet eine Sammlung kostenloser, interaktiver Kurse zum Erlernen von Datenwissenschaft und maschinellem Lernen. Diese Kurse sind so gestaltet, dass Sie praktische Fähigkeiten erwerben können, die Sie sofort anwenden können. Kaggle Learn ist ideal für Anfänger und Fortgeschrittene, um ihre Fähigkeiten in Bereichen wie Python, Pandas, und maschinellem Lernen zu verbessern.
Die data.europa.eu Academy bietet kostenlose Online-Kurse zu offenen Daten, Datenvisualisierung und Datengovernance, die sich an Einsteiger und Fortgeschrittene richten, um deren Nutzung und Potenzial in der digitalen Ära zu fördern.
Online Plattformen
Kaggle-Datensätze und Kaggle-Wettbewerbe illustrieren den Einsatz künstlicher Intelligenz in der Medizin, indem sie Zugang zu Gesundheitsdaten und Herausforderungen bieten. Nutzende können Datensätze wie beispielsweise anonymisierte, fiktive Gesundheitsdaten oder medizinische Bilddaten herunterladen, um KI-Modelle für Diagnosen oder Therapieoptimierung zu trainieren. Parallel dazu fördern Wettbewerbe die Entwicklung von Algorithmen und Modellen, etwa zur Vorhersage von Krankheitsverläufen oder zur Analyse von Gesundheitsrisiken, durch kollaborativen Wissenswettbewerb. Kaggle bietet eine Plattform, auf der KI-gestützte Lösungen getestet, verfeinert und auf medizinische Probleme angewendet werden können.
Kostenpflichtige Angebote
Übersichtsplattform
Die Website Alles KI bietet einen Überblick über KI-Anwendungen zum Einsatz im Alltag.
Datengetriebene Lösungen
Die Dienstleistung von Intrexx konzentriert sich auf die Bereitstellung einer Low-Code-Plattform, um Datenaustausch bestehender digitaler Systeme nahtlos zu ermöglichen. Intrexx ermöglicht die Erstellung von Datenanwendungen mit minimalem Programmieraufwand, indem es intuitive Tools wie den Daten-Designer für zentralisierte, datenschutzkonforme Datenverwaltung bereitstellt. Automatisierung wird durch vordefinierte Workflows realisiert, wodurch Routineaufgaben effizienter und fehlerärmer werden. Der Intrexx Applikations-Builder ermöglicht es Datenmodelle, Formulare und Workflows zu erstellen und an spezifische Anforderungen anzupassen. Es bedarf keine umfassenden IT-Kenntnisse, dank der Low-Code-Ansätze wie Drag-and-Drop und vorgefertigter Schnittstellen.
CliniNote ist eine digitale Gesundheitsplattform, die auf die strukturierte Erfassung und Verarbeitung klinischer Daten spezialisiert ist. Sie ermöglicht die Integration in bestehende Krankenhaus- und Praxis-IT-Systeme, erfasst medizinische Informationen in Echtzeit und bereitet diese für Forschung, klinische Studien und die Patientenversorgung auf. Mithilfe KI-gestützter Tools reduziert CliniNote den Dokumentationsaufwand für medizinisches Personal und trägt zur Verbesserung der Datenqualität sowie der Effizienz im klinischen Alltag bei.
Experimentelle Anwendungen
pillenfuchs.konsilado.de ist ein experimentelles KI-gestütztes Forschungsprojekt, das darauf abzielt, Medikationspläne mithilfe eines großes Sprachmodells zu überprüfen. Es handelt sich explizit nicht um ein medizinisches Angebot von menschlichen Ärzten oder Apothekern, sondern um ein experimentelles Tool. Die KI analysiert Medikationspläne basierend auf eingegebenen Patientendaten wie Alter, Geschlecht, Nierenfunktion und einem hochgeladenen Bundesmedikationsplan (als PDF oder Text). Dabei werden potenzielle Arzneimittelwechselwirkungen, Empfehlungen und Quellen ausgegeben. Die Ergebnisse sind jedoch ohne Gewähr, können Fehler enthalten und stellen keine verbindlichen Handlungsempfehlungen dar. Es wird ausdrücklich betont, dass nur der behandelnde Arzt verlässliche medizinische Ratschläge geben kann.
KI-Agenten
dianoviCDS unterstützt bei der Diagnose und Behandlung, indem es patientenspezifische Empfehlungen auf Basis von Symptomen, medizinischen Leitlinien und anonymisierten Patientendaten liefert. Die Plattform kombiniert Sprachmodelle mit klassischem maschinellem Lernen. Durch Integration in bestehende Informationssysteme optimiert dianoviCDS Arbeitsabläufe und unterstützt bei der Abrechnungsoptimierung. hessian.ai/aisr-community/dianovi
IsareeAI ist eine offene Plattform und ein Ökosystem für KI-Agenten, das die Transformation der Gesundheitsbranche durch künstliche Intelligenz vorantreiben will. Mit der edge-first KI-Assistentin Isa ermöglicht IsareeAI datenschutzsichere, lokale Verarbeitung klinischer Daten, Integration spezialisierter KI-Agenten und eine globale Marktplatzlösung für Gesundheitsanwendungen. Die Plattform reduziert laut Angaben administrativen Aufwand um 30 %, beschleunigt die Einführung von KI-Innovationen um das Zehnfache und gewährleistet 100 % Datensouveränität, während sie durch offene Systeme bis zu 40 % der IT-Kosten einspart.
Die Studie „Agent Hospital: A Simulacrum of Hospital with Evolvable Medical Agents“ stellt eine virtuelle Krankenhausumgebung vor mit autonom agierenden großen Sprachmodellen (LLMs). Diese simulierte Welt ermöglicht es den KI-Agenten, durch die Behandlung zahlreicher simulierter Patienten medizinisches Fachwissen zu erwerben, ohne manuell annotierte Trainingsdaten. Die Simulation umfasst den gesamten Behandlungsprozess von der Krankheitsentstehung bis zur Nachsorge. Durch die Evolution in dieser Umgebung verbessern die KI-Agenten ihre diagnostischen Fähigkeiten und übertreffen bestehende Methoden im MedQA-Benchmark, der Fragen des US Medical Licensing Examination enthält. Die vorgeschlagene Methode, Simulacrum-based Evolutionary Agent Learning (SEAL), kombiniert LLMs mit medizinischen Wissensdatenbanken, um Trainingsdaten automatisch zu generieren, und zeigt Potenzial für Anwendungen über die medizinische KI hinaus. (J. Li u. a. 2024)
Die Studie „Toward the Autonomous AI Doctor: Quantitative Benchmarking of an Autonomous Agentic AI Versus Board-Certified Clinicians in a Real World Setting“ vergleicht die Leistung eines vollständig autonomen KI-Systems, „Doctronic“, mit der von Fachärzt:innen im Rahmen von 500 realen Telemedizin-Urgent-Care-Fällen. Die Ergebnisse zeigen, dass die diagnostische Übereinstimmung zwischen KI und Ärzt:innen in 81 % der Fälle vorhanden war und die Behandlungspläne sogar zu 99,2 % übereinstimmten. In Fällen von Abweichungen lag die KI in rund einem Drittel der Fälle vorn. Die Studie demonstriert damit, dass agentenbasierte KI-Systeme imstande sind, klinisch fundierte Entscheidungen auf Augenhöhe mit menschlichen Behandler:innen zu treffen und dabei eine potenzielle Lösung für zukünftige Engpässe im Gesundheitswesen bieten könnten. (Hayat u. a. 2025)
Die Studie “AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges” sieht KI-Agenten und Agentische KI als unterschiedliche Konzepte im Bereich der künstlichen Intelligenz. KI-Agenten sind modulare Systeme, die durch LLMs (Large Language Models) und LIMs (Large Image Models) angetrieben werden, um eng definierte, aufgabenbezogene Automatisierungen durchzuführen, oft als einzelne Entitäten mit externer Werkzeugnutzung und sequenzieller Argumentation. Im Gegensatz dazu stellt die Agentische KI einen Paradigmenwechsel dar, der durch die Zusammenarbeit mehrerer Agenten, dynamische Aufgabenzerlegung, dauerhaften Speicher und orchestrierte Autonomie gekennzeichnet ist, um komplexe, übergeordnete Ziele zu erreichen. Diese Entwicklung spiegelt einen Fortschritt von der reaktiven generativen KI hin zu immer autonomeren und kooperativeren Systemen wider, wobei die Agentische KI die Fähigkeit zu verteilter Intelligenz und komplexer Workflow-Automatisierung übertrifft. (Sapkota, Roumeliotis, und Karkee 2025)
Ethik
Das Projekt „Mein Doktor, die KI und ich“ des Instituts für Geschichte, Ethik und Philosophie der Medizin an der Medizinischen Hochschule Hannover untersuchte den Einsatz von Künstlicher Intelligenz in der Gesundheitsversorgung aus der Perspektive von Bürgern und Ärzten über den Zeitraum von 2023 bis 2024. In mehreren Veranstaltungen wurde diskutiert, wie KI die Arzt-Patienten-Beziehung verändert und welche ethischen Herausforderungen dabei entstehen. Ziel war es, konkrete Handlungsempfehlungen für den verantwortungsvollen Einsatz von KI in der Medizin zu entwickeln.
Die Studie „Patients’ Trust in Health Systems to Use Artificial Intelligence“ von Paige Nong und Jodyn Platt (JAMA Network Open, 2025) untersucht das Vertrauen von US-Bürgern in Gesundheitssysteme hinsichtlich des verantwortungsvollen Einsatzes von Künstlicher Intelligenz (KI) und des Schutzes vor KI-bedingten Schäden. Basierend auf einer national repräsentativen Umfrage von 2039 Erwachsenen im Jahr 2023 zeigt die Studie, dass die Mehrheit (65,8 %) geringes Vertrauen in den verantwortungsvollen KI-Einsatz und 57,7 % geringes Vertrauen in den Schutz vor KI-Schäden hat. Höheres allgemeines Vertrauen in das Gesundheitssystem korreliert stark mit Vertrauen in KI-Nutzung, während Diskriminierungserfahrungen im Gesundheitswesen das Vertrauen senken. Die Autoren betonen die Notwendigkeit besserer Kommunikation und Investitionen in die Vertrauenswürdigkeit von Gesundheitsorganisationen, um das Vertrauen in KI-Anwendungen zu stärken. (Nong und Platt 2025)
Die Studie „Expectations of healthcare AI and the role of trust: understanding patient views on how AI will impact cost, access, and patient-provider relationships“ von Paige Nong und Molin Ji (Journal of the American Medical Informatics Association, 2025) untersucht die Erwartungen von US-Bürgern an Künstliche Intelligenz (KI) im Gesundheitswesen basierend auf einer national repräsentativen Umfrage mit 2039 Teilnehmern von Juni bis Juli 2023. Die Ergebnisse zeigen niedrige Erwartungen: Nur 19,4 % erwarten Kostensenkungen, 19,55 % eine Verbesserung der Arzt-Patienten-Beziehung und 30,28 % besseren Zugang zur Versorgung. Höheres Vertrauen in Gesundheitssysteme und Ärzte korreliert mit positiveren KI-Erwartungen, während Frauen sowie Schwarze und Hispanics höhere Erwartungen als Männer bzw. Weiße haben. Die Autoren betonen, dass Vertrauen und Patientenbindung zentrale Aspekte der KI-Governance sein sollten, um negative Auswirkungen auf das Vertrauen zu vermeiden und patientenzentrierte KI-Systeme zu fördern. (Nong und Ji 2025)
Die Studie „Charting the future of patient care: A strategic leadership guide to harnessing the potential of artificial intelligence“ untersucht die transformative Rolle von Künstlicher Intelligenz (KI) im Gesundheitswesen. Sie beleuchtet 18 KI-basierte Anwendungen in den Bereichen klinische Entscheidungsfindung, Präzisionsmedizin, betriebliche Effizienz und prädiktive Analytik, illustriert durch ein Beispiel zur Rolle von KI in der öffentlichen Gesundheit während der frühen Phase der COVID-19-Pandemie. Die Studie adressiert ethische Herausforderungen wie Transparenz, Datenschutz, Bias, Einwilligung, Verantwortlichkeit und Haftung sowie die Notwendigkeit strategischer Maßnahmen zur Ausrichtung von KI an ethischen Prinzipien, rechtlichen Rahmenbedingungen und bestehenden IT-Systemen. Sie betont die Bedeutung einer informierten und strategischen Herangehensweise, um das Potenzial von KI zu nutzen und ihre Herausforderungen zu bewältigen. Zudem wird die Notwendigkeit neuer Kompetenzen wie technologischer Kompetenz, strategischer Weitsicht, Veränderungsmanagement und ethischer Entscheidungsfindung hervorgehoben, um KI effektiv im Gesundheitsmanagement einzusetzen. (Ennis-O’Connor und O’Connor 2024)
Die Studie „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ untersucht die Herausforderungen und Möglichkeiten der KI-Integration im globalen Gesundheitswesen. Sie identifiziert Hindernisse wie ethische Unsicherheiten, Dateninfrastrukturprobleme und regulatorische Unklarheiten, die die Umsetzung von KI-Vorteilen behindern. Basierend auf dem Global Health in the Age of AI Symposium schlägt die Studie fünf Kernanforderungen für eine ethische KI-Implementierung vor: robuste Datenaustauschsysteme, epistemische Sicherheit mit Personalauthonomie, Schutz von Gesundheitswerten, validierte Ergebnisse mit Verantwortlichkeit und ökologische Nachhaltigkeit. Die Autoren betonen die Notwendigkeit koordinierter, sektorenübergreifender Maßnahmen, um KI als Kraft für globale Gesundheitsgerechtigkeit zu nutzen und technologischen Kolonialismus zu vermeiden. (Morley u. a. 2025)
Die Studie „The new narrative medicine: ethical implications of artificial intelligence on healthcare narratives“ von David Schwartz und Elizabeth Lanphier untersucht die ethischen Auswirkungen generativer Künstlicher Intelligenz (KI) auf narrative Prozesse in der Gesundheitsversorgung. Sie argumentiert, dass KI, basierend auf großen Sprachmodellen, ein narratives Projekt ist, da sie auf narrativen Daten trainiert wird und narrative Ausgaben erzeugt. Die Autoren betonen, dass die Medizinischen Geisteswissenschaften (Medical Humanities) unverzichtbar sind, um die Chancen und Grenzen einer verantwortungsvollen KI-Nutzung zu bewerten. Anhand von zwei Fallstudien zeigen sie, wie narrative Medizin und Geisteswissenschaften entscheidende Rahmenbedingungen bieten, um die Auswirkungen solcher Technologien zu analysieren und zu kritisieren. Die Studie fordert eine verstärkte Einbindung der Geisteswissenschaften, um eine ethische Integration von KI in die Gesundheitsversorgung zu gewährleisten. (Schwartz und Lanphier 2025)
Die Studie „Global Health in the Age of AI: Charting a Course for Ethical Implementation and Societal Benefit“ untersucht die Chancen und Herausforderungen des Einsatzes von Künstlicher Intelligenz (KI) im globalen Gesundheitswesen. Sie zeigt auf, dass KI das Potenzial hat, Diagnosen zu verbessern und den Zugang zu medizinischer Versorgung insbesondere in benachteiligten Regionen zu erweitern. Gleichzeitig betont die Studie, dass ethische Unsicherheiten, mangelnde Dateninfrastruktur und unklare Regularien wichtige Hürden darstellen. Fünf zentrale Voraussetzungen für eine ethisch verantwortungsvolle Implementierung von KI werden vorgestellt, darunter der Schutz von Gesundheitswerten und Umweltverträglichkeit. Die Autor:innen plädieren für eine koordinierte, globale Zusammenarbeit, um KI gerecht und nachhaltig zum Wohl aller einzusetzen. (Morley u. a. 2025)
Die Studie “Uncovering ethical biases in publicly available fetal ultrasound datasets” untersucht, welche ethischen Verzerrungen in öffentlich zugänglichen fetalen Ultraschall-Datensätzen auftreten, die für das Training von Deep-Learning-Algorithmen in der Pränataldiagnostik verwendet werden. Die Autorinnen und Autoren zeigen, dass diese Datensätze vielfältige Bias-Probleme aufweisen, etwa fehlende demografische Vielfalt, eingeschränkte klinische Vielfalt der dargestellten Krankheitsbilder und Unterschiede bei der eingesetzten Gerätetechnik. Diese Verzerrungen können die Leistung von KI-Modellen beeinflussen und zu Ungleichheiten in den Gesundheitsresultaten führen. Die Studie empfiehlt deshalb, Datensätze gezielt diverser zu gestalten und Modellstrategien anzupassen, um mehr Fairness und Zuverlässigkeit in der medizinischen KI-Anwendung sicherzustellen. (Fiorentino u. a. 2025)
Die Studie mit dem Titel „Standing on FURM Ground: A Framework for Evaluating Fair, Useful, and Reliable AI Models in Health Care Systems“ beschreibt ein von Stanford entwickeltes Bewertungsmodell für KI-Anwendungen im Gesundheitswesen. Dieses Framework bewertet KI-Modelle danach, ob sie fair, nützlich und zuverlässig sind, und berücksichtigt dabei ethische Überprüfungen, Nutzenabschätzungen, finanzielle Nachhaltigkeit, IT-Umsetzbarkeit sowie Strategien für den Einsatz und die kontinuierliche Überwachung. Die Studie zeigt, wie diese umfassende Bewertung in der Praxis bei mehreren Gesundheits-KI-Lösungen angewandt wurde, um den nachhaltigen und verantwortungsvollen Einsatz von KI im klinischen Alltag sicherzustellen. (Callahan u. a. 2024)
Das White Paper „KI und Gerechtigkeit: vier Thesen für die Zivilgesellschaft“ beleuchtet das komplexe Verhältnis von Künstlicher Intelligenz (KI) und Gerechtigkeit in der Zivilgesellschaft. Es analysiert Spannungsfelder, liefert Praxisbeispiele und skizziert positive Visionen, wie KI einerseits Chancengerechtigkeit verbessern und Ungleichheiten sichtbar machen kann, andererseits aber auch bestehende Ungerechtigkeiten reproduzieren und Machtstrukturen festigen kann. Das Papier konzentriert sich auf vier zentrale Thesen: Literacy und Kompetenzen, Zugang und Zugänglichkeit, Diskriminierung und Nachhaltigkeit um einen informierten und kritischen Umgang mit KI zu fördern und Handlungsmöglichkeiten für mehr Gerechtigkeit im Kontext von KI aufzuzeigen. (Conduct Demokratische KI 2025)
Datenschutz
Privatemode AI ist eine KI-Plattform, die den Schutz sensibler Patientendaten durchgehend gewährleisten soll. Die Anwendung nutzt Confidential Computing, um medizinische Daten während der Übertragung, Speicherung und Verarbeitung verschlüsselt zu halten, sodass weder der Dienstanbieter noch Dritte Zugriff auf die Daten erhalten sollen. Privatemode AI ermöglicht medizinischen Einrichtungen die Nutzung generativer KI-Modelle zur Unterstützung bei klinischer Dokumentation, medizinischer Forschung und Behandlungsplanung.
Die Veröffentlichung „Sharing Trustworthy AI Models with Privacy-Enhancing Technologies“ ist ein Bericht der OECD aus dem Juni 2025, der sich mit dem Potenzial und den Herausforderungen von datenschutzfördernden Technologien (Privacy-Enhancing Technologies, PETs) im Kontext der Entwicklung und des Teilens von KI-Modellen beschäftigt. Der Bericht basiert auf Workshops mit Expertinnen und Experten und identifiziert zwei zentrale Anwendungsfall-Archetypen: zum einen die vertrauliche und minimalistische Nutzung von Input- und Testdaten zur Verbesserung der Modellleistung, zum anderen die sichere gemeinsame Erstellung und Weitergabe von KI-Modellen. Außerdem beschreibt die Publikation politische Maßnahmen zur Förderung des Einsatzes von PETs und betont die Bedeutung von Politikmaßnahmen sowohl auf Nachfrage- als auch auf Angebotsseite, um Innovationen zu unterstützen und Vertrauen im Umgang mit sensiblen Daten zu stärken. (OECD 2025)
Forschung
Primärversorgung
Die Studie „Why Is Primary Care Different? Considerations for Machine Learning Development with Electronic Medical Record Data“ von Jacqueline K. Kueper et al., veröffentlicht am 24. April 2025 in NEJM AI, beleuchtet die Besonderheiten der Primärversorgung und deren Implikationen für die Entwicklung von maschinellem Lernen (ML) mit Daten aus elektronischen Patientenakten. Primärversorgung als Fundament des Gesundheitssystems zeichnet sich durch Erstkontakt, Ganzheitlichkeit, Koordination und Kontinuität aus, doch die ML-Entwicklung in diesem Bereich hinkt anderen medizinischen Fachrichtungen hinterher. Die Autoren betonen die Notwendigkeit maßgeschneiderter Methoden, die repräsentative Daten, ganzheitliche Kohorten, zielgerichtete Outcomes und validierungsstrategien für dezentrale klinische Kontexte berücksichtigen. Interdisziplinäre Zusammenarbeit und verstärkte Investitionen in ML-Forschung für die Primärversorgung könnten klinische Entscheidungsfindung, Patientenergebnisse und Innovationen im Gesundheitswesen verbessern. (Kueper u. a. 2025)
Der Artikel „Application of Artificial Intelligence in Community-Based Primary Health Care: Systematic Scoping Review and Critical Appraisal“ untersucht die Anwendung von Künstlicher Intelligenz (KI) in der Primärversorgung. Die systematische Übersichtsarbeit, veröffentlicht 2021, analysiert 90 Studien, die KI-Systeme in diesem Bereich getestet oder implementiert haben, und identifiziert häufig verwendete Methoden wie maschinelles Lernen (45 %), natürliche Sprachverarbeitung (27 %) und Expertensysteme (19 %). Die Ergebnisse zeigen Vorteile wie verbesserte Diagnose und Krankheitsmanagement, weisen jedoch auch auf Herausforderungen wie Datenvariabilität, ethische Bedenken und hohe Verzerrungsrisiken hin. Die Autoren betonen die Notwendigkeit weiterer Forschung, um die effektive Entwicklung und Implementierung von KI in der Primärversorgung zu fördern, insbesondere unter Berücksichtigung von Geschlecht, Alter und ethnischer Diversität. (Abbasgholizadeh Rahimi u. a. 2021)
Die Studie „Artificial Intelligence in Outpatient Primary Care: A Scoping Review on Applications, Challenges, and Future Directions“ untersucht den Einsatz von künstlicher Intelligenz (KI) in der ambulanten Grundversorgung. Sie analysiert, wie KI-Technologien wie maschinelles Lernen und Deep Learning diagnostische Genauigkeit, Risikoprognosen, personalisierte Behandlungen und Workflow-Effizienz verbessern können. Die Autoren, Stacy Iannone, Amarpreet Kaur und Kevin B. Johnson, führten eine systematische Literaturrecherche nach PRISMA-ScR-Richtlinien durch und identifizierten 61 relevante Studien aus 3.203 gescreenten Manuskripten. Die Ergebnisse zeigen, dass KI hauptsächlich in der Modellentwicklung steckt, mit begrenzter realer Anwendung in Bereichen wie klinischer Entscheidungsfindung und Krankheitsdiagnose. Die Studie betont die Notwendigkeit von groß angelegten klinischen Studien, interdisziplinären Kooperationen und verbesserten Datenschutzstandards, um KI effektiv in die Primärversorgung zu integrieren und Patientenergebnisse zu verbessern. (Iannone, Johnson, und Kaur 2025)
Die Studie mit dem Titel “AI-based Clinical Decision Support for Primary Care: A Real-World Study” untersucht den praktischen Einsatz eines KI-basierten Tools zur klinischen Entscheidungsunterstützung (“AI Consult”) in der hausärztlichen Versorgung in Nairobi, Kenia. In Zusammenarbeit mit Penda Health und OpenAI wurden bei rund 40.000 Patientenkontakten in 15 Kliniken sowohl Qualitäts- als auch Sicherheitsaspekte analysiert. Das KI-System überprüfte im Hintergrund die Entscheidungen der Kliniker und gab Empfehlungen, ohne deren Autonomie einzuschränken. Das wichtigste Ergebnis: Der Einsatz des KI-Tools führte zu signifikant weniger Diagnose- und Behandlungsfehlern, wobei alle befragten Kliniker die Qualität der Versorgung als verbessert einstuften und ein Großteil die Wirkung als “substanziell” bezeichnete. (Korom u. a. 2025)
Zusammenarbeit Mensch KI
Der Artikel „From Tool to Teammate: A Randomized Controlled Trial of Clinician-AI Collaborative Workflows for Diagnosis“ untersucht, wie künstliche Intelligenz (KI) als aktiver Partner in der klinischen Diagnostik integriert werden kann. In einer randomisierten kontrollierten Studie mit 70 Klinikern wurde ein speziell entwickeltes GPT-System getestet, das unabhängige Diagnosen von Klinikern und KI kombiniert und eine Synthese mit Übereinstimmungen, Abweichungen und Kommentaren erstellt. Zwei Arbeitsabläufe wurden verglichen: KI als erste Meinung (AI-first) und KI als zweite Meinung (AI-second). Kliniker, die mit diesen kollaborativen KI-Workflows arbeiteten, erzielten mit 85 % (AI-first) und 82 % (AI-second) deutlich höhere Diagnosegenauigkeiten als mit traditionellen Mitteln (75 %). Die Ergebnisse zeigen, dass kollaborative KI-Systeme die klinische Expertise ergänzen und die diagnostische Entscheidungsfindung verbessern können. (Everett u. a. 2025)
Die Studie „Integrating an AI platform into clinical IT: BPMN processes for clinical AI model development“ untersucht die Integration einer klinischen KI-Plattform in die klinische IT-Infrastruktur. Sie beschreibt die Phasen des Entwicklungszyklus klinischer KI-Modelle, einschließlich Datenauswahl, Datenannotation, Training, Testen und Inferenz, unter Verwendung von BPMN-Diagrammen zur Darstellung der Prozesse. Anhand von drei klinischen Anwendungsfällen wird die Funktionalität der Plattform bewertet, wobei das FEDS-Framework genutzt wird. Die Ergebnisse zeigen, dass die Plattform eine breite Palette klinischer KI-Anwendungen abdeckt und eine Grundlage für weitere Entwicklungen wie standortübergreifendes Training oder die Integration von Sicherheits- und Datenschutzaspekten bietet. (Arshad u. a. 2025)
Vorhersagemodelle
Die Studie mit dem Titel „Performance evaluation of predictive AI models to support medical decisions: Overview and guidance“ bietet eine umfassende Übersicht und praxisorientierte Anleitung zur Bewertung von prädiktiven KI-Modellen im medizinischen Bereich, insbesondere für binäre Ergebnisse. Die Autoren analysieren 32 Leistungsmaße, die unterschiedliche Aspekte wie Diskriminierung, Kalibrierung, Gesamtleistung, Klassifikation und klinischen Nutzen abdecken. Sie betonen die Bedeutung der Auswahl geeigneter Messgrößen, die sowohl statistisch korrekt als auch entscheidungsrelevant sind, um Fehlentscheidungen und dadurch möglichen Schaden für Patienten zu vermeiden. Als essenzielle Kennzahlen empfehlen sie insbesondere die AUROC, Kalibrierungsplots und klinische Nutzenmaße wie den Net Benefit. Die Studie illustriert ihre Empfehlungen anhand einer externen Validierung des ADNEX-Modells zur Beurteilung von Eierstocktumoren und unterstreicht die Notwendigkeit transparenter und standardisierter Validierungsprozesse für prädiktive Modelle in der klinischen Praxis. (Calster u. a. 2024)
Bilderkennung
Die Studie “A Survey on Deep Learning in Medical Image Analysis” von Geert Litjens et al. aus dem Jahr 2017 gibt einen umfassenden Überblick über die Anwendung von Deep-Learning-Methoden in der medizinischen Bildanalyse. Sie fasst über 300 Forschungsarbeiten zusammen und behandelt wichtige Deep-Learning-Konzepte sowie deren Einsatz für Bildklassifikation, Objekterkennung, Segmentierung und Registrierung in verschiedenen medizinischen Anwendungsgebieten wie Neuro-, Lungen- und Brustbildgebung. Die Studie diskutiert zudem aktuelle Herausforderungen und zukünftige Forschungsrichtungen in diesem Gebiet. (Litjens u. a. 2017)
Das Paper “A Generalist Learner for Multifaceted Medical Image Interpretation” stellt MedVersa vor, ein generalistisches Modell zur medizinischen Bilderkennung. MedVersa nutzt visuelle und linguistische Supervision, unterstützt multimodale Eingaben und ermöglicht Aufgabenspezifikation, wodurch es sich an diverse klinische Szenarien anpassen kann. Mit dem Datensatz MedInterp, der über 13 Millionen annotierte Instanzen umfasst, erreicht MedVersa in neun von elf Aufgaben sehr gute Ergebnisse, oft mit über 10 % Verbesserung gegenüber spezialisierten Modellen. Es demonstriert die Machbarkeit multimodaler generativer KI für umfassende medizinische Bildanalysen und fördert anpassungsfähigere KI-gestützte klinische Entscheidungen. (Zhou u. a. 2024)
Internet der Dinge (IoT)
Das Forschungsprojekt „Mobilität trifft Medizin: Gesundheitscheck im Auto“ untersucht, wie KI-basierte Fahrzeugsensorik den Gesundheitszustand von Fahrenden erfassen kann. Die Charité – Universitätsmedizin Berlin und die BMW Group kooperieren, um Vitalparameter wie Herzfrequenz oder Atemfrequenz während der Fahrt zu messen. Ziel ist die Entwicklung von Technologien zur frühzeitigen Vorhersage von Gesundheitsrisiken wie Schlaganfällen oder Herzinfarkten. Die Studie nutzt ein speziell ausgestattetes Fahrzeug, um Daten unter Alltagsbedingungen zu erheben. Erste Ergebnisse werden Ende 2025 erwartet.
Haftungsfragen
Die Studie „Randomized Study of the Impact of AI on Perceived Legal Liability for Radiologists“ untersucht, wie Künstliche Intelligenz (KI) die Wahrnehmung der Haftung von Radiologen bei fehlerhaften Diagnosen beeinflusst. US-amerikanische Erwachsene bewerteten Szenarien, in denen ein Radiologe eine Gehirnblutung oder Krebs übersah, wobei KI entweder mit der Diagnose des Radiologen übereinstimmte oder sie widersprach. Teilnehmer stuften die Haftung des Radiologen höher ein, wenn die KI die Anomalie erkannte (KI-Widerspruch), im Vergleich zu Fällen, in denen die KI ebenfalls versagte (KI-Übereinstimmung) oder keine KI genutzt wurde. Die Angabe von KI-Fehlerraten, wie eine 1%ige Falsch-Negativ-Rate oder 50%ige Falsch-Positiv-Rate, verringerte die wahrgenommene Haftung, insbesondere bei Gehirnblutungen. Diese Ergebnisse zeigen die Relevanz von KI für rechtliche Wahrnehmungen in der Radiologie und haben Bedeutung für Gerichtsverfahren. (Bernstein u. a. 2025)
Die Studie „Understanding Liability Risk from Using Healthcare Artificial Intelligence Tools“ befasst sich mit der zentralen Frage der rechtlichen Haftung im Gesundheitswesen, wenn der Einsatz von KI-Tools zu Patientenschäden beiträgt. Sie analysiert die bisher spärlichen Fälle zu physischen Verletzungen, die durch KI oder Softwaresysteme verursacht wurden. Dabei identifiziert die Studie, dass Haftungsansprüche typischerweise auf Mängeln in Software zur Versorgungs- oder Ressourcenverwaltung, der Verwendung von Software durch Ärzte bei Entscheidungen oder Fehlfunktionen von Software in medizinischen Geräten basieren. Zudem stellt die Untersuchung einen Risikobewertungsrahmen zur Verfügung, der Gesundheitseinrichtungen dabei helfen soll, ihren Ansatz zur Implementierung und Überwachung von KI-Tools im Gesundheitswesen anzupassen, und bietet Empfehlungen zur Minimierung von Haftungsrisiken und zur Förderung einer sicheren Einführung von KI-Innovationen. (Mello und Guha 2024)
Bürokratieerleichterung
Die Studie „Machine learning in general practice: scoping review of administrative task support and automation“ untersucht den Einsatz von maschinellem Lernen zur Unterstützung und Automatisierung administrativer Aufgaben in der Allgemeinmedizin. Die Autoren analysierten 12 Studien, die überwiegend Terminplanungsaufgaben mit überwachten Lernmethoden behandeln, jedoch mit geringer Beteiligung von Allgemeinmedizinern. Die Forschung zeigt ein hohes Potenzial für solche Methoden, ist aber durch fehlende open-source-Daten und eine Priorisierung diagnostischer Aufgaben begrenzt. Zukünftige Studien sollten open-source-Daten nutzen und die Beteiligung von Ärzten klar dokumentieren. (Sørensen u. a. 2023)
Arbeitsgruppen
- Das [Schliep Lab](https://schlieplab.org/9 an der Brandenburgischen Technischen Universität erforscht mit KI neue Medikamente, untersucht Genome und entwickelt Algorithmen für Sequenzierungsdaten.
- Das van der Schaar Lab an der Universität Cambridge entwickelt KI- und maschinelle Lernmethoden für die Medizin.
- Das Digital Health Cluster des HPI forscht mit neuen Technologien an innovativen Lösungen, um die Gesundheit und das Wohlbefinden von Menschen und Gemeinschaften zu verbessern.
Das Medical Machine Learning Lab (MMLL) an der Universität Münster entwickelt Machine-Learning-Lösungen für die Medizin. Am Institut für Translationale Psychiatrie ansässig, konzentriert sich das Lab auf die Verbesserung personalisierter Patientenversorgung durch Techniken wie Deep Learning, kausale Inferenz und Zeitreihenanalyse. Es bietet Software-Infrastruktur wie PHOTONAI, um klinische Forschung zu optimieren. Zudem gewährleistet der Medical AI Quality Assessment and Compliance Hub die Qualität und Konformität medizinischer KI-Anwendungen.
Akzeptanz Künstlicher Intelligenz
Das Projekt „KI-BA: Künstliche Intelligenz in der Versorgung – Bedingung der Akzeptanz von Versicherten“ untersucht die Akzeptanz von KI-Anwendungen in der gesetzlichen Krankenversicherung (GKV) aus der Perspektive von Versicherten und Ärzt:innen. Ziel ist es, individuelle und kontextuelle Einflussfaktoren wie Alter, Bildung oder Technikaffinität zu identifizieren, die die Akzeptanz beeinflussen. Dazu werden KI-Einsatzgebiete kategorisiert, quantitative Befragungen mit etwa 1.500 Versicherten und 500 Ärzt:innen in Nordbayern durchgeführt und Handlungsempfehlungen für die nutzergerechte Implementierung von KI-Systemen entwickelt. Das von der Fraunhofer-Gesellschaft und der Friedrich-Alexander-Universität Erlangen-Nürnberg geführte Projekt lief von August 2021 bis Januar 2024 und wurde mit ca. 900.000 Euro gefördert.
Die Studie „Generative Artificial Intelligence in Primary Care: Qualitative Study of UK General Practitioners’ Views“ untersuchte die Einstellungen und Erfahrungen von 1005 britischen Hausärztinnen und Hausärzten hinsichtlich des Einsatzes generativer künstlicher Intelligenz (GenAI). Die Ergebnisse zeigten, dass viele Teilnehmende wenig Erfahrung und Schulung im Umgang mit GenAI hatten, jedoch grundsätzlich mögliche Vorteile im Bereich der Dokumentation und Verwaltung erkannten. Gleichzeitig wurden Unsicherheiten bezüglich der klinischen Entscheidungsfähigkeit von KI, Fragen der Verantwortlichkeit, des Datenschutzes und der rechtlichen Haftung geäußert. Die Studie betont die Notwendigkeit gezielter KI-Schulungen im hausärztlichen Bereich, um die Akzeptanz und den effektiven Einsatz zu fördern. (Blease u. a. 2025)
Generative KI
Die Studie „Revolutionizing Health Care: The Transformative Impact of Large Language Models in Medicine“ untersucht die potenziellen Anwendungen großer Sprachmodelle (LLMs) in der Medizin, insbesondere deren Fähigkeit, klinische Entscheidungsunterstützung, Diagnose, Behandlung und medizinische Forschung durch fortschrittliche Verarbeitung natürlicher Sprache und multimodaler Daten zu verbessern. Sie betont die Notwendigkeit evidenzbasierter Forschung, interdisziplinärer Zusammenarbeit und ethischer Überlegungen, insbesondere zu Datenschutz und Bias, um eine sichere und gerechte Anwendung zu gewährleisten. Der Kommentarartikel kritisiert technische Ungenauigkeiten, wie die fehlerhafte Darstellung der Verbindung zwischen BERT- und GPT-Modellen, die begrenzte Evidenz für multimodale LLMs in spezialisierten Bereichen wie medizinischer Bildgebung und die Vernachlässigung bestehender Technologien wie Operations Research für strukturierte Daten wie Ressourcenzuweisung. Zudem wird das Problem der Interoperabilität mit elektronischen Patientenakten hervorgehoben. In ihrer Antwort betonen die Autoren, dass ihr Ziel eine konzeptionelle Perspektive war, nicht technische Details, und verweisen auf Fortschritte wie Med-Gemini für multimodale Daten und die Fähigkeit von LLMs, FHIR-Daten zu extrahieren, während sie die Notwendigkeit robuster Validierung und Integration anerkennen. Sie klären, dass die schematische Darstellung der Transformer-Architektur verallgemeinert war, ohne spezifische Unterschiede zwischen BERT und GPT zu betonen. (Zhang u. a. 2025; Beltramin, Bousquet, und Tiffet 2025; Ji, Meng, und Yan 2025)
Generative Pre-trained Transformer (GPT)
Die Studie “Evaluating the Feasibility of ChatGPT in Healthcare: An Analysis of Multiple Clinical and Research Scenarios” von Marco Cascella et al. untersucht die Einsatzmöglichkeiten und Grenzen des KI-Sprachmodells ChatGPT im Gesundheitswesen. Dabei wurden vier Bereiche analysiert: Unterstützung in der klinischen Praxis, wissenschaftliche Produktion, Missbrauchspotentiale sowie das Nachdenken über öffentliche Gesundheitsthemen. Die Ergebnisse zeigen, dass ChatGPT gut darin ist, medizinische Informationen zu strukturieren und zu summarieren, aber bei komplexen Zusammenhängen und medizinischem Fachwissen Limitationen hat. Die Studie betont zudem die ethischen Herausforderungen und die Bedeutung einer verantwortungsvollen Anwendung dieser Technologie in Medizin und Forschung. (Cascella u. a. 2023)
Articulate Medical Intelligence Explorer (AMIE)
AMIE (Articulate Medical Intelligence Explorer) ist ein KI-System basierend auf einem großen Sprachmodell, das für diagnostische Dialoge optimiert wurde. Der medizinische Dialog mit dem Patienten ist elementar für eine präzise Diagnose. KI kann diesen Prozess zugänglicher und konsistenter machen könnte. AMIE wurde mit einem neuartigen, simulationsbasierten Selbstlernsystem trainiert und in einer randomisierten, doppelt verblindeten Studie mit 149 klinischen Szenarien gegen Hausärzte getestet. Dabei zeigte AMIE eine höhere diagnostische Genauigkeit und übertraf die Ärzte in den meisten Bewertungskategorien, wie Anamneseaufnahme und Empathie. Dennoch betont der Artikel Einschränkungen, wie die ungewohnte Text-Chat-Schnittstelle, und fordert weitere Forschung für reale Anwendungen. (Tu u. a. 2024) AMIE wurde erweitert, um nicht nur Diagnosen zu stellen, sondern auch das Follow-up zu unterstützen, indem es Krankheitsverläufe, Therapieansprechen und sichere Medikamentenverordnungen berücksichtigt. Basierend auf den Gemini-Modellen nutzt AMIE Techniken wie langes Kontextverständnis und geringe Halluzinationsraten, um Ärzte und Patienten bei komplexen Behandlungsplänen zu unterstützen.
Sprachmodellarchitekturen
Die Studie „Large Language Model Architectures in Health Care: Scoping Review of Research Perspectives“ untersucht, welche Architekturen großer Sprachmodelle (LLMs) aktuell in der medizinischen Forschung und Praxis eingesetzt werden. Die Autoren zeigen, dass GPT-basierte Modelle vor allem für kommunikative Anwendungen wie die Erstellung von Berichten oder den Patientendialog geeignet sind, während BERT-basierte Modelle Potenziale bei Aufgaben wie Klassifikation und Wissensentdeckung bieten. Die Arbeit hebt hervor, dass die Auswahl der passenden LLM-Architektur für die jeweilige medizinische Anwendung entscheidend ist und diskutiert zudem zentrale Herausforderungen wie Genauigkeit, Bias und Datenschutz. (Leiser, Guse, und Sunyaev 2025)
Die Studie mit dem Titel „Development, Evaluation, and Assessment of Large Language Models (DEAL) Checklist: A Technical Report“ stellt eine Checkliste vor, die darauf abzielt, die Berichterstattung über Large Language Models (LLMs) in der medizinischen Forschung zu standardisieren. Ziel ist es, Transparenz, Reproduzierbarkeit und methodische Strenge bei der Entwicklung und Anwendung von LLMs zu fördern. Die DEAL-Checkliste umfasst zwei Pfade: DEAL-A für die fortgeschrittene Modellentwicklung und Feinabstimmung und DEAL-B für angewandte Forschung mit vortrainierten Modellen und minimalen Anpassungen. Sie adressiert wesentliche Aspekte wie Modellspezifikationen, Datenverarbeitung, Trainingsverfahren, Evaluationsmetriken und Transparenzstandards. Damit schafft die Checkliste eine strukturierte Grundlage für die Dokumentation und peer-review von LLM-Studien und unterstützt die Weiterentwicklung robuster und nachvollziehbarer KI-Technologien im medizinischen Bereich. (Tripathi u. a. 2025)
Die Studie mit dem Titel „Foundation models for generalist medical artificial intelligence“ beschreibt die Entwicklung von Generalistischen Medizinischen KI-Modellen, die vielfältige medizinische Aufgaben ohne spezielle Trainingsdaten erledigen können. Diese Modelle ermöglichen die Integration verschiedener medizinischer Datenarten wie Bilder, elektronische Patientenakten und Genomdaten. Damit bieten sie vielseitige Anwendungsmöglichkeiten für die klinische Entscheidungsfindung und fordern neue regulatorische und technische Ansätze im Gesundheitswesen heraus. (Moor u. a. 2023)
Fine-tuning
Die Studie mit dem Titel „Limitations of Learning New and Updated Medical Knowledge with Commercial Fine-Tuning Large Language Models“ wurde von Eric Wu, Kevin Wu und James Zou veröffentlicht und untersucht, wie gut das Fine-tuning großer Sprachmodelle (LLMs) medizinisches Wissen aktualisieren können. Dabei wurden sechs führende Modelle wie GPT-4o, Gemini 1.5 Pro und Llama 3.1 mit einem neuen Datensatz aktueller medizinischer Informationen, darunter Zulassungen von Medikamenten durch die FDA und aktualisierte Leitlinien, feinjustiert. Die Ergebnisse zeigen, dass diese Modelle nur begrenzt in der Lage sind, neues Wissen zu verallgemeinern, wobei GPT-4o mini die beste Leistung erzielte. Die Arbeit hebt damit wichtige Einschränkungen der aktuellen Feinabstimmungsmethoden für den medizinischen Einsatz hervor. (Wu, Wu, und Zou 2025)
Basismodelle & Zeitreihen
Der Kommentar „Foundation Models for Generative AI in Time-Series Forecasting“ kritisiert, dass in einer zuvor veröffentlichten Übersichtsarbeit zu generativer KI bei zeitabhängigen biomedizinischen Daten der Begriff der Foundation Models (FMs) missverständlich verwendet wurde. Insbesondere wurden Modelle als FMs bezeichnet, die nicht auf großen, unbeschrifteten Datensätzen vortrainiert sind oder keine generativen Fähigkeiten besitzen. Zudem wurde auf die Unterscheidung zwischen generativen und maskierten Sprachmodellen hingewiesen, sowie darauf, dass klinische Sprachmodelle (CLaMs) nicht von Natur aus für Zeitreihenprognosen geeignet sind und entsprechend angepasst werden müssen. Insgesamt betonen die Autoren die Wichtigkeit einer klaren Definition von FMs und würdigen gleichzeitig die vielfältigen Anwendungsmöglichkeiten generativer KI im Bereich der Biomedizin. (Beltramin und Bousquet 2025)
Große Sprachmodelle & Gesundheitsakten
Die Studie „Leveraging Large Language Models for Accurate Retrieval of Patient Information From Medical Reports: Systematic Evaluation Study“ untersucht die Anwendung großer Sprachmodelle (LLMs) zur automatisierten Extraktion strukturierter Informationen aus unstrukturierten medizinischen Berichten mit dem LangChain-Framework in Python. Durch eine systematische Evaluierung von Modellen wie GPT-4o, Llama 3, Llama 3.1, Gemma 2, Qwen 2 und Qwen 2.5 mit Zero-Shot-Prompting-Techniken und Einbettung der Ergebnisse in eine Vektordatenbank wird die Leistung bei der Extraktion von Patientendemografie, Diagnosedetails und pharmakologischen Daten bewertet. Die Ergebnisse zeigen eine hohe Effizienz, wobei GPT-4o mit 91,4 % Genauigkeit die beste Leistung erzielt. Herausforderungen bestehen in der Verarbeitung unstrukturierter Texte und der Variabilität der Modellleistung, doch die Studie unterstreicht die Machbarkeit der Integration von LLMs in Gesundheitsabläufe zur Verbesserung der Datenverfügbarkeit und Unterstützung klinischer Entscheidungsprozesse. (Garcia-Carmona u. a. 2025)
Halluzinationen
Der Artikel mit dem Titel „Detecting hallucinations in large language models using semantic entropy“ beschreibt eine Methode zur Erkennung von sogenannten Konfabulationen, einer speziellen Art von Halluzinationen in großen Sprachmodellen (LLMs). Dabei wird die Unsicherheit des Modells auf der Bedeutungsebene erfasst, indem unterschiedliche generierte Antworten semantisch gruppiert und deren Entropie berechnet wird. Eine hohe semantische Entropie zeigt an, dass das Modell bei der Antwortgebung unsicher ist und somit eher zu falschen, willkürlichen Antworten neigt. Diese Methode funktioniert ohne domänenspezifisches Vorwissen, verbessert die Zuverlässigkeit von LLM-Antworten deutlich und ist robust gegenüber neuen, unbekannten Fragestellungen. So hilft sie, das Vertrauen in LLMs zu stärken und ihre praktische Anwendbarkeit zu erhöhen. (Farquhar u. a. 2024)
Der Artikel mit dem Titel „Token Probabilities to Mitigate Large Language Models Overconfidence in Answering Medical Questions“ untersucht, wie Wahrscheinlichkeiten für einzelne Tokens besser vorhersagen können, ob Antworten von großen Sprachmodellen (LLMs) im medizinischen Bereich richtig sind, im Vergleich zur von den Modellen selbst angegebenen Sicherheit. Die Studie zeigt, dass die von den Modellen geäußerte Zuversicht oft hoch, aber wenig aussagekräftig ist, während Token-Wahrscheinlichkeiten zuverlässigere Hinweise auf die Antwortgenauigkeit geben. Das Ergebnis legt nahe, dass in medizinischen Anwendungen eher auf solche Wahrscheinlichkeiten als auf die Selbstsicherheit der Modelle vertraut werden sollte. (Bentegeac u. a., o. J.)
Die Studie “The Reliability of LLMs for Medical Diagnosis: An Examination of Consistency, Manipulation, and Contextual Awareness” zeigt, dass sowohl Gemini als auch ChatGPT vollständige diagnostische Konsistenz bei identischen klinischen Szenarien erreichen. Beide Modelle sind jedoch anfällig für Manipulationen, wobei Gemini (40 %) eine höhere Anfälligkeit als ChatGPT (30 %) aufweist. ChatGPT reagiert stärker auf Kontextänderungen (77,8 % vs. 55,6 %), zeigt aber häufiger klinisch unangemessene Diagnoseänderungen (33,3 % vs. 22,2 %). Die Studie unterstreicht die Notwendigkeit strenger menschlicher Aufsicht und verbesserter Modelle, um Risiken für die Patientensicherheit zu minimieren. (Subedi 2025)
Bias
Die Studie mit dem Titel „Generative AI in Medicine: Pioneering Progress or Perpetuating Historical Inaccuracies?“ untersucht, ob generative Künstliche Intelligenz (gAI) in der Medizin implizite Vorurteile gegenüber Frauen und Minderheiten reproduziert. Dabei wurden mithilfe der gAI-Plattform DALL-E2 Bilder von Ärzten aus 19 Fachrichtungen generiert und hinsichtlich Geschlecht und Rasse mit realen Daten verglichen. Die Ergebnisse zeigen, dass gAI Frauen in vielen Fachbereichen im Vergleich zur tatsächlichen Ärzteschaft und den Ärzten in Ausbildung deutlich unterrepräsentiert, während Männer überwiegend dargestellt werden. Dies weist darauf hin, dass historische Ungleichheiten in den Trainingsdaten von gAI-Modelle einfließen und sich somit Vorurteile in den generierten Bildern widerspiegeln. Die Studie betont die Notwendigkeit, Trainingsdaten diverser zu gestalten, um eine realistischere und gerechtere Darstellung in KI-Anwendungen zu gewährleisten. (Sutera u. a. 2025)
Die Studie „Socio-Demographic Modifiers Shape Large Language Models’ Ethical Decisions“ untersucht, wie soziodemografische Faktoren wie Alter, Geschlecht, Bildungshintergrund oder kultureller Kontext die von großen Sprachmodellen getroffenen ethischen Entscheidungen beeinflussen können. Die Forschenden analysierten dazu systematisch, wie verschiedene demografische Profile in fiktiven Nutzeranfragen die Antworten und moralischen Bewertungen der Modelle verändern. Die Ergebnisse deuten darauf hin, dass Sprachmodelle nicht vollständig neutral agieren, sondern in ihrer Entscheidungsfindung von den in den Trainingsdaten enthaltenen gesellschaftlichen Mustern beeinflusst werden. Ziel der Arbeit ist es, ein besseres Verständnis für diese Verzerrungen zu schaffen und Ansätze für eine ethisch ausgewogenere KI-Entwicklung zu liefern. (Sorin u. a. 2025)
Redefining Bias Audits for Generative AI in Health Care ist ein 2025 in NEJM AI veröffentlichter Perspektivenartikel von Irene Y. Chen und Emily Alsentzer, der die Grenzen herkömmlicher Auditierungsansätze bei großen Sprachmodellen im Gesundheitswesen aufzeigt. Die Autorinnen untersuchen bestehende Verfahren zur Bewertung von Verzerrungen, identifizieren methodische Lücken und formulieren Leitlinien zur systematischen Kategorisierung und Erkennung von Bias. Anhand realer Anwendungen wie KI-gestützten Patientenantworten und psychischen Gesundheits-Chatbots werden die Herausforderungen illustriert und Empfehlungen für zukünftige Auditierungsstrategien entwickelt. (Chen und Alsentzer 2025)
Arztbriefgenerierung
Die Studie „Evaluating Hospital Course Summarization by an Electronic Health Record–Based Large Language Model“ untersuchte, wie sich ein in das elektronische Krankenaktensystem (EHR) eingebettetes Large Language Model (LLM) im Vergleich zu ärztlich verfassten Krankenhausverläufen (Hospital Courses, HCs) bewährt. In einer Analyse von 100 Fällen stellten die Forschenden fest, dass Assistenzärzte LLM-generierte HCs deutlich weniger bearbeiten mussten, um einen definierten Qualitätsstandard („4Cs“: vollständig, prägnant, kohärent und frei von Erfindungen) zu erreichen. Die überarbeiteten LLM-Texte wurden von erfahrenen Ärzt:innen tendenziell als vollständiger bewertet, wiesen jedoch häufiger kleinere inhaltliche Ungenauigkeiten (Konfabulationen) auf. Insgesamt zeigte die Studie, dass eine Zusammenarbeit zwischen Ärzt:innen und LLMs die Dokumentationslast verringern und die Qualität teils verbessern kann, sofern geeignete Kontrollmechanismen bestehen. (Small u. a. 2025)
KI Kompetenz
Die Studie mit dem Titel „AI Skills and Occupations in the European Start-up Ecosystem: Enabling Innovation, Upskilling and Competitiveness“ untersucht, welche Kompetenzen im Bereich Künstliche Intelligenz (KI) in europäischen Start-ups vorhanden sind und wo Weiterbildungsbedarf besteht. Auf Basis der SkillSync-Plattform wurden über 23.000 Fachkräfte in 3.600 KI-orientierten Start-ups analysiert, um regionale Unterschiede, Qualifikationslücken und Entwicklungspotenziale zu identifizieren. Die Studie zeigt, dass technologische Grundkompetenzen wie Python und maschinelles Lernen stark vertreten sind, aber insbesondere rechtliche, regulatorische und interdisziplinäre Fähigkeiten fehlen. Sie bietet datenbasierte Handlungsempfehlungen zur Förderung eines zukunftsfähigen und innovationsorientierten KI-Arbeitsmarkts in Europa.
Die Studie mit dem Titel „Digital and AI Skills in Health Occupations: What Do We Know About New Demand?“ untersucht die Auswirkungen digitaler Technologien und Künstlicher Intelligenz (KI) auf Gesundheitsberufe in OECD-Ländern. Basierend auf rund 55,5 Millionen Online-Stellenanzeigen aus Kanada, dem Vereinigten Königreich und den USA analysiert sie die Nachfrage nach digitalen und KI-Kompetenzen im Gesundheitssektor zwischen 2018 und 2023. Die Studie identifiziert dabei konkrete Kompetenzanforderungen, bewertet das Automatisierungspotenzial durch Generative KI und Robotik und hebt hervor, dass viele Gesundheitsberufe eher durch neue Technologien unterstützt als ersetzt werden. Abschließend betont sie die Bedeutung gezielter Weiterbildungsstrategien, um die Chancen des digitalen Wandels bestmöglich zu nutzen. (Manca und Eslava 2025)
KI Lehre
Die Studie in “AI education for clinicians” (Januar 2025) betont die Notwendigkeit gezielter AI-Ausbildung für Kliniker, um den sicheren und effektiven Einsatz von AI-Tools in der Medizin zu gewährleisten. Sie schlägt drei Expertise-Stufen vor: grundlegende Fähigkeiten zur Nutzung von AI-Tools, fortgeschrittene Fähigkeiten zur kritischen Bewertung und ethischen Implikationen sowie Expertenfähigkeiten für technische Innovationen. Die Autoren diskutieren Herausforderungen in der Integration von AI in medizinische Curricula, insbesondere logistische und curriculare Hürden, und empfehlen multidisziplinäre Ansätze sowie angepasste Lehrpläne für verschiedene Gesundheitssysteme und Fachrichtungen. Beispiele bestehender AI-Ausbildungsprogramme werden zur Veranschaulichung angeführt. (Schubert u. a. 2025)
KI Curriculum
Die Studie „AIFM-ed Curriculum Framework for Postgraduate Family Medicine Education on Artificial Intelligence: Mixed Methods Study“ entwickelt einen Lehrplanrahmen, um Künstliche Intelligenz (KI) in die Weiterbildung kanadischer Hausärzte zu integrieren. Durch eine Literaturrecherche und Expertenpanels entstand das AIFM-ed-Framework, das KI-Inhalte wie Grundlagen der Datenwissenschaft, Anwendung von KI-Tools (z. B. Diagnoseunterstützung, Praxisorganisation), ethische Aspekte (z. B. Datenschutz, Bias) und Bewertungsmethoden für KI-Tools umfasst. Diese Inhalte werden im 24-monatigen kanadischen Hausmedizin-Curriculum longitudinal integriert: im ersten Jahr durch Grundlagenmodule, im zweiten durch praktische Anwendungen wie Simulationen. Das Framework orientiert sich an den CanMEDS-Kompetenzen und adressiert den Bedarf an digitaler Kompetenz, wie vom College of Family Physicians of Canada gefordert. Es soll angehende Hausärzte befähigen, KI verantwortungsvoll in der Praxis einzusetzen, und fordert weitere Validierung für eine flächendeckende Implementierung. (Tolentino u. a. 2025)
Das Data-Augmented, Technology-Assisted Medical Decision Making (DATA-MD) Curriculum, entwickelt von einem interdisziplinären Team der University of Michigan, schließt die Wissenslücke von klinischem Personal bei der Bewertung und Nutzung von Künstlicher Intelligenz (KI) und Maschinenlernen (ML). Im Mai und Juni 2023 mit 23 Assistenzärzten der Inneren Medizin getestet, umfasst das Curriculum vier Module zu KI/ML-Grundlagen, Epidemiologie und Biostatistik, Unterstützung diagnostischer Entscheidungen sowie ethischen und rechtlichen Aspekten. Das Pilotprogramm zeigte signifikante Verbesserungen der Wissensstände in drei Modulen und erhöhte das Vertrauen der Lernenden in die Bewertung von KI/ML-Literatur und deren Anwendung in der klinischen Praxis. Trotz Einschränkungen wie kleiner Stichprobengröße und fehlendem Fokus auf generative KI zeigt das Curriculum Potenzial für eine breitere Anwendung in verschiedenen medizinischen Fachrichtungen und Institutionen, mit Plänen für Erweiterung und regelmäßige Aktualisierungen, um neue KI-Technologien zu berücksichtigen. (Wong u. a. 2024)
Internationaler Vergleich
Der Bericht „Trust, attitudes and use of artificial intelligence: A global study 2025“ zeigt, dass Deutschland im Vergleich zu anderen Ländern niedrige Werte bei KI-Ausbildung, -Wissen und -Kompetenz aufweist, wobei nur 20% der Befragten KI-bezogene Schulungen angaben, das Wissen bei 2,4/5 und die Kompetenz bei 4,0/7 liegt. Viele nutzen KI-Systeme regelmäßig, doch nur einige glauben, dass die Vorteile die Risiken überwiegen, und die Besorgnis über KI überwiegt Optimismus. Es wird Regulierung gefordert, bestehende Vorschriften seien unzureichend, wobei die wahrgenommene Angemessenheit von Schutzmaßnahmen von 2022 bis 2024 sank. Im Arbeitskontext stieg die regelmäßige KI-Nutzung, und die organisatorische Einführung von KI wuchs, doch die Unterstützung für verantwortungsvolle KI-Nutzung nahm ab. Das KI-Wissen blieb konstant, aber Sorgen und wahrgenommene Risiken stiegen, während Vertrauen in KI-Systeme und deren Vertrauenswürdigkeit abnahmen. Deutschland zeigt somit geringe KI-Akzeptanz, sinkendes Vertrauen und wachsende Skepsis, ähnlich wie andere fortgeschrittene Volkswirtschaften.
Privatwirtschaft
Der Artikel „Commercialization of medical artificial intelligence technologies: challenges and opportunities“ behandelt die Chancen und Herausforderungen bei der Kommerzialisierung von medizinischer Künstlicher Intelligenz (KI). Am Beispiel eines KI-Algorithmus zur Diagnose von Bauchaortenaneurysmen (AAA) durch nicht geschultes Pflegepersonal wird gezeigt, wie KI die Diagnostik verbessern kann. Der Text beschreibt wichtige Hürden wie Finanzierung, regulatorische Zulassung, Erstattung und Integration in klinische Leitlinien. Zudem wird ein erfolgreiches US-Unternehmen vorgestellt, das mit systematischem Vorgehen und früher Berücksichtigung regulatorischer Aspekte mehrere KI-Produkte erfolgreich auf den Markt gebracht hat. Insgesamt plädieren die Autoren dafür, die Kommerzialisierung von Beginn an in die Entwicklung medizinischer KI einzubeziehen, um den klinischen Nutzen zu maximieren. (B. Li, Powell, und Lee 2025)
Regulatorik
Der Artikel „Regulation of AI: Learnings from Medical Education“ von Vokinger, Soled und Abdulnour, veröffentlicht im April 2025 in NEJM AI, beleuchtet die regulatorischen Herausforderungen bei der Integration von künstlicher Intelligenz (KI) in das Gesundheitswesen aufgrund ihrer dynamischen und intransparenten Natur. Die Autoren schlagen ein KI-CBME-Lebenszyklus-Framework vor, das Parallelen zur kompetenzbasierten medizinischen Ausbildung (CBME) zieht. Dieses Framework übernimmt die fünf Kernkomponenten von CBME – Kompetenzdefinition, schrittweises Vorgehen, maßgeschneiderte Lernerfahrungen, kompetenzorientierter Unterricht und standardisierte Bewertung – zur Regulierung von KI-Systemen. Es betont kontinuierliche, ergebnisorientierte Bewertungen in Produktionsumgebungen, um Patientensicherheit, Verantwortlichkeit und Vertrauen zu gewährleisten und gleichzeitig das Potenzial von KI im Gesundheitswesen zu maximieren. (Vokinger, Soled, und Abdulnour 2025)
Die Studie “A general framework for governing marketed AI/ML medical devices” bietet die erste systematische Untersuchung der Überwachung nach Markeinführung von künstlicher Intelligenz und maschinellem Lernen (KI/ML) basierten Medizinprodukten durch die US-amerikanische Food and Drug Administration (FDA). Sie analysiert die Datenbank „Manufacturer and User Facility Device Experience“ (MAUDE), das zentrale Instrument der FDA zur Verfolgung der Sicherheit von etwa 950 zwischen 2010 und 2023 zugelassenen KI/ML-Medizinprodukten. Die Autoren identifizieren erhebliche Schwächen im bestehenden Meldesystem, insbesondere die unzureichende Erfassung spezifischer Probleme wie Konzeptdrift, Kovariatenverschiebung und Bias, die für KI/ML-Geräte charakteristisch sind. Die Studie charakterisiert die gemeldeten unerwünschten Ereignisse, hebt die hohe Konzentration von Berichten bei wenigen Geräten hervor (über 98 % der Ereignisse betreffen weniger als fünf Geräte) und zeigt, dass fehlende Daten, wie Ereignisort oder Berichterstellerinformationen, die Analyse erschweren. Sie schlägt Verbesserungen des Meldesystems vor, darunter eine bessere Standardisierung und Vollständigkeit der Daten, um die Sicherheit und Wirksamkeit von KI/ML-Geräten effektiver zu überwachen. Abschließend wird diskutiert, ob ein grundsätzlich neuer regulatorischer Ansatz erforderlich sein könnte, um den einzigartigen Herausforderungen dieser Technologien gerecht zu werden. (Babic u. a. 2025)
Der Bericht „Adverse Event Reporting for AI: Developing the Information Infrastructure Government Needs to Learn and Act“ betont, dass Vorabtests allein nicht ausreichen, um alle Risiken von KI-Systemen zu erkennen. Viele gefährliche oder unerwartete Probleme treten erst nach der Veröffentlichung in der Praxis auf, weshalb ein fortlaufendes Meldesystem für Vorfälle notwendig ist. Solche Systeme ermöglichen es Behörden und Unternehmen, echte Gefahren frühzeitig zu erkennen und darauf zu reagieren. Der Bericht hebt hervor, dass bewährte Modelle aus anderen Bereichen wie Medizin oder Cybersicherheit als Vorbild dienen können. Durch klare Meldepflichten, Kooperationen mit Forschungseinrichtungen und den Austausch von Daten kann ein adaptives und effektives Überwachungssystem aufgebaut werden, das die Sicherheit von KI langfristig verbessert.
Die Studie „How AI challenges the medical device regulation: patient safety, benefits, and intended uses“ untersucht, ob die EU-Medizinprodukteverordnung (MDR) den neuartigen Risiken von KI-basierten Medizinprodukten, insbesondere bei medizinischen Bildgebungstools, ausreichend begegnet. Die Autorinnen analysieren, ob die momentanen Vorgaben der MDR Aspekte wie Adaptivität, Autonomie, Bias, Intransparenz und Vertrauenswürdigkeit von KI-Anwendungen ausreichend berücksichtigen. Zudem wird kritisch hinterfragt, inwiefern die von Herstellern formulierten Nutzenversprechen im Rahmen der MDR tatsächlich mit dem realen klinischen Nutzen für Patientinnen übereinstimmen. Die Studie kommt zu dem Schluss, dass die MDR zwar wichtige Sicherheitsanforderungen setzt, jedoch in Bezug auf KI-Anwendungen eine Lücke zwischen erwartetem und tatsächlichem Patientennutzen bleibt, die regulatorisch besser adressiert werden muss. (Onitiu, Wachter, und Mittelstadt 2024)
Die Studie „Lessons from the Failure of Canada’s Artificial Intelligence and Data Act“ analysiert die Gründe für das Scheitern des kanadischen Gesetzes zur Regulierung von Künstlicher Intelligenz (AIDA). Das Gesetz war zu allgemein gefasst, ungenau und enthielt keine sektorspezifischen Regelungen, was besonders im Gesundheitswesen problematisch ist. Viele wichtige Aspekte wie Sicherheit, Transparenz, Bias und Datenschutz blieben unzureichend geregelt. Die Autoren betonen die Notwendigkeit einer gezielten, partizipativen und klar geregelten Gesetzgebung, um Innovationen verantwortungsvoll zu fördern und gleichzeitig Patientenschutz und ethische Standards zu gewährleisten. (Ishaque, Aidid, und Zadeh 2025)
Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.