Forschung
Die Studie „Digital technologies in primary care: Implications for patient care and future research“ von Ana Luísa Neves und Jako Burgers untersucht die Rolle digitaler Technologien in der Primärversorgung. Sie beleuchtet die rasante Einführung digitaler Gesundheitstechnologien während der COVID-19-Pandemie und deren Potenzial, qualitativ hochwertigere, sicherere und gerechtere Versorgung zu ermöglichen. Anhand von Beispielen wie Patientenzugang zu Gesundheitsdaten, Big-Data-Analysen und virtueller Versorgung werden Chancen und Herausforderungen diskutiert. Die Autoren betonen die Notwendigkeit, klare Forschungsergebnisse zu Qualitätsdimensionen wie Sicherheit, Effektivität und Gerechtigkeit zu erheben, und schlagen fünf Wünsche für die Zukunft vor, darunter die Einbindung von Fachkräften und Patienten in die Entwicklung digitaler Lösungen sowie die Sicherstellung von Datenschutz und Inklusion. (Neves und Burgers 2022)
Datenerfassung im Ambulanten Bereich
Die Forschung durch Datensammlung im ambulanten Bereich wird durch Wearables und mobile Technologien verändert. Geräte wie Fitness-Tracker oder Smartwatches ermöglichen die kontinuierliche Erfassung von Gesundheitsdaten wie Herzfrequenz, Schlafqualität oder Aktivitätsniveaus in Echtzeit. Plattformen wie die REDCap Mobile App unterstützen Forscher bei der Datenerfassung und -verwaltung direkt von Patienten, während GoWrap die Integration und Analyse von Daten aus Wearables erleichtert.
Gesundheitsdaten
Die Studie „A human-centered, health data-driven ecosystem“ beschreibt ein human-zentriertes, gesundheitsdatenbasiertes Ökosystem, das die Integration und Vernetzung verschiedener Datenquellen im Gesundheitswesen ermöglicht. Es gliedert sich in vier Datenquadranten – administrative und finanzielle Daten („Wer bin ich?“), Logistik- und Standortdaten („Wo bin ich?“), medizinische Daten („Bin ich gesund?“) sowie paramedizinische Daten („Wie erhole ich mich?“). Die Studie thematisiert technologische Ansätze wie Edge-, Fog- und Cloud-Computing zur effizienten Datenverarbeitung und diskutiert zudem rechtliche, finanzielle, ethische und sicherheitstechnische Herausforderungen bei der Umsetzung vernetzter und integrierter Gesundheitsversorgungssysteme. (Stevens u. a. 2022)
Die Studie mit dem Titel „The METRIC-framework for assessing data quality for trustworthy AI in medicine: a systematic review“ beschäftigt sich mit der Entwicklung eines spezialisierten Frameworks zur Bewertung der Datenqualität bei medizinischen Datensätzen für maschinelles Lernen. Die Autoren haben in einer systematischen Übersichtsarbeit 120 relevante Studien analysiert und daraus das METRIC-Framework abgeleitet, das 15 Dimensionen der Datenqualität in den Bereichen Messprozess, Aktualität, Repräsentativität, Informationsgehalt und Konsistenz umfasst. Ziel des Frameworks ist es, die Eignung von Trainingsdaten für medizinische KI-Anwendungen systematisch zu bewerten, um Verzerrungen zu reduzieren und die Vertrauenswürdigkeit von KI-Systemen im Gesundheitswesen zu erhöhen. Dadurch kann die Zulassung und sichere Anwendung von KI-Produkten in der Medizin gefördert werden. (Schwabe u. a. 2024)
Medable ist eine Plattform für moderne klinische Studien, die elektronische Clinical Outcome Assessment (eCOA) Lösungen anbietet. Die Plattform ermöglicht nahtlose Datenerfassung, verbessert die Patienteneinhaltung und unterstützt dezentrale klinische Studien (DCT) durch Funktionen wie Fernüberwachung, eConsent und vernetzte Sensoren. Medable ist global verfügbar, skalierbar und bietet eine benutzerfreundliche Oberfläche, die durch Patienten- und Expertenfeedback weiterentwickelt wurde. Die Plattform richtet sich an Pharmaunternehmen und Forschungseinrichtungen, die klinische Studien effizienter und patientenfreundlicher gestalten möchten.
Institutionentheorie
Die Studie „Changing the conversation on evaluating digital transformation in healthcare: Insights from an institutional analysis“ untersucht, wie schwierig es ist, digitale Veränderungen im Gesundheitswesen, besonders in der ambulanten Versorgung, zu bewerten. Sie nutzt die Institutionentheorie, um zu zeigen, dass unterschiedliche Sichtweisen – von Leistungserbringern, Verwaltung und Forschenden – die Bewertung kompliziert machen. In der ambulanten Versorgung führen diese Unterschiede zu Konflikten, weil verschiedene Ziele und Begriffe verwendet werden. Die Autoren schlagen vor, dass Leistungserbringer, Verwaltung und Forschende besser zusammenarbeiten und eine gemeinsame Sprache nutzen, um die Bewertung zu verbessern. Sie führen den Begriff „Logik-Bootstrapping“ ein, der beschreibt, wie Beteiligte ihre Ziele und Methoden Schritt für Schritt anpassen, um die gemeinsam Probleme zu lösen. (Burton-Jones u. a. 2020)
Die Studie „Applying institutional theory to the adoption of electronic health records in the U.S.“ untersucht die Einführung elektronischer Gesundheitsakten (EHRs) in ambulanten medizinischen Praxen in den USA anhand der Institutionentheorie. Sie zeigt, dass mimetische Kräfte vor den staatlichen Anreizen der HITECH Act von 2009 bei Unsicherheit eine wichtige Rolle spielten, während coercive Kräfte nach Einführung der Anreize und Strafen an Bedeutung gewannen. Normative Kräfte beeinflussten die Adoptionsentscheidungen kontinuierlich, insbesondere durch Netzwerkeffekte und professionelle Normen. Die Studie verdeutlicht den Einfluss institutioneller Faktoren, wie staatlicher Regulierung und Branchennormen, auf die Technologieadoption im Gesundheitswesen. (Sherer u. a. 2016)
Die Studie „Cost Minimization Analysis of Digital-first Healthcare Pathways in Primary Care“ führte eine retrospektive, registerbasierte Analyse im finnischen Harjun Terveys durch, um die Kosten der digitalen mit der traditionellen Primärversorgung bei akuten Erkrankungen zu vergleichen. 64.969 akute Episoden wurden analysiert und einem Propensity-Score-Matching unterzogen. Die Studie ergab, dass digitale Behandlungspfade die durchschnittlichen Episodenkosten im Vergleich zur traditionellen Versorgung um 22,7 % (170,74 € vs. 220,91 €, P<0,001) senkten. Die Kosteneinsparungen reichten von 10,3 % bei Atemwegsinfektionen bis zu 52,5 % bei Gastroenteritis, was auf geringere Behandlungskosten, weniger Laboruntersuchungen und weniger bildgebende Verfahren zurückzuführen ist. Die digitale Versorgung erforderte im Allgemeinen weniger Folgebesuche, mit Ausnahme von Atemwegsinfektionen, bei denen ein leichter Anstieg zu verzeichnen war. Sensitivitätsanalysen bestätigten die Robustheit dieser Ergebnisse und unterstützen Digital-First-Modelle als kosteneffizienten Ansatz für die Behandlung akuter Erkrankungen in der Primärversorgung, ohne die Versorgungskontinuität zu beeinträchtigen. (Pendergrass und Ranganathan 2021)
Normalisation Process Theory (NPT)
Die Normalisation Process Theory (NPT) ist ein soziologisches Rahmenwerk, das im Kontext der digitalen Transformation der Primärversorgung genutzt wird, um zu verstehen und zu bewerten, wie neue digitale Technologien – wie Telemedizinplattformen, elektronische Patientenakten und digitale Feedbacksysteme – in die alltägliche klinische Praxis eingebettet und nachhaltig integriert werden. Die NPT konzentriert sich auf die kollektive und individuelle Arbeit, die von Gesundheitsfachkräften und Organisationen geleistet wird, um diese digitalen Interventionen in bestehende Arbeitsabläufe und Organisationsstrukturen zu integrieren (Leighton u. a. 2025; Ong u. a. 2020; Macabasag u. a. 2022; May u. a. 2009). Sie umfasst vier zentrale Konstrukte:
- Kohärenz beschreibt, wie Beteiligte den Sinn und Zweck der digitalen Intervention verstehen, etwa die Relevanz einer Telemedizinplattform für die Primärversorgung (Leighton u. a. 2025; Ong u. a. 2020).
- Kognitive Partizipation bezieht sich auf das Engagement und die Verpflichtung von Individuen und Teams, die Einführung und den fortlaufenden Einsatz der Technologie voranzutreiben, etwa durch Führungsunterstützung oder Rollenanpassung (Leighton u. a. 2025; Clifford-Motopi u. a. 2025; Fredriksen u. a. 2021).
- Kollektives Handeln umfasst die operativen Maßnahmen zur Implementierung und Aufrechterhaltung der Technologie, wie die Integration in klinische Abläufe, Sicherstellung der Benutzbarkeit und Bereitstellung von Schulungen (Leighton u. a. 2025; Holtrop u. a. 2016; Fredriksen u. a. 2021; Macabasag u. a. 2022).
- Reflexive Überwachung bezieht sich auf die kontinuierliche Bewertung der Auswirkungen der Intervention, einschließlich Feedback, Anpassung und Bewertung von Ergebnissen wie Patientenzufriedenheit oder Effizienz (Leighton u. a. 2025; Ong u. a. 2020; Fredriksen u. a. 2021; Silver u. a. 2024).
Die NPT hilft, Barrieren (z. B. mangelnde Systemintegration, erhöhte Arbeitsbelastung, fehlende Schulungen) und Förderfaktoren (z. B. klare Führung, Anpassung an bestehende Praktiken, Mitarbeiterengagement) zu identifizieren, die den Erfolg der Implementierung beeinflussen, und bietet einen systematischen Ansatz zur Analyse, Planung und Optimierung der Integration digitaler Gesundheitsinnovationen (Leighton u. a. 2025; Ong u. a. 2020; Macabasag u. a. 2022; May u. a. 2009; Fredriksen u. a. 2021; Silver u. a. 2024).
Qualitative Forschung
Die Studie „Semistructured interviewing in primary care research: a balance of relationship and rigour“ von Melissa DeJonckheere und Lisa M. Vaughn beschreibt die wesentlichen Fähigkeiten und Schritte für die Durchführung semistrukturierter Interviews in der Primärversorgungsforschung. Diese Methode ermöglicht es, offene, qualitative Daten zu sammeln, um Gedanken, Gefühle und Überzeugungen von Teilnehmenden zu einem bestimmten Thema tiefgehend zu erforschen. Die Autoren betonen die Notwendigkeit eines relationalen Ansatzes sowie praktischer Fertigkeiten wie der Entwicklung eines Interviewleitfadens, dem Aufbau von Vertrauen und der Analyse der Daten. Semistrukturierte Interviews sind besonders für Hausärzte geeignet, da sie auch mit begrenzten Ressourcen durchführbar sind und tiefe Einblicke in die Erfahrungen von Patienten und Anbietern ermöglichen. Die Studie bietet praktische Empfehlungen für jeden Schritt des Prozesses, um die Qualität der Forschung zu sichern. (DeJonckheere und Vaughn 2019)
Evaluierung digitaler Gesundheits-Technologien
Das “Evidence Standards Framework” (ESF) des National Institute for Health and Care Excellence (NICE) für digitale Gesundheits- und Pflege-Technologien (DHTs) wurde 2018 entwickelt stellt eine standardisierte Vorgehensweise für die klinische und wirtschaftliche Bewertung von DHTs durch Gesundheitssysteme bereit. Der Rahmen wurde mit einem agilen und iterativen Ansatz entwickelt, der eine Literaturrecherche, Expertenkonsultationen und Stakeholder-Feedback beinhaltete. (Unsworth u. a. 2021)
Die Studie mit dem Titel „Service Quality Assessment of Digital Health Solutions in Outpatient Care: Qualitative Item Repository Development Study“ entwickelt den DigiHEALTHQUAL-Fragebogen, ein umfassendes Instrument zur Bewertung der Servicequalität digitaler Gesundheitslösungen in der ambulanten Versorgung. Durch eine Kombination von Literaturrecherchen und Interviews mit Gesundheitsfachkräften wurden bestehende Instrumente adaptiert und zusammengeführt, um 51 Fragen in 8 Dimensionen wie Zugänglichkeit, Effizienz, Empathie und Patientenzufriedenheit abzudecken. Ziel ist es, die Wirkung digitaler Gesundheitslösungen auf die Versorgungsqualität messbar zu machen und Entscheidungsträger bei Auswahl und Implementierung zu unterstützen. Die weitere Validierung und Verfeinerung des Fragebogens soll in zukünftigen Studien erfolgen. (Rigo u. a. 2025)
Produktivitätsparadoxon
Der Artikel „The Productivity Paradox of Information Technology“ von Erik Brynjolfsson untersucht die Diskrepanz zwischen dem enormen Anstieg der Rechenleistung in den USA seit 1970 und der stagnierenden Produktivität, insbesondere im Dienstleistungssektor. Trotz hoher Investitionen in Informationstechnologie (IT) bleibt der Nachweis ihres produktiven Beitrags schwierig, was als „Produktivitätsparadoxon“ bekannt ist. Brynjolfsson analysiert empirische Studien und identifiziert vier Hauptursachen für dieses Paradoxon: Messfehler bei Inputs und Outputs, Zeitverzögerungen durch Lernprozesse, Umverteilung von Gewinnen ohne Gesamtzuwachs und Missmanagement von IT. Er betont, dass Messprobleme, insbesondere bei immateriellen Vorteilen wie verbessertem Kundenservice, eine zentrale Rolle spielen. Der Artikel fordert verbesserte Messmethoden und eine Neubetrachtung traditioneller Produktivitätsansätze, um den wahren Wert von IT zu erfassen. (Brynjolfsson 1993)
Implementierungsforschung
Implementierungsforschung untersucht, wie evidenzbasierte Praktiken, Interventionen oder Technologien effektiv in reale Systeme integriert werden können. Die Plattform Implementome, entwickelt vom Geneva Digital Health Hub (gdhub), ist eine Wissensdatenbank für digitale Gesundheit. Sie nutzt das Konzept der „Implementomics“, um multidimensionale Daten zu Projekten, Akteuren, Publikationen und Erfahrungen zu sammeln, zu organisieren und bereitzustellen. Ziel ist es, die Zusammenarbeit globaler Akteure zu fördern, evidenzbasierte Entscheidungen und die digitale Gesundheitstransformation zu unterstützen.
Das ICER-PHTI Assessment Framework for Digital Health Technologies, entwickelt in Zusammenarbeit mit dem Institute for Clinical and Economic Review (ICER), bewertet digitale Gesundheitslösungen anhand von klinischer Wirksamkeit und wirtschaftlichem Einfluss. Es basiert auf den Prioritäten von Arbeitgebern, Krankenkassen und Gesundheitssystemen und unterstützt diese bei fundierten Entscheidungen über den Einsatz digitaler Technologien. Das Framework analysiert den Technologiekontext, die klinischen Vorteile, die Nutzererfahrung, die Sicherheit und Wirksamkeit (in drei Risikostufen: Selbstmanagement, diagnostische/prognostische und therapeutische Technologien), die Gesundheitsgerechtigkeit (Zugänglichkeit und Verteilung) sowie den wirtschaftlichen Einfluss durch Budgetanalysen. Es bietet Entwicklern und Investoren Leitlinien zur Evidenzgenerierung und fördert die Einführung hochwertiger, kosteneffizienter Technologien.
Private Forschungsorganisationen:
Die Studie „A systematic review of clinicians’ acceptance and use of clinical decision support systems over time“ von Nicki Newton et al., veröffentlicht in npj Digital Medicine (2025), untersucht die Faktoren, die die Akzeptanz und Nutzung von klinischen Entscheidungsunterstützungssystemen (CDS) in Krankenhäusern über die Zeit beeinflussen. Die systematische Überprüfung analysierte 67 Studien aus den Jahren 2007 bis 2024 und kategorisierte die Faktoren nach dem Zeitpunkt der Datenerhebung nach der CDS-Implementierung. Zu den durchgehend relevanten Faktoren zählen die Nützlichkeit des Systems und dessen Integration in bestehende Arbeitsabläufe. Wahrgenommene Ergebnisse waren im ersten Jahr besonders prominent, während individuelle Faktoren nach sechs Monaten an Bedeutung gewannen. Nach fünf Jahren wurden Strategien zur Umgehung von Systembeschränkungen berichtet. Die Ergebnisse bieten Leitlinien für die Entwicklung, Implementierung und langfristige Unterstützung von CDS-Systemen. (Newton u. a. 2025)
Die Studie „eHealth initiatives; the relationship between project work and institutional practice“ von Line Lundvoll Warth und Kari Dyb untersucht die Implementierung von nationalen eHealth-Diensten in Norwegen, insbesondere des Kjernejournal (Summary Care Record) und elektronischer Rezepte (e-prescriptions), aus der Perspektive von Projektmanagern. Durch 22 semi-strukturierte Interviews in den Jahren 2016 und 2018 wird analysiert, wie die Arbeit der Projektmanager mit den institutionellen Praktiken in Gesundheitseinrichtungen zusammenhängt. Die Ergebnisse zeigen, dass die Implementierung als Teil der nationalen Strategie in enger Zusammenarbeit mit der Norwegischen Direktion für eHealth erfolgte, jedoch Spannungen zwischen den kurzfristigen Projektzielen und der langfristigen Nutzung der Tools durch Fachkräfte bestehen. Während e-prescriptions erfolgreich angenommen wurden, blieb die Nutzung des Kjernejournal hinter den Erwartungen zurück, was auf eine Diskrepanz zwischen Projektimplementierung und etablierten sozialen Praktiken hinweist. Die Studie betont die Notwendigkeit, die sozialen Aspekte institutioneller Praktiken bei der Implementierung zu berücksichtigen, um den Erfolg solcher Initiativen zu fördern. (Warth und Dyb 2019)
NASS Framework
Die Studie „Leveraging Implementation Science in Human-Centred Design for Digital Health“, veröffentlicht in den Proceedings der CHI Conference 2024, schlägt vor Implementierungswissenschaft in den menschzentrierten Designprozess für digitale Gesundheitsinterventionen zu integrieren. Sie kombiniert das Nonadoption, Abandonment, Scale-up, Spread, and Sustainability (NASSS)-Framework mit dem Double Diamond-Designprozess, um die Einführung und langfristige Nutzung evidenzbasierter digitaler Interventionen zu fördern. Anhand einer Fallstudie zur Neugestaltung einer Gesundheitsförderungsintervention, die das Risiko für alkoholbedingten Brustkrebs bei Frauen während routinemäßiger Mammographien reduzieren soll, wird die Anwendung dieses Ansatzes demonstriert. Die Studie hebt hervor, wie Implementierungswissenschaft die Designphasen strukturieren kann, um Komplexität zu reduzieren und die Skalierbarkeit sowie Nachhaltigkeit digitaler Gesundheitslösungen zu verbessern. Abschließend werden Reflexionen über die Herausforderungen und Chancen dieses interdisziplinären Ansatzes für zukünftige Forschung diskutiert. (Waddell u. a. 2024)
Die Studie „Beyond Adoption: A New Framework for Theorizing and Evaluating Nonadoption, Abandonment, and Challenges to the Scale-Up, Spread, and Sustainability of Health and Care Technologies“ entwickelt ein neues, evidenzbasiertes und theoriegeleitetes Rahmenwerk (NASSS), um den Erfolg technologiegestützter Gesundheits- und Pflegeprogramme zu prognostizieren und zu bewerten. Sie kombiniert eine hermeneutische systematische Literaturübersicht mit empirischen Fallstudien zu sechs Technologien, darunter Videokonsultationen und GPS-Tracking. Das NASSS-Framework umfasst sieben Domänen, wie Krankheit, Technologie und Organisation, und klassifiziert Herausforderungen als einfach, kompliziert oder komplex. Es zeigt, dass Programme mit komplexen Herausforderungen in mehreren Domänen selten flächendeckend implementiert werden. Das Framework ist vielseitig einsetzbar, um Technologiedesign, Implementierung und Analyse von Misserfolgen zu unterstützen. (Greenhalgh u. a. 2017)
Die Studie „The NASSS-CAT Tools for Understanding, Guiding, Monitoring, and Researching Technology Implementation Projects in Health and Social Care: Protocol for an Evaluation Study in Real-World Settings“ entwickelt praktische Werkzeuge zur Analyse und Steuerung komplexer Technologieimplementierungsprojekte im Gesundheits- und Sozialwesen. Basierend auf dem NASSS-Framework und einem Complexity Assessment Tool (CAT) wurden vier NASSS-CAT-Tools in sieben Co-Design-Workshops mit 50 Stakeholdern entworfen. Diese Tools unterstützen Planung, Überwachung und Forschung durch die Erfassung von Komplexitäten in sechs Domänen. Sie werden in realen Fallstudien getestet, um Herausforderungen wie Nicht-Annahme oder Nachhaltigkeit zu adressieren. Die Ergebnisse zeigen, dass die Tools Komplexitäten identifizieren, aber nicht immer Konflikte lösen können. Zukünftige digitale Versionen und eine Community of Practice sind geplant. (Greenhalgh u. a. 2020)
TAM & UTAUT
Das Technology Acceptance Model (TAM), entwickelt von Fred D. Davis (1989), erklärt die Akzeptanz von Informationstechnologien durch zwei zentrale Konstrukte: Perceived Usefulness (wahrgenommene Nützlichkeit), definiert als der Grad, in dem eine Person glaubt, dass die Nutzung eines Systems ihre Leistung steigert, und Perceived Ease of Use (wahrgenommene Benutzerfreundlichkeit), der Grad, in dem die Nutzung als mühelos wahrgenommen wird. TAM postuliert, dass diese Faktoren die Einstellung gegenüber der Technologie und damit die Nutzungsabsicht beeinflussen (Davis, 1989). Die Unified Theory of Acceptance and Use of Technology (UTAUT), entwickelt von Venkatesh et al. (2003), erweitert TAM, indem sie vier Hauptvariablen integriert: Performance Expectancy (ähnlich der wahrgenommenen Nützlichkeit), Effort Expectancy (ähnlich der Benutzerfreundlichkeit), Social Influence (sozialer Einfluss) und Facilitating Conditions (unterstützende Bedingungen). UTAUT fokussiert sich auf die kontinuierliche Nutzung und berücksichtigt zusätzliche Kontexte wie Vertrauen und Risiko, insbesondere in Bereichen wie eHealth. (Davis 1989; Arfi u. a. 2021)
Der 2003 von Venkatesh et al. in MIS Quarterly veröffentlichte Artikel stellt die Unified Theory of Acceptance and Use of Technology (UTAUT) vor, die acht konkurrierende Modelle der IT-Akzeptanz synthetisiert, um vier zentrale Determinanten von Nutzerabsicht und -nutzung zu identifizieren, und in empirischen Tests in Organisationen eine Varianz von 69-70% erklärt. Der 2012 von Venkatesh, Thong und Xu veröffentlichte Artikel erweitert UTAUT zu UTAUT2 für Konsumentenkontexte, indem hedonische Motivation, Preiswert und Gewohnheit einbezogen werden, wobei Ergebnisse aus einer Umfrage mit 1.512 Mobilfunk-Internetnutzern eine verbesserte Varianz (56% auf 74% für Absicht, 40% auf 52% für Nutzung) zeigen. Beide Studien, veröffentlicht vom MIS Research Center der University of Minnesota, bieten wertvolle Erkenntnisse, um Strategien zur Technologieakzeptanz zu verbessern. (Venkatesh u. a. 2003, 2012)
Die Studie „Beyond TAM and UTAUT: Future directions for HIT implementation research“ untersucht die Kritik an den Modellen Technology Acceptance Model (TAM) und Unified Theory of Acceptance and Use of Technology (UTAUT) in der Implementierung von Gesundheitsinformationstechnologien (HIT). Die Autoren kritisieren die übermäßige Vereinfachung von TAM und die eingeschränkte Perspektive beider Modelle, die sich auf individuelle Nutzerwahrnehmungen konzentrieren. Sie argumentieren, dass die Forschung von multidimensionalen Ansätzen profitieren würde, die die Komplexität der HIT-Implementierung besser erfassen. Abschließend schlagen sie alternative Forschungsrichtungen vor, die sich auf wertschöpfende Nutzung, Systemkomplexität und zeitliche Dimensionen konzentrieren, um das Feld voranzutreiben. (Shachak u. a. 2019)
Die Studie „TAM-UTAUT and the acceptance of remote healthcare technologies by healthcare professionals: A systematic review“ untersucht die Akzeptanz von Fernversorgungstechnologien durch Gesundheitsfachkräfte anhand der Modelle Technology Acceptance Model (TAM) und Unified Theory of Acceptance and Use of Technology (UTAUT). Durch eine systematische Literaturrecherche in den Datenbanken PubMed, Scopus und Web of Science wurden zwischen Mai und Juni 2021 32 relevante Studien identifiziert. Die Ergebnisse zeigen, dass beide Modelle trotz ihres Alters weiterhin gültig sind, um das Akzeptanzverhalten vorherzusagen, wobei TAM häufiger genutzt wurde. Es wurden sowohl die originalen als auch erweiterte Versionen der Modelle getestet, wobei Variablen wie wahrgenommene Nützlichkeit und Benutzerfreundlichkeit als starke Prädiktoren für die Technologieakzeptanz hervorgehoben wurden. Die Studie betont die Anpassungsfähigkeit der Modelle an verschiedene Kontexte und die Relevanz zusätzlicher Variablen zur Verbesserung der Erklärungskraft. (Rouidi u. a. 2022)
Die Studie „Acceptance towards digital health interventions – Model validation and further development of the Unified Theory of Acceptance and Use of Technology“ untersucht die Akzeptanz von internet- und mobilbasierten Interventionen (IMI) im Gesundheitswesen. Basierend auf dem Unified Theory of Acceptance and Use of Technology (UTAUT) wurde ein Modell validiert und angepasst, das die Akzeptanz von IMI bei Patienten und Gesundheitsfachkräften analysiert. Die Ergebnisse zeigen, dass Performance Expectancy der stärkste Prädiktor für Akzeptanz ist, während Internetangst als zusätzlicher Einflussfaktor identifiziert wurde, der die Effekte von Social Influence und Effort Expectancy moderiert. Das angepasste UTAUT-Modell bietet einen robusten Rahmen, um die Akzeptanz von IMI zu fördern und deren Implementierung in der Routineversorgung zu verbessern. (Philippi u. a. 2021)
Technology Readiness Index
Die Studie „An Updated and Streamlined Technology Readiness Index: TRI 2.0“ von A. Parasuraman und Charles L. Colby, veröffentlicht im Journal of Service Research, präsentiert eine überarbeitete und gestraffte Version des Technology Readiness Index (TRI). Die ursprüngliche 36-Item-Skala wurde auf 16 Items reduziert, um die Bereitschaft von Menschen, neue Technologien zu nutzen, präziser zu messen. Die Autoren beschreiben die mehrstufigen Forschungsprozesse, die zur Entwicklung von TRI 2.0 führten, und vergleichen dessen Inhalt, Struktur und psychometrische Eigenschaften mit der Originalversion. TRI 2.0 zeigt zuverlässige Reliabilität, Validität und Nützlichkeit als Instrument zur Kundensegmentierung. Die Studie schließt mit möglichen Anwendungen von TRI 2.0 und Vorschlägen für zukünftige Forschung. (Parasuraman und Colby 2015)
Evidenzbasierte Medizin
Die Studie „The next generation of evidence-based medicine“ von Vivek Subbiah, veröffentlicht 2023 in Nature Medicine, diskutiert aktuelle Entwicklungen und zukünftige Perspektiven der evidenzbasierten Medizin. Der Autor hebt hervor, wie Fortschritte in den Bereichen Wearables, Data Science und Künstliche Intelligenz dabei sind, das Gesundheitssystem und speziell das Design sowie die Durchführung klinischer Studien grundlegend zu verändern. Trotz bedeutender technischer Fortschritte besteht laut Subbiah weiterhin Nachholbedarf bei der Umsetzung in die klinische Praxis. Die COVID-19-Pandemie habe jedoch innovative Studiendesigns und eine patientenzentrierte Herangehensweise beschleunigt. Abschließend zeigt die Arbeit Visionen für flexiblere, technologiegestützte und patientennahe Evidenzgenerierung auf. (Subbiah 2023)
Einzelpersonenstudien
N-of-1-Studien, auch als Einzelpersonenstudien oder Single-Case-Designs bekannt, sind wissenschaftlich fundierte Methoden, die die Wirkung von Behandlungen auf individueller Ebene untersuchen, im Gegensatz zu gruppenbasierten randomisierten kontrollierten Studien (RCTs), die als Goldstandard in der klinischen Forschung gelten. Diese Studien ermöglichen eine personalisierte Medizin, indem sie die Reaktion einzelner Patienten auf Interventionen wie Lichttherapie bei Depression oder spezifische Diäten bei chronischen Erkrankungen analysieren, oft unterstützt durch digitale Technologien wie Apps oder Sensoren. In der Forschung ergänzen sie RCTs, indem sie individuelle Unterschiede betonen und durch Aggregation populationsweite Schlüsse ermöglichen, was in der Public-Health-Forschung zunehmend an Bedeutung gewinnt. In der ambulanten Medizin fördern N-of-1-Studien die partizipative Entscheidungsfindung, da sie Patienten und Ärzten helfen, maßgeschneiderte Therapien zu entwickeln. Herausforderungen wie ethische Genehmigungen und kulturelle Barrieren erschweren jedoch ihre breite Anwendung. (McDonald und Nikles 2021)
Onlinerekrutierung
Die Studie „Online Recruitment for Digital Interventions in Depression: A Comparative Analysis of Social Media and Traditional Methods“ untersuchte, wie effektiv soziale Medien im Vergleich zu klassischen Methoden bei der Rekrutierung von Teilnehmenden mit depressiven Symptomen sind. Die Forschenden fanden heraus, dass Online-Kampagnen über Plattformen wie Facebook, Instagram, TikTok und Google Ads schnell, kosteneffizient und diverser in der Reichweite waren. Besonders Videoanzeigen, gezieltes Plattform-Targeting und der Einsatz von Pixel-Tracking steigerten die Kosteneffizienz deutlich, ohne die Vielfalt oder Repräsentativität der Stichprobe zu beeinträchtigen. (Haas u. a. 2025)
Forschungsnetzwerke
Das INSIGHT Clinical Research Network (CRN) ist eines der größten städtischen klinischen Netzwerke in den USA und verbindet sieben führende akademische medizinische Zentren. Es verwaltet einen Datensatz mit klinischen Daten von etwa 23 Millionen elektronischen Patientenakten und über 385 Millionen Behandlungsfällen. INSIGHT verknüpft diese vielfältigen klinischen Daten mit Datensätzen zu sozialen Determinanten der Gesundheit und Versicherungsdaten, um patientenorientierte Forschung und Gesundheitsgerechtigkeit zu fördern. Das Netzwerk bietet Zugang zu forschungsfertigen Daten, Rekrutierung vielfältiger Patienten für klinische Studien, Ressourcen für Studien, IRB- und Sicherheitsdienste sowie die Möglichkeit, Daten mit externen Quellen zu verknüpfen und mit verschiedenen Stakeholdern zusammenzuarbeiten.
Sprachmodelle zur Studienplanung
Die Studie „Large Language Models in Randomized Controlled Trials Design: Observational Study“ untersucht die Fähigkeit von großen Sprachmodellen (LLMs), insbesondere GPT-4-Turbo-Preview, die Planung randomisierter klinischer Studien (RCTs) zu unterstützen. Dabei zeigte das Modell eine Gesamtgenauigkeit von 72 % bei der Replikation von Studiendesigns, mit besonders hoher Übereinstimmung bei Rekrutierung (88 %) und Interventionen (93 %). Schwächer war die Übereinstimmung bei Einschluss-/Ausschlusskriterien (55 %) und Ergebnis-Messungen (53 %). Die Studie betont das Potenzial von LLMs zur Verbesserung der Generalisierbarkeit und Vielfalt in klinischen Studien, unterstreicht jedoch die Notwendigkeit menschlicher Expertise und regulatorischer Aufsicht. (Jin u. a. 2025)
Geschichte
Die Studie „Statutory health insurance in Germany: a health system shaped by 135 years of solidarity, self-governance, and competition“ beschreibt die Entwicklung des deutschen Gesundheitssystems seit Bismarcks Krankenversicherungsgesetz von 1883. Sie betont die Prinzipien der Solidarität und Selbstverwaltung, die zu einer universellen Gesundheitsversorgung mit umfassenden Leistungen führten. Seit 1993 fördern Reformen Wettbewerb und Marktorientierung, während die Solidarität gewahrt bleibt. Die Einrichtung des Gemeinsamen Bundesausschusses 2004 stärkte die Selbstverwaltung, sichert gute Zugangsmöglichkeiten und hohe Versorgungsqualität, führt jedoch zu einer Überprovision von Arzneimitteln und Krankenhausaufenthalten sowie Herausforderungen bei der Versorgungskontinuität. Das System ist weniger kostenwirksam als in einigen Nachbarländern, was Effizienzsteigerungen erforderlich macht. (Busse u. a. 2017)
Technikphilosophie
Der Artikel „Theoretical Foundations of the Web: Cognition, Communication, and Co-Operation. Towards an Understanding of Web 1.0, 2.0, 3.0“ von Christian Fuchs et al., veröffentlicht in Future Internet (2010), entwickelt ein theoretisches Modell des Webs als techno-soziales System. Er definiert Web 1.0 als Werkzeug für Kognition, Web 2.0 als Medium für Kommunikation und Web 3.0 als Plattform für Kooperation. Basierend auf soziologischen Konzepten von Durkheim, Weber, Tönnies und Marx analysiert er die sozialen Dynamiken des Internets. Der Artikel betont, dass Web 3.0 das Potenzial für kooperative Gesellschaften hat, dies jedoch gesellschaftliche Transformationen erfordert. (Fuchs u. a. 2010)
Das Buch „Philosophy of Technology: An Introduction“ von Val Dusek, erstmals im Jahr 2006 von Blackwell Publishing veröffentlicht, stellt eine Einführung in das relativ junge und noch nicht konsolidierte Feld der Technologiephilosophie dar. Es behandelt verschiedene Themen, die die enge Verflechtung unterschiedlicher Wissensgebiete wie Wissenschaftsphilosophie, politische und Sozialphilosophie sowie Ethik aufzeigen. Zu den diskutierten Schwerpunkten gehören Definitionen und Charakterisierungen von Technologie, Konzepte wie Technokratie, technische Rationalität, technologischer Determinismus und autonome Technologie. Darüber hinaus untersucht das Werk die Beziehung zwischen Technologie und menschlicher Natur, die Rolle von Frauen in der Technologie sowie nicht-westliche Technologien und lokales Wissen. Ein weiteres zentrales Thema ist der soziale Konstruktionismus und die Akteur-Netzwerk-Theorie. (Dusek u. a. 2006)
Phänomenologie
Die Phänomenologie wird im Kontext der Digitalisierung und digitalen Transformation in der Medizin als methodischer und philosophischer Ansatz eingesetzt, um die gelebten Erfahrungen von Patienten, Klinikern und anderen Beteiligten in den Fokus zu rücken. Dieser Ansatz geht über rein technische oder effizienzorientierte Perspektiven hinaus und betont die subjektiven, verkörperten und kontextuellen Dimensionen von Gesundheit und Krankheit im Zusammenhang mit digitalen Technologien wie Telemedizin, mobilen Gesundheits-Apps und elektronischen Patientenakten (Fiordelli 2024). Durch phänomenologische Integration können Entwickler und Kliniker verstehen, wie Individuen digitale Interventionen in ihrem Alltag und in klinischen Arbeitsabläufen erleben, was nutzerzentriertes Design fördert und die Relevanz sowie das langfristige Engagement verbessert (Fiordelli 2024; Győrffy u. a. 2020). Zudem bietet die Phänomenologie einen Rahmen zur kritischen Untersuchung der sich wandelnden Arzt-Patient-Beziehung und der Auswirkungen der Digitalisierung auf die berufliche Identität von Klinikern (Győrffy u. a. 2020; Gergel 2012). So unterstützt sie die Entwicklung ethisch fundierter und menschzentrierter digitaler Gesundheitslösungen (Fiordelli 2024; Gergel 2012).
Sprachphilosophie
Ludwig Wittgensteins Sprachphilosophie spielt eine Rolle in der Medizin und der digitalen Transformation, indem sie die Bedeutung von Sprache, Sprachspielen und Kontext betont. Die Bedeutung medizinischer Begriffe und digitaler Technologien entsteht nicht isoliert, sondern durch ihren Gebrauch in sozialen und professionellen Kontexten, was für die Entwicklung und Akzeptanz digitaler Gesundheitstechnologien entscheidend ist (Coeckelbergh 2018). Linguistische Herausforderungen wie Standardisierung, Interoperabilität und präzise semantische Kodierung sind für die Integration heterogener Datenquellen und die textzentrierte medizinische Kommunikation essenziell, wobei Wittgensteins Ansatz Technologien fördert, die in die „Formen des Lebens“ der Nutzer eingebettet sind (Kreuzthaler u. a. 2023). Zudem verbessert die linguistische Analyse die patientenzentrierte Kommunikation und die Wirksamkeit digitaler Tools, indem sie soziale und historische Bedingungen berücksichtigt (Udvardi 2019).
Der Artikel „Earth, Technology, Language: A Contribution to Holistic and Transcendental Revisions After the Artifactual Turn“ von Mark Coeckelbergh analysiert die empirische Wende in der Technikphilosophie, insbesondere bei Ihde, und kritisiert deren Vernachlässigung von Sprache und sozialem Kontext. Er schlägt eine Wittgenstein’sche Perspektive vor, um Postphänomenologie zu überarbeiten, indem er Technologie- und Sprachgebrauch als in soziale Praktiken und Lebensformen eingebettet betrachtet. Sprache wird als Werkzeug, Medium, Vermittler und transzendentale Bedingung konzipiert, die Technologieverständnis prägt. Abschließend wird die Rolle der Erde als transzendentale Bedingung im Anthropozän diskutiert, um eine ontologische Neuorientierung der Technikphilosophie zu fördern. (Coeckelbergh 2022a)
Der Artikel „Using Philosophy of Language in Philosophy of Technology“ von Mark Coeckelbergh untersucht die Verbindungen zwischen Sprache und Technologie, indem er die Vernachlässigung sprachlicher Aspekte in der Technikphilosophie nach dem empirischen Wandel kritisiert. Er zeigt auf, wie Sprache ontologisch und pragmatisch mit Technologien wie Informations- und Kommunikationstechnologien verknüpft ist, und argumentiert, dass Sprache nicht nur ein Instrument ist, sondern aktiv die Wahrnehmung und Nutzung von Technologie formt. Durch Bezugnahme auf Searles soziale Ontologie, Wittgensteins Sprachspiele und Ricoeurs Narrativitätstheorie schlägt Coeckelbergh vor, Sprache als Mediator in Mensch-Technik-Beziehungen zu integrieren und Technologie als narrative und soziale Praxis zu verstehen. Der Text bietet somit Ansätze, um die Technikphilosophie durch sprachphilosophische Konzepte zu erweitern und die Bedeutung von Technologie holistisch zu erfassen. (Coeckelbergh 2022b)
Das Buch “Using Words and Things: Language and Philosophy of Technology von Mark Coeckelbergh” untersucht die Beziehungen zwischen Sprache, Technologie und menschlichem Handeln. Es analysiert drei extreme Positionen – nur Menschen, nur Sprache oder nur Technologie sprechen – und zeigt deren Unhaltbarkeit auf. Durch eine philosophische Auseinandersetzung mit Denkern wie Heidegger, Wittgenstein und Latour entwickelt der Autor ein integratives Rahmenwerk, das die Verflechtung von Mensch, Sprache und Technologie betont. Ein Fallbeispiel zu sozialen Medien verdeutlicht die praktische Anwendung. Das Werk bietet wertvolle Konzepte für die Analyse der postdigitalen Verschmelzung von Mensch und Technologie. (Coeckelbergh 2017)
Der Bericht „Humans, language, and technology. The interplays between language and technology according to heidegger’s philosophy“ untersucht Martin Heideggers Ansichten über die Verbindung von Sprache und Technologie. Er argumentiert, dass beide weit mehr als nur bloße Werkzeuge sind; sie formen unsere Realität und menschliche Subjektivität und offenbaren das Sein (Wesen) der Dinge. Heidegger betont, dass das vorherrschende Denken, das Sprache und Technologie als bloße Instrumente betrachtet, das wahre Denken und die vollständige Entfaltung des Seins einschränkt. Stattdessen sind sie untrennbar mit dem menschlichen Dasein verbunden und wirken durch ihre Nutzung und prägen unser Verständnis der Welt. (Del Vecchio Lanca 2022)
Synthetische Daten
Die Studie mit dem Titel „A Consensus Privacy Metrics Framework for Synthetic Data“ entwickelt einen Konsensrahmen zur Bewertung von Datenschutzrisiken bei der Erzeugung synthetischer Daten. Sie betont, dass synthetische Daten die statistischen Eigenschaften realer Daten widerspiegeln sollen, ohne eine direkte Eins-zu-eins-Beziehung zu einzelnen Personen herzustellen. Die Studie identifiziert wichtige Datenschutzprobleme wie Mitgliedschafts- und Attributentschlüsselung und empfiehlt, dass Datenschutzmetriken auf kontextabhängigen Quasi-Identifikatoren basieren und nicht nur Ähnlichkeiten zwischen Datensätzen messen sollten. Durch einen Expertenkonsensprozess liefert die Arbeit praxisnahe Empfehlungen zur standardisierten Bewertung von Datenschutz in synthetischen Daten, um ihre sichere Nutzung in Forschung und Innovation zu fördern. (Pilgram, Dankar, u. a. 2025)
“AI-generated medical data can sidestep usual ethics review, universities say” ist der Titel eines News-Articles in der Zeitschrift Nature, veröffentlicht am 10. September 2025, der die Praxis einiger medizinischer Forschungseinrichtungen in Kanada, den USA und Italien beleuchtet, synthetische Daten, die durch KI aus realen Patienteninformationen generiert werden, ohne die übliche ethische Überprüfung durch Institutionen zu benötigen. Diese “synthetischen” Datensätze repräsentieren statistische Eigenschaften echter Human-Daten, enthalten jedoch keine identifizierbaren Patienteninformationen, was sie nach Ansicht von Institutionen wie dem IRCCS Humanitas Research Hospital in Mailand, dem Children’s Hospital of Eastern Ontario und dem Ottawa Hospital in Kanada sowie der Washington University School of Medicine in St. Louis nicht als “Human-Subject-Research” qualifiziert. Die Entscheidung wird durch nationale Regelungen begründet, etwa die US-amerikanische Common Rule von 1991 oder das kanadische Personal Health Information Protection Act von 2004, und ermöglicht Vorteile wie besseren Datenschutz, erleichterten Datenaustausch und schnellere Forschung, wie der Medizin-AI-Forscher Khaled El Emam betont. Dennoch erfordert der Zugriff auf reale Daten zur Erzeugung solcher Synthetik-Daten weiterhin eine ethische Genehmigung, die jedoch oft als geringes Risiko eingestuft und somit vereinfacht wird. (Extance 2025)
Die Studie mit dem Titel “Magnitude and Impact of Hallucinations in Tabular Synthetic Health Data on Prognostic Machine Learning Models: Validation Study” untersucht, wie häufig in synthetischen Gesundheitsdaten sogenannte Halluzinationen auftreten, also synthetische Datensätze, die nicht in der realen Population existieren. Die Forschungsarbeit zeigt, dass Halluzinationen bei der Generierung tabellarischer synthetischer Gesundheitsdaten sehr häufig vorkommen und mit der Komplexität der Trainingsdaten zunehmen. Dennoch beeinflussen diese Halluzinationen die Leistungsfähigkeit von Prognosemodellen, die mit den synthetischen Daten trainiert wurden, nur minimal. Damit liefert die Studie wichtige Einsichten in die Grenzen und die praktische Nützlichkeit von synthetischen Gesundheitsdaten für maschinelles Lernen im Gesundheitswesen. (Pilgram, El Kababji, u. a. 2025)
Der Artikel „Protecting patient privacy in tabular synthetic health data: a regulatory perspective“ von Lisa Pilgram, Haksoo Ko und Khaled El Emam wurde am 28. November 2025 in npj Digital Medicine (Volume 8, Article 732) open access veröffentlicht. Er analysiert die bisher einzigen veröffentlichten behördlichen Leitlinien zur Erzeugung synthetischer tabellarischer Gesundheitsdaten aus Großbritannien (ICO 2023), Singapur (PDPC 2024) und Südkorea (PIPC 2024). Alle drei Regulierungsrahmen betrachten synthetische Daten nicht automatisch als risikofrei oder als Nicht-Personenbezogene Daten, sondern betonen verbleibende Offenlegungsrisiken und die Notwendigkeit einer risikobasierten Bewertung. Die Leitlinien stellen klar, dass das Trainieren von Generierungsmodellen mit echten personenbezogenen Daten eine Datenverarbeitung darstellt, die eine Rechtsgrundlage erfordert, und dass für die Freigabe synthetischer Datensätze als „non-personal“ nachweislich niedrige Re-Identifikationsrisiken gefordert werden, wobei bislang keine einheitlichen Schwellenwerte definiert sind. Der Beitrag kommt zu dem Schluss, dass synthetische Gesundheitsdaten derzeit keine unkontrollierte regulatorische Ausnahme darstellen, sondern weiterhin strengen Datenschutzanforderungen unterliegen.
Digitaler Zwilling
„Medical digital twins: enabling precision medicine and medical artificial intelligence“ beschreibt das Konzept der medizinischen digitalen Zwillinge als dynamische, virtuelle Abbilder von Patienten, die multimodale Gesundheitsdaten integrieren, um personalisierte Therapieentscheidungen zu ermöglichen. Die Autoren definieren fünf Schlüsselkomponenten eines medizinischen digitalen Zwillings: den Patienten, die Datenverbindung, das Patientenmodell (patient-in-silico), die Benutzerschnittstelle sowie die Synchronisation des Zwillings mit dem realen Patienten. Durch den Einsatz von Künstlicher Intelligenz, mechanistischen Modellen, Datensynthese und moderner Sensortechnik bieten diese Zwillinge das Potenzial, Krankheitsverläufe präzise vorherzusagen, Therapieergebnisse zu simulieren und individualisierte Behandlungspläne zu erstellen. Erste Anwendungsbeispiele aus der Onkologie und Diabetestherapie zeigen vielversprechende Ergebnisse, während die Autoren die zukünftige Integration großer Sprachmodelle als benutzerfreundliche Schnittstelle hervorheben. Abschließend betonen sie die Notwendigkeit von Validierung und der schrittweisen Implementierung in die klinische Praxis. (Sadée u. a. 2025)
Digitale Werkzeuge
Das Projekt Evidence Synthesis Hackathon entwickelt Open-Source-Softwaretools zur Unterstützung von Evidenzsynthese, insbesondere für systematische Reviews und Meta-Analysen. Es umfasst eine Vielzahl von R-Paketen und Shiny-Apps wie GSscraper für das Scraping von Google Scholar, PRISMA2020 und ROSESflowchart für Flussdiagramme, bibfix zur Verbesserung bibliografischer Daten, citationchaser für Zitationsverfolgung und EviAtlas für systematische Karten in der Umweltforschung. Weitere Tools wie forestr für interaktive Visualisierungen und Paperweight zur Verbesserung von Suchanfragen mittels NLP befinden sich in Entwicklung. Die Projekte fördern Transparenz, Effizienz und Reproduzierbarkeit in der wissenschaftlichen Forschung und werden durch Veranstaltungen wie die ESMARConf unterstützt.
Wissenschaftsintegrität
Weiteres
Der Blogbeitrag „A Sampling of 2025 Research Referencing Common Crawl“ vom 5. Dezember 2025 fasst zwölf ausgewählte wissenschaftliche Arbeiten des Jahres zusammen, die den Common-Crawl-Datensatz in vielfältigen Forschungsbereichen nutzen. Diese Publikationen, die aus Tausenden von Zitationen hervorgegangen sind, decken Themen wie maschinelles Lernen, Web-Analyse und Informationsverarbeitung ab und demonstrieren die Breite der Anwendungen seit der Datensammlung seit 2008. Besonders im Kontext der Gesundheit wird der Datensatz in der Studie „Combating Health Misinformation With Fusion-Based Credible Retrieval Techniques“ eingesetzt, um Desinformation durch clusteringbasierte Fusionstechniken zu bekämpfen und die Abrufung vertrauenswürdiger Gesundheitsinformationen zu optimieren, was eine Steigerung der Mean Average Precision um 60 Prozent und der NDCG_UCC-Metriken um über 30 Prozent im Vergleich zu Einzel-Systemen ermöglicht. Weitere Beiträge befassen sich mit Aspekten wie Phishing-Erkennung, semantischer Annotation und Web-Zugänglichkeit, unterstreichen die Rolle des Open-Datensatzes in der akademischen Forschung.
Der Artikel „Implementation of Virtual Focus Groups as an Effective Strategy in Qualitative Research to Engage With Undersupported Communities: Protocol for Virtual Focus Groups“ wurde am 8. Dezember 2025 in JMIR Research Protocols (Vol 14, 2025) veröffentlicht. Die Autoren um Axel Ramos-Lucca, Melissa Marzán-Rodríguez und Julio Jiménez-Chávez beschreiben ein angepasstes Protokoll für virtuelle Fokusgruppen, das speziell für benachteiligte Gemeinden in Süd-Puerto Rico (Social Vulnerability Index ≥ 0.45) entwickelt wurde. Durch Maßnahmen wie Kofazilitation, verstärkte technische Unterstützung, Passwortschutz und Anonymisierung der Teilnehmenden konnte eine Teilnahmerate von 86 % (63 von 73 Eingeladenen) erreicht werden – im Vergleich zu nur 55 % bei früheren Präsenz-Fokusgruppen. Das Protokoll ermöglicht eine inklusive qualitative Datenerhebung auch unter schwierigen Bedingungen wie Pandemien, geografischer Isolation oder eingeschränkter Mobilität und wird als ergänzende Methode zur traditionellen Fokusgruppenforschung vorgestellt.
Der Artikel „Unsupervised Characterization of Temporal Dataset Shifts as an Early Indicator of AI Performance Variations: Evaluation Study Using the Medical Information Mart for Intensive Care-IV Dataset“ wurde am 3. Dezember 2025 in JMIR Medical Informatics (Vol 13) veröffentlicht. Die Autoren untersuchten anhand der MIMIC-IV-Datenbank (2008–2019) mit über 40.000 Patienten, ob sich zeitliche Dataset-Shifts (covariate, prior und concept shift) unsupervised und modellunabhängig durch Information Geometric Temporal (IGT)-Projektionen frühzeitig erkennen lassen. Sie zeigten, dass insbesondere der Wechsel von ICD-9 zu ICD-10 ab 2016 einen signifikanten Shift verursacht, der mit einem Leistungsabfall von Random-Forest- und Gradient-Boosting-Modellen zur Vorhersage der stationären Mortalität einhergeht (p < .05). Die Arbeit belegt, dass die unsupervised IGT-Methode als proaktives Monitoring-Instrument geeignet ist, um Leistungsverluste klinischer KI-Modelle bereits vor der Modellentwicklung zu antizipieren und somit robusteres, wartbares Health-AI zu ermöglichen.
Der Editorial „Artificial Intelligence in Peer Review“ von Roy H. Perlis, Dimitri A. Christakis, Neil M. Bressler und weiteren Autoren, veröffentlicht in JAMA am 28. August 2025, beleuchtet die zunehmenden Belastungen des Peer-Review-Prozesses durch steigende Manuskriptzahlen und Reviewer-Fatigue. Die Autoren sehen in Künstlicher Intelligenz (KI), insbesondere Large Language Models, ein Potenzial zur Unterstützung bei routinemäßigen Aufgaben wie Zusammenfassungen, Vollständigkeitsprüfungen und Konsistenzanalysen, um Effizienz und Qualität zu steigern. Gleichzeitig betonen sie Risiken wie Verletzung der Vertraulichkeit, Halluzinationen, Bias und mögliche Verminderung kritischer Denkleistung bei Reviewern. Die JAMA Network Journals planen hybride Ansätze mit menschlicher Verantwortung in der Endentscheidung, lehnen eine vollständige Automatisierung ab und fordern empirische Studien zur sicheren und fairen Integration von KI in den Peer-Review-Prozess.
„Research methods in Family Medicine: an exploratory study of eleven years of congress programs using GPT-5“ untersucht die Forschungs- und Methodentrends in den Jahreskongressen der Deutschen Gesellschaft für Allgemeinmedizin und Familienmedizin (DEGAM) von 2014 bis 2024. In der Studie werden alle 2.869 Programmbeiträge automatisch mit einem großen Sprachmodell nach Methode und Thema klassifiziert und deskriptiv ausgewertet. Die Ergebnisse zeigen stabile Anteile quantitativer, qualitativer und Mixed-Methods-Ansätze bei zugleich breiter, aber methodisch kaum evolvierender Themenlandschaft, in der zukunftsorientierte Themen wie eHealth oder Nachhaltigkeit zwar erkennbar, aber weiterhin relativ selten sind.
COMPOSE: Cross-Modal Pseudo-Siamese Network for Patient Trial Matching ist ein Forschungsartikel von Junyi Gao, Cao Xiao, Lucas M. Glass und Jimeng Sun, der 2020 in den Proceedings der 26. ACM SIGKDD International Conference on Knowledge Discovery & Data Mining erschienen ist. Das vorgestellte neuronale Netzwerk COMPOSE dient der datengetriebenen Patienten-Rekrutierung für klinische Studien, indem es strukturierte elektronische Patientenakten (EHR) mit unstrukturierten Einschluss- und Ausschlusskriterien (Eligibility Criteria) abgleicht. Es nutzt eine pseudo-siamesische Architektur mit einem Pfad für die Encodierung der Kriterien mittels Convolutional Highway Network und einem zweiten Pfad für die mehrgranulare Verarbeitung der Patientendaten basierend auf medizinischen Ontologien und Memory Networks. Durch attention-basierte Ausrichtung und eine composite Loss-Funktion maximiert das Modell die Ähnlichkeit zu Einschlusskriterien und minimiert sie zu Ausschlusskriterien. Experimentelle Ergebnisse zeigen eine AUC von 98,0 % beim Kriterien-Matching und eine Genauigkeit von 83,7 % beim Patienten-Studien-Matching, was eine deutliche Verbesserung gegenüber früheren Ansätzen darstellt.
„Accelerating clinical evidence synthesis with large language models“ ist ein Open-Access-Artikel, der am 8. August 2025 in npj Digital Medicine (Volume 8, Article number: 509) erschienen ist. Die Autoren Zifeng Wang, Lang Cao, Benjamin Danek, Qiao Jin, Zhiyong Lu und Jimeng Sun stellen darin die KI-Pipeline TrialMind vor, die mithilfe großer Sprachmodelle die zentralen Schritte systematischer Reviews – Studiensuche, Studienscreening und Datenauswertung – beschleunigen soll. Auf Basis des Benchmarks TrialReviewBench (100 systematische Reviews mit 2.220 Studien) erzielt TrialMind deutlich höhere Recall-Werte bei der Literatursuche, bessere Ranking-Ergebnisse beim Screening und eine um 16–32 % höhere Genauigkeit bei der Extraktion gegenüber GPT-4. Eine Pilotstudie mit menschlicher Beteiligung zeigt eine Zeitersparnis von bis zu 63,4 % bei gleichzeitig verbesserter Qualität; Medizinexperten bevorzugten die mit TrialMind erstellten Evidenzsynthesen in 62,5–100 % der Fälle gegenüber rein GPT-4-basierten Ansätzen.
Die Arbeit „Classifying Epistemic Relationships in Human-AI Interaction: An Exploratory Approach“ von Shengnan Yang und Rongqian Ma untersucht, wie Nutzer in wissensintensiven Kontexten epistemische Beziehungen zu KI-Systemen aufbauen. Basierend auf 31 Interviews mit Wissenschaftlern aus verschiedenen Disziplinen identifizieren die Autorinnen fünf Typen solcher Beziehungen: Instrumental Reliance, Contingent Delegation, Coagency Collaboration, Authority Displacement und Epistemic Abstention. Diese Typen unterscheiden sich hinsichtlich Vertrauensform, Bewertungsweise (ergebnis- oder prozessbasiert), Aufgabenart und epistemischem Status des Nutzers. Die Studie zeigt, dass epistemische Rollen dynamisch und kontextabhängig sind, und plädiert für einen nuancierteren Ansatz in der HCI-Forschung, der über statische Metaphern hinausgeht und die gemeinsame Wissenskonstruktion zwischen Mensch und KI berücksichtigt.
Das Editorial „The H-Index of Suspicion: How Culture, Incentives, and AI Challenge Scientific Integrity“ von Isaac Kohane, M.D., Ph.D., erschienen am 18. Dezember 2025 in NEJM AI (Band 3, Nummer 1) beschreibt, wie generative KI es ermöglicht, überzeugende gefälschte wissenschaftliche Daten und Analysen zu erzeugen, die gängige Anomalie-Detektoren täuschen. Kohane illustriert dies anhand eines bewusst erfundenen Datensatzes zu einem Zusammenhang zwischen H-Index und Retractions, den eine KI zunächst prüfte und dann „verbesserte“, sodass er unauffällig wirkte. Er argumentiert, dass technische Lösungen wie Blockchain unzureichend sind, da sie kulturelle und incentivebedingte Probleme in der Wissenschaft nicht lösen – etwa den Druck auf Geschwindigkeit, Neuheit und Publikationsmenge statt auf Sorgfalt und Reproduzierbarkeit. Als wirksamere Ansätze schlägt er vor, Replikationsstudien zu normalisieren, Transparenz zu fördern und die Anreizstrukturen in Wissenschaft, Förderung und Publikationswesen grundlegend umzustellen, um Integrität zu stärken.
„Frameworks for Guiding the Selection of Digital Data Collection Tools Used in Clinical Trials: Protocol for a Systematic Review“ ist ein im Januar 2026 in JMIR Research Protocols (Band 15, e78529) veröffentlichtes Protokoll für eine systematische Übersichtsarbeit. Die Autoren Bavatharani Ananthesayanan, Kayode Philip Fadahunsi, Huanhuan Xiong und John O’Donoghue beschreiben darin den Mangel an etablierten Rahmenwerken zur Auswahl digitaler Datenerfassungswerkzeuge in klinischen Studien. Aufgrund der Vielfalt verfügbarer digitaler Technologien und der damit verbundenen Herausforderungen für Datenqualität, Patientensicherheit und regulatorische Anforderungen (z. B. Good Clinical Practice) soll die geplante systematische Review evidenzbasierte Kriterien aus bestehenden Frameworks synthetisieren und ein neues, spezifisch auf klinische Studien zugeschnittenes Auswahl-Framework entwickeln.
LatteReview: A Multi-Agent Framework for Systematic Review Automation Using Large Language Models ist ein technischer Report und zugleich ein Python-basiertes Open-Source-Framework. Es nutzt Large Language Models (LLMs) sowie Multi-Agent-Systeme, um zentrale Schritte systematischer Literaturreviews wie Titel- und Abstract-Screening, Relevanzbewertung und strukturierte Datenauswertung zu automatisieren. Das modulare Design erlaubt sequentielle oder parallele Review-Runden, dynamische Entscheidungsfindung, benutzerdefiniertes Feedback, Retrieval-Augmented Generation (RAG), multimodale Verarbeitung sowie Unterstützung verschiedener LLM-Anbieter (cloudbasiert und lokal). Das Framework ist auf GitHub verfügbar, wird aktiv entwickelt und zielt darauf ab, den hohen zeitlichen und personellen Aufwand systematischer Reviews deutlich zu reduzieren, während wissenschaftliche Strenge erhalten bleibt.
Der Artikel mit dem Titel „The Practical, Robust Implementation and Sustainability (PRISM)-capabilities model for use of Artificial Intelligence in community-engaged implementation science research“ wurde am 7. August 2025 in der Zeitschrift Implementation Science veröffentlicht. Er stellt ein konzeptionelles Modell vor, das den Practical, Robust Implementation and Sustainability Model (PRISM) mit dem Capabilities Approach kombiniert, um den ethischen und human-zentrierten Einsatz von Künstlicher Intelligenz (KI) in der community-engaged implementation science research (CER) zu leiten. Das PRISM-Capabilities-Modell umfasst sechs Komponenten: Optimizing engagement of implementers, settings, and recipients; characteristics of intervention implementers, settings, and recipients; equity assessment and risk management; implementation and sustainability infrastructure; external environment; sowie ethical assessment and evaluation. Es zielt darauf ab, KI so zu integrieren, dass sie Kollaboration, Transparenz, Inklusivität und ethische Standards fördert, Bias minimiert und Gemeinschaften als Mitgestalter einbezieht. Zur Validierung wird das Modell retrospektiv auf die HEALing Communities Study angewendet, um den potenziellen Nutzen von KI in realen Public-Health-Kontexten zu demonstrieren.
„Consensus-based reporting guideline for participatory development and evaluation of digital health interventions“ ist ein am 20. Januar 2026 in der Zeitschrift npj Digital Medicine (Band 9, Artikelnummer 169) open access veröffentlichter Artikel von Vera Weirauch, Anne Mainz, Julia Nitsche, Theresa Sophie Busse und Sven Meister. Die Autoren entwickelten mittels eines dreirundigen web-basierten Delphi-Verfahrens mit 66 internationalen Experten aus 23 Ländern eine Konsens-basierte Berichtsrichtlinie namens ParDE-DHI. Diese umfasst 68 Items und schließt eine Lücke in der bisher unzureichenden und heterogenen Dokumentation partizipativer Entwicklungs- und Evaluationsprozesse digitaler Gesundheitsinterventionen (DHIs). Die Richtlinie fördert Transparenz, Vergleichbarkeit und methodische Qualität, baut auf bestehenden Leitlinien auf und berücksichtigt die spezifischen Herausforderungen partizipativer Ansätze in der digitalen Gesundheitsforschung.
„How AI slop is causing a crisis in computer science“ beschreibt, wie die massive Zunahme von KI‑generierten Manuskripten die Peer‑Review‑Prozesse von Fachkonferenzen und Preprint‑Servern überlastet. Der Artikel führt aus, dass die Zahl der Einreichungen bei Veranstaltungen wie dem ICML 2026 mehr als doppelt so hoch ist wie im Vorjahr und dass die Ablehnungsraten bei arXiv‑Einreichungen von etwa 0,03 auf 0,10 gestiegen sind. Er schildert verschiedene Gegenmaßnahmen, darunter Gebühren für zusätzliche Paper, verpflichtende Reviewer‑Beiträge der Autoren und den Einsatz von KI‑Tools wie GPTZero zur Erkennung von Halluzinationen. Abschließend wird betont, dass das Phänomen – derzeit vor allem in der Informatik sichtbar – langfristig auch andere Disziplinen betreffen könnte.
„A Multi-Agent Machine Learning Framework for End-to-End Derisking of Clinical Trials Using Digital Twins“ skizziert ein konzeptionelles Rahmenwerk, das klinische Entwicklungsprogramme als kontinuierlich lernende Systeme begreift und nicht als isolierte, statische Einzelstudien. Im Mittelpunkt steht ein Netzwerk spezialisierter, interpretierbarer KI‑Agenten, die auf gemeinsamen, kausalen digitalen Zwillingen von Patienten, Studien, Operationen und Umfeld operieren und so biologische, statistische, operationelle, regulatorische und wettbewerbliche Risiken gemeinsam adressieren. Ziel ist es, Informations‑, therapeutische und Relevanzfehlschläge früher zu erkennen, Studienstrategien prospektiv zu „derisiken“ und Anpassungen entlang des gesamten Studienlebenszyklus zu unterstützen, ohne bestehende regulatorische und statistische Governance-Strukturen zu ersetzen.
Die Forschungsarbeit „Academic journals’ AI policies fail to curb the surge in AI-assisted academic writing“ von Yongyuan He und Yi Bu erschien am 24. Februar 2026 in der Zeitschrift PNAS. Die Autoren analysierten über 5,2 Millionen wissenschaftliche Publikationen aus 5.114 Zeitschriften und stellten fest, dass trotz der Einführung von KI-Nutzungsrichtlinien in etwa 70 % der Journale (meist mit Offenlegungspflicht) die Verwendung generativer KI-Tools beim wissenschaftlichen Schreiben stark zugenommen hat – unabhängig davon, ob eine Policy existiert oder nicht. Besonders hohe Wachstumsraten zeigen sich in nicht-englischsprachigen Ländern, den Naturwissenschaften und bei Open-Access-Zeitschriften mit hohen Gebühren. Eine detaillierte Volltextanalyse von 164.000 Publikationen ergab zudem eine erhebliche Transparenzlücke: Von rund 75.000 seit 2023 erschienenen Arbeiten gaben nur etwa 0,1 % (76 Fälle) die Nutzung von KI explizit an. Die Studie kommt zu dem Schluss, dass die bestehenden Richtlinien weder die KI-Nutzung wirksam eindämmen noch Transparenz fördern und fordert daher eine Überarbeitung ethischer Rahmenbedingungen für eine verantwortungsvolle Integration von KI in der Wissenschaft.
„ROC curves for clinical prediction models part 1. ROC plots showed no added value above the AUC when evaluating the performance of clinical prediction models“ ist ein wissenschaftlicher Artikel von Jan Y. Verbakel und Kollegen, der 2020 in der Zeitschrift Journal of Clinical Epidemiology erschienen ist. Die Autoren untersuchen die Darstellung von ROC-Kurven in der Literatur zu klinischen Vorhersagemodellen und zeigen anhand einer pragmatischen Literaturübersicht sowie Beispielen und Simulationen deren Limitationen auf. Sie kommen zu dem Schluss, dass ROC-Kurven in ihrer üblichen Form ohne Angabe von Schwellenwerten keine wesentlichen zusätzlichen Informationen über die diskriminierende Fähigkeit eines Modells liefern als die alleinige Angabe der Fläche unter der Kurve (AUC). Stattdessen empfehlen sie für die Bewertung der Modellleistung im Hinblick auf Entscheidungsfindung die Verwendung von Klassifikationsplots, die Sensitivität und Spezifität in Abhängigkeit von Risikoschwellen darstellen.
Die Studie mit dem Titel „Mode Effects Between Telephone and Web Interviews in the Post-COVID-19 Questionnaire Survey CoVerlauf: Exploratory Study“ wurde am 6. März 2026 in JMIR Human Factors veröffentlicht. Sie untersucht in einer sekundären Analyse der CoVerlauf-Studie mögliche Mode-Effekte zwischen computer-assisted telephone interviewing (CATI) und computer-assisted website interviewing (CAWI) bei der Datenerhebung zu post-COVID-19-Symptomen. Von 1779 Teilnehmenden wählten 77,8 % CAWI und 22,2 % CATI; CATI wurde häufiger von älteren Personen, Personen mit niedrigerem Bildungsstand und solchen mit mehr Symptomen bei der Infektion genutzt. CATI führte zu höheren Symptomzahlen sowohl bei Multiple-Choice- als auch bei Freitextangaben, bedingt durch Selektions- und Messungseffekte, beeinflusste jedoch nicht die Gesamtergebnisse der CoVerlauf-Studie zu post-COVID-19-Beschwerden.
Der KI-Policy-Generator v3 der Universität Bamberg ist ein Online-Tool zur Erstellung von Richtlinien für den Einsatz künstlicher Intelligenz in Lehrveranstaltungen. Das Tool ermöglicht Lehrenden die schnelle Generierung von KI-Nutzungsrichtlinien ohne vorherige Registrierung. Es stehen sechs verschiedene Vorlagen zur Verfügung, die entweder direkt übernommen oder individuell angepasst werden können. Der Editor bietet Funktionen zum Bearbeiten einzelner Abschnitte sowie eine Live-Vorschau zur Überprüfung der aktuellen Richtlinie. Nach Abschluss der Anpassungen kann die fertige Richtlinie heruntergeladen und an Lernende verteilt werden. Das Tool unterstützt sowohl deutsche als auch englische Sprachausgabe und wird kontinuierlich um neue Funktionen erweitert.
Der Artikel mit dem Titel „Consensus-based reporting guideline for participatory development and evaluation of digital health interventions“ wurde am 20. Januar 2026 in der Open-Access-Zeitschrift npj Digital Medicine (Volume 9, Article number: 169) veröffentlicht. Die Autoren sind Vera Weirauch, Anne Mainz und Sven Meister sowie weitere Mitwirkende. Er beschreibt die Entwicklung einer konsensbasierten Berichtsrichtlinie namens ParDE-DHI (Participatory Development & Evaluation of Digital Health Interventions) mittels eines dreirundigen web-basierten Delphi-Verfahrens mit einem internationalen Expertengremium aus 66 Teilnehmenden aus 23 Ländern. Ausgehend von bestehenden Berichtsstandards und unter Einbeziehung von Expertenfeedback entstand eine finale Checkliste mit 68 Items, die spezifisch die partizipative Entwicklung und Evaluation digitaler Gesundheitsinterventionen (DHIs) transparenter, vergleichbarer und methodisch robuster machen soll. Die Richtlinie schließt eine Lücke in der bisher unzureichenden und heterogenen Dokumentation partizipativer Ansätze und fördert damit Best Practices, Wissensaustausch sowie die Glaubwürdigkeit von Studien in diesem Bereich.
Der Artikel „Writing for Machines, Formatting Originality: Plagiarism Detection and the Automation of Authorship“ von Ethan Stoneman und Joseph C. Packer wurde am 5. März 2026 in der Zeitschrift Theory, Culture & Society als OnlineFirst-Beitrag veröffentlicht. Die Autoren untersuchen die institutionellen, technischen und ontologischen Auswirkungen von Plagiatserkennungsplattformen wie Turnitin und Grammarly auf das akademische Schreiben. Sie argumentieren, dass diese Dienste nicht nur Plagiate aufspüren, sondern aktiv neu definieren, was als Autorschaft, Originalität und intellektuelle Integrität gilt. Unter Rückgriff auf historische und medientheoretische Ansätze sowie auf Denker wie Foucault, Kittler, Flusser und Byung-Chul Han zeigen sie, wie Plagiatserkennung von einem neutralen Bewertungsinstrument zu einer infrastrukturgebundenen Form der Governance wird, die interpretative Urteile in maschinelle Lesbarkeit übersetzt und akademische Arbeit durch vorauseilende Anpassung prägt.
Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.


