Entwurf

Radiologie

Image-Management-Systeme

Die easyRadiology AG bietet ein Image-Management-System, das Ärzten, Patienten und medizinischem Personal jederzeit und überall Zugriff auf klinische Bilder und Befunde ermöglicht. Mit nahtloser Integration, interoperablen Systemen und flexiblen Schnittstellen erlaubt easyRadiology eine vollständig digitale Patienten-Journey – von der Terminvereinbarung bis zur Entlassung.

Weitere Softwarelösungen

Beispiele Radiologiesoftware
Name Link
Raya Diagnostics Raya Diagnostics
Examion Röntgensoftware Examion Röntgensoftware
OpenDICOM OpenDICOM
MicroDicom MicroDicom
RadiAnt Viewer RadiAnt Viewer
IMAIOS DICOM Viewer IMAIOS DICOM Viewer
Weasis Weasis
Visus Visus
ORPALIS DICOM Viewer ORPALIS DICOM Viewer
OsiriX OsiriX
Awesome DICOM Awesome DICOM
Sante DICOM Viewer Sante DICOM Viewer Lite
EndoNet DICOM Viewers EndoNet Free DICOM Viewers

Die Website entscheidung-bildgebung.de, Teil des Betti-Projektes (better imaging), unterstützt Patientinnen und Ärztinnen bei der Entscheidung, ob und wann Bildgebung bei Schmerzen des Bewegungsapparates sinnvoll ist. Sie richtet sich an Betroffene, Interessierte sowie (Haus-)Ärzt*innen und Behandelnde.

Forschung

Künstliche Intelligenz

Die Studie „ChatGPT-4–Driven Liver Ultrasound Radiomics Analysis: Diagnostic Value and Drawbacks in a Comparative Study“ untersucht die Fähigkeit von ChatGPT-4, Leberultraschallbilder mittels Radiomics-Analyse zu bewerten und zwischen Fibrose, Steatose und normalem Lebergewebe zu unterscheiden. Sie vergleicht die Leistung von ChatGPT-4 mit konventioneller Bildanalysesoftware (IDL) anhand von 70 Ultraschallbildern aus einem präklinischen Lebererkrankungsmodell. ChatGPT-4 extrahierte neun Texturmerkmale, die signifikante Unterschiede zwischen den Leberzuständen zeigten (P<.05), erreichte eine Genauigkeit von 76 % und eine Sensitivität von 83 %. Im Vergleich zu IDL war die Sensitivität etwas niedriger (0,83 vs. 0,89), jedoch reduzierte ChatGPT-4 die Analysezeit um 40 %. Die Ergebnisse deuten auf ein hohes Potenzial von ChatGPT-4 für die automatisierte Bildanalyse hin, wobei Verbesserungen in der Reproduzierbarkeit und diagnostischen Genauigkeit erforderlich sind. (Sultan u. a. 2025)

Die Studie “Redefining Radiology: A Review of Artificial Intelligence Integration in Medical Imaging” bietet eine Übersicht über die Integration von Künstlicher Intelligenz (KI) in die Radiologie und deren transformative Auswirkungen auf die Gesundheitsversorgung. Sie verfolgt die Entwicklung der Radiologie von der Entdeckung der Röntgenstrahlen bis zur Anwendung von maschinellem Lernen (ML) und Deep Learning in der modernen medizinischen Bildanalyse. Der Schwerpunkt liegt auf den Anwendungen von KI in der Radiologie, wie Bildsegmentierung, computergestützter Diagnose, prädiktiver Analytik und Workflow-Optimierung. Darüber hinaus beleuchtet die Studie die Auswirkungen von KI auf diagnostische Prozesse, personalisierte Medizin und klinische Arbeitsabläufe und befasst sich auch mit den Herausforderungen, die mit der Integration von KI in die Radiologie verbunden sind, darunter Datenqualität, das „Black-Box“-Problem, infrastrukturelle und technische Komplexität sowie ethische Implikationen. (Najjar 2023)

Die Studie „Efficiency and Quality of Generative AI–Assisted Radiograph Reporting“ untersucht den Einsatz eines generativen KI-Modells zur Unterstützung bei der Radiologie-Berichterstellung. Dabei zeigte sich, dass die Nutzung des KI-Systems die Dokumentationszeit um 15,5% verkürzte, ohne die klinische Genauigkeit oder Textqualität der Berichte zu beeinträchtigen. Zudem konnte das System wichtige Pneumothoraces mit hoher Sensitivität und Spezifität schnell erkennen, was zu einer schnelleren Behandlung beitragen kann. Die Ergebnisse deuten darauf hin, dass die Zusammenarbeit zwischen Radiologen und generativer KI die Effizienz verbessert und die Qualität der Patientenversorgung erhalten bleibt. (Huang u. a. 2025)

„Recognising errors in AI implementation in radiology: A narrative review“ ist eine Übersichtsarbeit, die sich mit typischen Fehlerquellen bei der Implementierung von Künstlicher Intelligenz in der Radiologie befasst. Die Autor:innen beschreiben, dass Probleme sowohl im Lebenszyklus der Modelle, in der technischen Infrastruktur als auch durch menschliche Faktoren entstehen können. Dazu gehören Aspekte wie mangelnde Datenqualität, Bias, unzureichendes Testen, Integrationsprobleme in PACS/RIS sowie fehlende Akzeptanz und Vertrauen seitens der Anwender. Ziel der Arbeit ist es, diese Fehlermechanismen zu identifizieren und Lösungsansätze vorzuschlagen, um künftige Implementierungen sicherer, effizienter und klinisch relevanter zu gestalten. (Stogiannos u. a. 2025)

Der Artikel mit dem Titel „Evaluation of Reliability, Repeatability, Robustness, and Confidence of GPT-3.5 and GPT-4 on a Radiology Board–style Examination“ untersucht die Leistungsfähigkeit der KI-Modelle GPT-3.5 und GPT-4 bei radiologischen Prüfungsfragen. Im Rahmen der Studie wurden die Zuverlässigkeit, Wiederholbarkeit, Robustheit und das Vertrauen der Modelle bei der Beantwortung komplexer radiologischer Multiple-Choice-Fragen analysiert. Dabei zeigte GPT-4 eine signifikant bessere Gesamtgenauigkeit und verbesserte Leistung insbesondere bei schwierigen Fragestellungen im Vergleich zu GPT-3.5. Die Ergebnisse verdeutlichen das Potenzial großer Sprachmodelle wie GPT-4 als unterstützende Werkzeuge in der Radiologie, wobei jedoch auch ihre Grenzen berücksichtigt werden müssen. Die Studie liefert wichtige Erkenntnisse zur Integration solcher KI-Modelle in die medizinische Diagnostik und Ausbildung. (Krishna u. a. 2024)

Die Studie „Prospektive multizentrische Validierung künstlicher Intelligenz zur Erkennung von Tuberkulose und Thoraxröntgenanomalien“ untersucht den Einsatz von KI-Algorithmen zur Analyse von Thoraxaufnahmen. In mehreren klinischen Einrichtungen wurde geprüft, wie zuverlässig die Systeme Tuberkulose-typische Veränderungen sowie andere Auffälligkeiten auf Röntgenbildern erkennen. Ziel war es, den diagnostischen Ablauf zu verbessern und den Einsatz molekularer Nachweisverfahren insbesondere in Ländern mit hoher Krankheitslast effizienter zu gestalten. Die Arbeit basiert auf einer prospektiven Datenerhebung und vergleicht die Leistung der KI mit etablierten diagnostischen Verfahren, ohne subjektive Wertung der Ergebnisse. (Kazemzadeh u. a. 2024)

Patientenkommunikation

Die Studie “ReXplain: Translating Radiology into Patient-Friendly Video Reports” stellt ein KI-gestütztes System, das Radiologieberichte in patientenfreundliche Videoberichte umwandelt. Es kombiniert ein großes Sprachmodell zur Vereinfachung von Texten, ein Bildsegmentierungsmodell zur Identifikation anatomischer Regionen und ein Avatar-Generierungstool, um verständliche Erklärungen mit einfacher Sprache, hervorgehobenen Bildern und 3D-Organ-Renderings zu erstellen. Eine Machbarkeitsstudie mit fünf Radiologen zeigt, dass ReXplain radiologische Informationen vermittelt und persönliche Beratungen simuliert. Dieses System eröffnet neue Möglichkeiten für die multimodale medizinische Kommunikation und verbessert potenziell die Patientenbeteiligung und Zufriedenheit in der radiologischen Versorgung. (Luo u. a. 2024)

Weiteres

Der Artikel „Structuring Radiology Reports: Challenging LLMs with Lightweight Models” untersucht die Strukturierung von radiologischen Befunden durch kompakte, spezialisierte Deep-Learning-Modelle im Vergleich zu großen Sprachmodellen wie LLaMA-3 oder GPT-4. Die Arbeit demonstriert anhand der frei verfügbaren MIMIC-CXR- und CheXpert-Plus-Datensätze, dass ein speziell trainiertes BERT2BERT-Modell mit rund 300 Millionen Parametern eine ähnliche Genauigkeit bei der strukturierten Berichtserstellung erreicht wie deutlich größere LLMs – jedoch bei erheblich geringerer Rechenlast, niedrigeren Kosten und deutlich reduziertem CO₂-Ausstoß. Für das Training wurde eine große Datenbasis erzeugt, indem GPT-4 zunächst als „schwacher Annotator“ eingesetzt wurde; ein ärztlich begutachteter Testdatensatz diente zur Qualitätsprüfung. Die Ergebnisse unterstreichen, dass kleine, domänenspezifische Modelle eine datenschutzkonforme, ressourcenschonende und skalierbare Alternative zu Cloud-basierten LLM-Lösungen insbesondere für regulierte Gesundheitseinrichtungen bieten können.

Der Artikel „Closing the Loop: A Custom Artificial Intelligence Agent to Improve Detection of Radiologist Follow‑Up Recommendations“ beschreibt die Entwicklung und Implementierung eines KI‑basierten Agenten, der radiologische Befundempfehlungen automatisch erkennt und standardisiert. Das System nutzt ein vortrainiertes Large‑Language‑Model, um klinische Eindrücke zu analysieren, relevante Details für Nachuntersuchungen zu extrahieren und diese Informationen in den digitalen Arbeitsablauf für Patientenansprachen zu integrieren. In einer Evaluation mit 10 000 zufällig ausgewählten Befunden erreichte der Agent eine balancierte Genauigkeit von über 97 % und identifizierte 6,18‑mal mehr Fälle, die einer Nachverfolgung bedurfen, als das bisherige makrobasierte System. Zusätzlich zeigte er über 94 % Genauigkeit bei der Bestimmung von Zeitpunkt, Verfahren und zugrunde liegender Anomalie der empfohlenen Nachuntersuchungen, wodurch die Zuverlässigkeit der Patientenversorgung in einem hochvolumigen Gesundheitssystem verbessert wurde.

„Merlin: a computed tomography vision–language foundation model and dataset“ ist ein in Nature am 4. März 2026 veröffentlichter Artikel. Er stellt das 3D-Vision-Language-Modell Merlin vor, das volumetrische abdominale CT-Scans, elektronische Patientenakten und Radiologieberichte integriert. Das Modell wurde auf einem großen klinischen Datensatz mit über 15.000 CT-Scans (mehr als 6 Millionen Bildern), Diagnosecodes und Berichten trainiert, ohne zusätzliche manuelle Annotationen. Merlin wurde auf 752 Aufgaben evaluiert, darunter Zero-Shot-Klassifikationen, Cross-Modal-Retrieval, Krankheitsvorhersagen, Berichtsgenerierung und 3D-Segmentierung. Es zeigte hohe Generalisierung in internen und externen Tests (über 49.000 Scans) und übertraf 2D-VLMs sowie andere CT-Modelle. Der Datensatz mit 25.494 CT-Bericht-Paaren, Modellgewichte und Code wurden öffentlich freigegeben, um die Interpretation abdominaler CTs zu unterstützen und Radiologen zu entlasten.

Der Artikel mit dem Titel „Metrics for Artificial Intelligence in Medicine: A Reference Resource“ erschien am 11. März 2026 in der Zeitschrift Radiology: Artificial Intelligence. Die Autoren Ricardo A. Gonzales, Marcelo Straus Takahashi, Tara Retson, Imon Banerjee, Seong Ho Park und Charles E. Kahn Jr. stellen darin ein umfassendes, maschineninterpretierbares Framework vor, das die Nomenklatur und Beschreibungen von 207 graphischen, matrixbasierten und skalaren Metriken zur Bewertung der Leistung von KI-Modellen in der Medizin formalisiert. Diese Metriken-Taxonomie ist Bestandteil der Radiology Ontology of AI Datasets, Models and Projects (ROADMAP) und bietet eine logisch strukturierte Darstellung, die Semantik erfasst, Schlussfolgerungen über Metrikklassen ermöglicht und automatisierte Vollständigkeitsprüfungen bei der Berichterstattung von KI-Modellen unterstützt. Jede Metrik wird mit Definition, Quellenangaben, Synonymen, Abkürzungen, Formeln und Grenzwerten versehen; logische Axiome verknüpfen sie mit 18 Leistungskriterien wie Klassifikation, Kalibrierung, Bildsegmentierung und Textanalyse. Das System gilt für Modelle auf strukturierten Daten, medizinischen Bildern, Audiosignalen und unstrukturiertem Text und fördert durch standardisierte Terminologie den Vergleich von Modellen, die Bias-Erkennung sowie die Auswahl geeigneter Evaluationsmethoden.

Der Artikel mit dem Titel „Roadmap: An Ontology of Medical AI Models and Datasets“ stellt die Radiology Ontology of AI Datasets, Models, and Projects (ROADMAP) vor. Diese Ontologie wurde von Forschern um Abhinav Suri, Marcelo Straus Takahashi, Tara Retson und Charles E. Kahn Jr. entwickelt und im März 2026 in der Zeitschrift Radiology: Artificial Intelligence veröffentlicht. ROADMAP bietet ein maschineninterpretierbares Rahmenwerk zur standardisierten Beschreibung von KI-Modellen und -Datensätzen in der Medizin, insbesondere der Radiologie. Sie definiert formale Attribute und zulässige Werte, baut auf Konzepten wie „Model Cards“ und „Datasheets for Datasets“ auf und erweitert diese um Unterstützung multimodaler Daten (medizinische Bilder, strukturierte Daten, unstrukturierter Text). Durch Verknüpfung mit etablierten Ontologien, Kodiersystemen und Common Data Elements verbessert ROADMAP die Auffindbarkeit, Interoperabilität und Wiederverwendbarkeit von KI-Ressourcen. Sie ermöglicht das passgenaue Zuordnen von Modellen zu Datensätzen sowie die Erkennung potenzieller Bias-Quellen und ist öffentlich unter bioportal.bioontology.org/ontologies/ROADMAP verfügbar.

Der Artikel „Full-scale indexing and semantic annotation of CT imaging: boosting FAIRness“ (veröffentlicht am 9. Februar 2026 in BMC Medical Informatics and Decision Making) stellt eine automatisierte Methode zur semantischen Anreicherung klinischer CT-Bildserien vor. Autoren sind Hannes Ulrich, Robin Hendel und Björn Schreiweis. Ziel ist die Verbesserung der FAIR-Prinzipien (Findability, Accessibility, Interoperability, Reusability) für medizinische Bilddaten. Dazu wird das TotalSegmentator-Framework eingesetzt, um anatomische Strukturen zu segmentieren und diese mit SNOMED-CT-Codes zu annotieren. Die Metadaten werden in standardisierten HL7-FHIR-Ressourcen abgebildet. Im UKSH MeDIC am Universitätsklinikum Schleswig-Holstein wurden bis November 2025 über 1,7 Millionen CT-Serien verarbeitet, was mehr als 50 Millionen SNOMED-CT-Annotationen ergab. Der offene Prozess ermöglicht eine effiziente, skalierbare Indexierung und unterstützt die bessere Auffindbarkeit sowie den standardisierten Austausch von Bilddaten für Forschung und KI-Anwendungen in der Medizin.

TippHinweis

Der Text erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit und stellt keine Rechtsberatung dar. Anmerkungen können in der rechten Seitenleiste mit Hypothes.is sozialem Annotierungswerkzeug oder am unteren Ende einer Seite mit GitHub Giscus Diskussionen hinterlassen werden.