Osteologie 2025; 34(04): 250-255
DOI: 10.1055/a-2697-4943
Originalarbeit

Leitliniengerechte Osteoporoseversorgung durch LLMs? Ein Scoping Review zum Potenzial generativer KI

Can LLMs Bridge the Guideline Gap? A Scoping Review on Generative AI in Osteoporosis Management

Authors

  • Sebastian Kuhn

    Insitut für Digitale Medizin, Philipps-Universität Marburg, Marburg, Germany
  • Johannes Knitza

    Insitut für Digitale Medizin, Philipps-Universität Marburg, Marburg, Germany
 

Zusammenfassung

Hintergrund

Die leitliniengerechte Versorgung von Osteoporosepatient:innen wird im klinischen Alltag durch Komplexität und begrenzte Ressourcen häufig erschwert. Large Language Models (LLMs) wie ChatGPT könnten als digitale Entscheidungshilfe dienen.

Ziel

Dieser Scoping Review untersucht den aktuellen Forschungsstand zum Einsatz von LLMs bei der leitlinienbasierten Diagnostik, Therapieentscheidung und Kommunikation in der Osteoporoseversorgung.

Methodik

Die systematische Medline Literaturrecherche erfolgte im Juni 2025 und folgte dem PRISMA-ScR-Framework. Eingeschlossen wurden Originalstudien mit empirischen Daten zum Einsatz von LLMs in der Osteoporoseversorgung. Zwei Reviewer führten Selektion, Datenextraktion und Qualitätsprüfung durch.

Ergebnisse

Insgesamt wurden acht zwischen 2023 und 2025 publizierte Studien eingeschlossen. Untersucht wurden ChatGPT (verschiedene Versionen von 3.5 und 4), Gemini/Bard und BingAI. Anwendungsszenarien umfassten Patient:innenaufklärung, Wissenstests sowie klinische Fallbeurteilungen. ChatGPT-4 zeigte durchgehend die höchste Leitlinienkonformität, teils vergleichbar mit ärztlicher Expertise. Schwächen lagen unter anderem in veralteten Informationen, mangelnder Erklärbarkeit und Datenschutzbedenken.

Schlussfolgerung

LLMs sind ein vielversprechendes Instrument zur Unterstützung der Osteoporosebehandlung. Es fehlen jedoch noch robuste, qualitativ hochwertige klinische Studien zur Bewertung ihrer Wirksamkeit in der Praxis, die dringend benötigt werden. Zum jetzigen Zeitpunkt sollten LLMs als wertvolle Ergänzung zur klinischen Praxis betrachtet werden, aber ihre Ergebnisse müssen kritisch bewertet werden, bevor sie zur Entscheidungsfindung herangezogen werden.


Abstract

Background

Guideline-adherent osteoporosis care is often hindered by complexity and limited resources. Large Language Models (LLMs), such as ChatGPT, may serve as digital decision-support tools. Objective: This scoping review explores current evidence on the use of LLMs for diagnosis, treatment decision-making, and communication in osteoporosis care.

Methods

A systematic Medline search was conducted in June 2025. Eligible studies reported empirical data on LLMs applied to osteoporosis. Two reviewers independently screened, extracted, and assessed studies. The review followed the PRISMA-ScR framework.

Results

Eight studies, published between 2023 and 2025 were included. All studies assessed ChatGPT (various versions of 3.5 and 4); and some also evaluated Gemini/Bard or BingAI. Use cases involved patient education, guideline-based knowledge testing, and clinical decision-making. ChatGPT-4 consistently showed the highest guideline adherence (accuracy up to 91%), in some cases comparable to physician expertise. Limitations included outdated content, lack of explainability, and data privacy concerns.

Conclusion

LLMs show promise as supportive tools in osteoporosis care. However, robust, high-quality clinical trials assessing their effectiveness in real-world settings are still lacking and urgently needed. At this stage, LLMs should be considered valuable adjuncts to clinical practice, but their output must be critically assessed before use in decision-making.


Einleitung

Die leitliniengerechte Versorgung von Osteoporosepatient*innen stellt im klinischen Alltag weiterhin eine erhebliche Herausforderung dar. Trotz etablierter evidenzbasierter Leitlinien für Diagnostik und Therapie wird deren konsequente Umsetzung in der Praxis durch mehrere Faktoren erschwert. So führen die Komplexität der Leitlinienempfehlungen, begrenzte personelle und zeitliche Ressourcen sowie praktische Umsetzungsprobleme in der Versorgungsrealität dazu, dass viele Patientinnen nicht optimal leitliniengerecht versorgt werden [1]. Dies äußert sich in einer anhaltenden Unterdiagnostik und Untertherapie der Osteoporose, obwohl effektive Präventions- und Behandlungsstrategien verfügbar sind.

Digitale Technologien bieten potenzielle Lösungsansätze. Insbesondere Large Language Models (LLMs) wie ChatGPT-4 werden zunehmend als Werkzeuge zur medizinischen Entscheidungsunterstützung diskutiert [2], [3]. Solche Modelle können umfangreiches medizinisches Wissen wie Leitlinien und Publikationen in kurzer Zeit analysieren, komplexe Sachverhalte in verständliche Sprache übertragen und kontextbezogene Antworten auf klinische Fragestellungen formulieren. Dadurch bieten LLMs die Chance, die Komplexität evidenzbasierter Entscheidungen im Versorgungsalltag besser handhabbar zu machen und zeitliche Engpässe des Personals abzumildern. In ersten klinischen Anwendungen werden LLMs bereits eingesetzt, etwa eingebettet in Chatbots zur vorbereitenden Patientinnenaufklärung oder beim automatisierten Entwurf von Arztbriefen, und können so Ärzt*innen entlasten.

Die Leistungsfähigkeit aktueller LLMs zeigt sich auch in formalen Prüfungssettings. ChatGPT-4 hat in Studien das Bestehen der US-amerikanischen ärztlichen Zulassungsprüfung (USMLE) erreicht und demonstriert damit ein hohes Maß an medizinischer Wissensabdeckung und Argumentationsfähigkeit [4]. Darüber hinaus wurden LLMs erfolgreich in einer Vielzahl medizinischer Fachrichtungen erprobt, von der Rheumatologie (z. B. bei der Beantwortung häufig gestellter Fragen zu Lupus) bis zur Onkologie (z. B. in Form eines quellengestützten, erklärbaren Chatbots zur Entscheidungsunterstützung bei Brustkrebs) [5], [6]. Diese Breite der Anwendungsfelder verdeutlicht das Potenzial von LLMs über rein technische Funktionen hinaus, hin zu patientenzentrierter Kommunikation und klinischer Unterstützung in spezifischen Indikationsgebieten.

In der Osteologie stehen LLMs vor der Herausforderung, komplexe Leitlinien, etwa der Fachgesellschaften wie DVO, ACOG oder ACR, zu „verstehen“ und patientenspezifisch anzuwenden. Dies betrifft Fragestellungen entlang der gesamten Versorgungskette, von der Interpretation von DXA-Messwerten und Risikofaktoren über die leitliniengerechte Indikationsstellung für Osteoporosemedikamente bis hin zur verständlichen Aufklärung von Patient*innen. Ob LLMs dabei verlässlich und aktuell genug agieren, um eine qualitativ hochwertige Entscheidungsunterstützung zu leisten, ist bislang unklar.

Die vorliegende Arbeit adressiert diese offene Frage im Rahmen eines Scoping-Reviews, in dem die bisher publizierte Evidenz zum Einsatz von LLMs in der leitliniengerechte Osteoporoseversorgung systematisch ausgewertet wird. Ziel ist es, die bisherigen Einsatzbereiche, die Qualität der Modellantworten und deren potenzielle Vorteile sowie Limitationen gegenüber klassischen Clinical Decision Support Systems (CDSS) darzustellen – und so das Potenzial von LLMs für eine verbesserte, leitliniengerechte Osteoporoseversorgung einzuordnen.


Methodik

Die Durchführung des Scoping Reviews orientierte sich an der Preferred Reporting Items for Systematic reviews and Meta-Analyses extension for Scoping Reviews [7]. Die MEDLINE Datenbank wurde am 30.06.2025 mit der folgenden Suchstrategie durchsucht: „ChatGPT“ OR „Large language model“ OR „LLM“ OR „LLMs“ AND „Osteoporosis“, „Osteoporose“. Zwei Reviewer screenten unabhängig Titel und Abstract der identifizierten Beiträge. Eingeschlossen wurden Originalstudien sofern sie empirische Daten zum Einsatz von LLMs in der Osteoporoseversorgung durch Large Language Models (LLMs) lieferten. Ausgeschlossen wurden Übersichtsarbeiten, Kommentare, Abstracts ohne Volltext sowie Beiträge ohne direkten Bezug zu LLMs in der Osteoporoseversorgung. Die endgültige Studienauswahl erfolgte im Konsens. Konflikte wurden durch Diskussion gelöst.

Aus den eingeschlossenen Studien wurden folgende Informationen extrahiert:

  • Autoren, Jahr, Studientyp und -design,

  • LLM, Versionensnummern sowie technische Spezifikationen

  • Anwendungsfeld (z. B. klinische Diagnose, Therapievorschläge, Patientenaufklärung)

  • Leistungsbewertung (z. B. Accuracy, Scores durch Expertinnen, oder Qualitätsindizes)

  • Hauptergebnisse und Schlussfolgerungen

Zusätzlich zur manuellen Extraktion wurde das KI-gestützte Tool Elicit (Covina, California, USA) eingesetzt, um die Extraktion der o.g. Studienmerkmale zu unterstützen. Die von Elicit vorgeschlagenen Informationen wurden anschließend überprüft.


Ergebnisse

Studienübersicht und PRISMA-ScR Reporting

Insgesamt wurden 31 Publikationen identifiziert ([Abb. 1]), 23 Artikel nach Titelsichtung ausgeschlossen, 8 im Volltext geprüft und schließlich 8 Studien eingeschlossen. Die eingeschlossenen Studien stammten aus den Jahren 2023–2025 und untersuchten verschiedene Aspekte des LLM-Einsatzes bei Osteoporose.

Zoom
Abb. 1 PRISMA-Flussdiagramm des Literatur-Screenings.

Alle Arbeiten untersuchten ChatGPT, teils in unterschiedlichen Versionen: GPT-3.5 vs. GPT-4, drei Untersuchungen verglichen ChatGPT mit anderen aktuellen LLMs (Google Bard/Gemini und Microsoft BingAI). Die Qualität der LLM-Antworten wurde überwiegend durch Expertenbewertungen (z. B. Richtigkeitsskalen, Äquivalenz zu Leitlinien) beurteilt.

Als Anwendungsfelder wurden identifiziert:

  • Patient*inneninformation und -aufklärung im Leitlinienkontext

  • Leitlinienkonformität bei Wissens- und Prüfungsfragen

  • Leitlinienbasierte Fallbeurteilung und klinische Entscheidungsfindung


Patient*inneninformation und -aufklärung im Leitlinienkontext

Vier Studien untersuchten die Qualität und Leitliniennähe LLM-generierter Antworten auf häufige Patientenfragen zur Osteoporose:

  • Cinar (2023) untersuchte die Qualität von ChatGPT-3.5 bei der Beantwortung von 72 häufig gestellten Patientenfragen zur Osteoporose, die aus öffentlich zugänglichen Webquellen und sozialen Medien extrahiert wurden [8]. Die Antworten wurden durch eine Fachexpertin auf Richtigkeit, Vollständigkeit und Reproduzierbarkeit bewertet. Die Gesamtgenauigkeit lag bei 80,6%, mit besonders hoher Leistung in den Kategorien Prävention und Allgemeinwissen. Die Studie enthält zudem eine separate Analyse leitlinienbasierter Fachfragen (s. u.), zeigt aber bereits hier Potenzial für die Nutzung von LLMs in der Patient*innenkommunikation.

  • Erden et al. (2024) bewerteten die Qualität und Lesbarkeit von ChatGPTs Antworten zu häufig gesuchten Osteoporose-bezogenen Begriffen [9]. Die Ergebnisse zeigen ernsthafte Qualitätsprobleme und eine schwer verständliche Sprache. Die Studie stellt infrage, ob ChatGPT derzeit für patientengerechte Information geeignet ist, und empfiehlt strukturierte Qualitätskontrollen und verständlicher aufbereitete Inhalte für Menschen ohne akademischen Hintergrund. Insgesamt hat diese Studie eine Reihe von Schwächen sowohl in der Methodenbeschreibung (u. a. ChatGPT Versionsnummer in Publikation nicht beschrieben) und ist bezüglich der Ergebnisdarstellung verbesserungswürdig. Die Aussagekraft dieser Ergebnisse bleibt daher begrenzt.

  • Ghanem et al. (2024) untersuchten ChatGPT-3.5 im Anwendungsfeld der Patientinneninformation und -aufklärung zu Osteoporose [10]. 20 häufig gestellte Fragen wurden bewertet. Drei Orthopädinnen und eine Pflegekraft bewerteten die Antworten mit einem Genauigkeitswert von 91%. ChatGPT lieferte strukturierte, evidenzbasierte Inhalte, wobei keine Antwort als ungenau oder potenziell schädlich eingestuft wurde. Die Studie weist auf die potentielle Eignung zur Ergänzung der Patient*innenkommunikation hin, betont jedoch die Notwendigkeit ärztlicher Kontrolle.

  • Cung et al. (2024) untersuchten die Leistung dreier LLMs (ChatGPT-4.0, BingAI und Google Bard) bei der Beantwortung von 90 Fragen zu Skelettbiologie und Osteoporose aus den Bereichen Wissenschaft, klinische Praxis und Patientenanfragen [13]. ChatGPT-4.0 erreichte durchgehend die höchsten Genauigkeitswerte, während Bard und BingAI deutliche Schwächen zeigten. Die Ergebnisse belegen ChatGPTs Potenzial für die patientennahe sowie forschungsnahe Wissensvermittlung, betonen aber die Notwendigkeit professioneller Überprüfung.


Leitlinienkonformität bei Wissens- und Prüfungsfragen

Vier Studien untersuchten, wie gut LLMs formalisierte Leitlinienempfehlungen in standardisierten Fragen wiedergeben können.

  • Cinar (2023) evaluierte zusätzlich zur Patientenperspektive (s. o.) die Genauigkeit von ChatGPT-3.5 bei 31 strukturierten Wissensfragen, die auf der National Osteoporosis Guideline Group (NOGG) basieren [8]. Die Antworten wurden hinsichtlich ihrer Übereinstimmung mit aktuellen Leitlinienempfehlungen bewertet. Nur 61,3% erfüllten die Kriterien vollständig, während einzelne Antworten teils veraltet oder unvollständig waren. Dies legt nahe, dass ChatGPT zwar relevante Leitlinieninhalte abbildet, in prüfungsähnlichen Kontexten jedoch Schwächen zeigt.

  • Valdez et al. (2024) evaluierten ChatGPT-3.5 und ChatGPT-4 in Bezug auf die Leitlinienkonformität bei Prüfungsfragen zur klinischen Densitometrie [12]. In einem simulierten Examen bestand GPT-3.5 nicht, GPT-4 hingegen schon. GPT-4 zeigte zudem längere, fundiertere Erklärungen. Die Studie demonstriert, dass GPT-4 ohne spezifisches Training leitlinienkonforme Leistungen gemäß den Vorgaben der International Society for Clinical Densitometry (ISCD) auf Fachexamensniveau erbringen kann.

  • Tong et al. (2024) analysierten die Leistung von ChatGPT-3.5, ChatGPT-4 und Google Gemini in Bezug auf Glukokortikoid-induzierte Osteoporose anhand von 59 Fragen (inkl. 25 leitlinienbasierter Fragen gemäß der 2022 ACR Guideline for the Prevention and Treatment of Glucocorticoid-Induced Osteoporosis) [14]. ChatGPT-4 zeigte die höchste Gesamtgenauigkeit und verbesserte Antworten bei Selbstkorrektur. Google Gemini gab zwar kürzere, aber weniger präzise Antworten. Die Ergebnisse belegen ChatGPT-4s überlegene Leitlinienkompetenz bei der Umsetzung der ACR-Empfehlungen und Anpassungsfähigkeit bei komplexen klinischen Fragen.

  • Liu et al. (2025) verglichen ChatGPT-4o mini, ChatGPT-4o und Gemini Advanced hinsichtlich der Beantwortung von Patienten- und leitlinienbasierten Fragen gemäß der 2022 American Congress of Obstetricians and Gynecologists (ACOG) Clinical Practice Guideline No. 2 zur postmenopausalen Osteoporose (ACOG-PMOP) [11]. ChatGPT-4o zeigte durchgehend die höchste Genauigkeit und bessere Leserlichkeit. Alle Modelle demonstrierten gute Selbstkorrektur, indem sie nach einem Hinweis auf fehlender Präzision oder Fehler ihre Antworten signifikant verbesserten. Die Ergebnisse unterstreichen ChatGPT-4os Potenzial für personalisierte Patienteninformation und leitlinienkonforme Unterstützung gemäß ACOG bei klinischen Entscheidungen.


Leitlinienbasierte Fallbeurteilung und klinische Entscheidungsfindung

  • Bucak et al. (2025) verglichen in einem klinischen Entscheidungskontext ChatGPT-4.0 mit der Expertise von fünf Fachärztinnen anhand von 100 realen Osteoporose-Fällen [15]. ChatGPT erreichte eine diagnostische Genauigkeit von 91% und generierte signifikant schneller Empfehlungen als die Ärztinnen. Die Übereinstimmung mit aktuellen klinischen Leitlinien war hoch, wenn auch nicht vollständig. Die Ergebnisse unterstreichen das Potenzial von LLMs zur Effizienzsteigerung in der Versorgung – bei gleichzeitiger Notwendigkeit ärztlicher Kontrolle.



Diskussion

Die identifizierten Studien zeigten, dass Large Language Models das Potential haben, qualitativ hochwertige Leistungen in der Osteoporoseversorgung zu erbringen. In unterschiedlichen Szenarien, von der Beantwortung häufig gestellter Patientenfragen bis hin zu konkreten Diagnose- und Therapievorschlägen. Neuere LLM Versionen wie ChatGPT-4 erzielten hohe Genauigkeitswerte, die in einigen Studien sogar mit ärztlicher Expertise vergleichbar waren [12], [13], [14], [15]. Aufgrund der identifizierten Qualitätsunterschiede zwischen ChatGPT-3.5 und ChatGPT-4 erscheint es sinnvoll, für den klinischen Einsatz ausschließlich aktuelle Versionen (ab GPT-4) in Betracht zu ziehen, da diese konsistent eine höhere Genauigkeit und Leitlinienkonformität gezeigt haben. Gleichzeitig offenbarten einzelne Arbeiten Schwächen in Detailfragen oder veraltete Inhalte, was auf die Grenzen und potenzielle Variabilität der Antwortqualität hinweist [8], [9]. Was LLMs von bisherigen digitalen Tools unterscheidet, ist ihre Fähigkeit, große Mengen unstrukturierter Informationen, wie z. B. Anamnese, Laborwerte, Leitlinientexte, kontextsensitiv zu verarbeiten und in natürlicher Sprache wiederzugeben. Diese Sprachverarbeitung eröffnet neue Wege der Interaktion: Patient*innen und Ärzt*innen können komplexe Fragen frei formulieren und erhalten strukturierte, evidenzbasierte Antworten, die idealerweise nicht nur korrekt, sondern auch leicht verständlich sind. Perspektivisch können LLMs dazu beitragen, Wissen zugänglicher und anwendbarer zu machen, indem sie gezielte Fragen beantworten. Wir gehen davon aus, dass sich durch den Einsatz von LLMs und künstlicher Intelligenz allgemein die klassische Arzt-Patienten-Beziehung zu einer Dreiecksbeziehung mit KI als neuem dritten Partner entwickeln wird [16].

Dem erheblichen Potential stehen einige Herausforderungen gegenüber [17]. Besonders herausfordernd ist die fehlende Erklärbarkeit der Modellentscheidungen. Während klassische Systeme offenlegen, welche Regeln zu einer Empfehlung geführt haben, bleibt die Entscheidungslogik eines LLMs meist undurchsichtig. Fachkräfte müssen darauf vertrauen, dass das Modell korrekt gearbeitet hat und jede Empfehlung selbst gegenprüfen. Dieses Black-Box-Problem wird gerade im medizinischen Kontext als besonders kritisch gesehen. Hinzu kommen potenzielle Verzerrungen in den Antworten. Wenn Trainingsdaten bestimmte Patientengruppen (etwa sehr alte Menschen oder ethnische Minderheiten) unterrepräsentieren, besteht die Gefahr, dass auch die Empfehlungen für diese Gruppen unzureichend sind.

Ein weiterer Aspekt betrifft den Datenschutz. Da die aktuell am häufigsten genutzten LLMs meist cloudbasiert genutzt werden, besteht bei Eingabe patientenbezogener Daten ein reales Risiko der Datenpreisgabe [6]. Diese datenschutzrechtliche Unsicherheit hat bereits dazu geführt, dass erste Kliniken die Nutzung von generischen LLMs in sensiblen Kontexten untersagen. Schließlich stellt auch der sogenannte Automation Bias ein nicht zu unterschätzendes Risiko dar: Wenn ein System in den meisten Fällen korrekte Informationen liefert, wächst die Gefahr, dass seine Empfehlungen in Einzelfällen ungeprüft übernommen werden, selbst wenn sie fehlerhaft sind. Inzwischen wurden jedoch in Deutschland erste LLM-basierte medizinische Tools, wie Prof. Valmed als Medizinprodukt Klasse IIb zugelassen.

Während herkömmliche Clinical Decision Support Systeme (CDSS) wie der FRAX-Rechner nach festen Entscheidungsbäumen operieren, kann ein LLM individuelle Fallkonstellationen berücksichtigen und daraus umfassende, textbasierte Empfehlungen mit individuellen Begründungen ableiten [18]. Was ihnen allerdings fehlt, ist die strukturelle Nachvollziehbarkeit und die garantierte Validierung, die regelbasierte Systeme typischerweise mitbringen. Gerade bei sicherheitsrelevanten Entscheidungen kann das ein gewichtiger Nachteil sein. Es erscheint daher sinnvoll, nicht in Konkurrenz zu denken, sondern Synergien zu nutzen: Beispielsweise könnte ein CDSS eine Frakturrisikoabschätzung liefern, während ein LLM diese Information in eine patientengerechte Therapieempfehlung einbettet.

Limitationen

Die identifizierten Studien bieten wertvolle erste Einblicke, sind aber in ihrer Aussagekraft noch begrenzt. Keine einzige randomisiert kontrollierte Studie wurde identifiziert. Ebenfalls war die Mehrzahl der Studien nicht longitudinal oder multizentrisch angelegt. Die Evaluation erfolgte durch subjektive Bewertungsmethoden und es bleibt letztlich unklar, wie sich LLMs im klinischen Alltag tatsächlich bewähren: Verbessern sie die Qualität von Entscheidungen? Reduzieren sie Fehler? Ändern sie Therapieentscheidungen oder das Arzt-Patienten-Verhältnis? Auch die Patient:innenperspektive ist bislang kaum untersucht: Wie reagieren Patientinnen auf KI-generierte Empfehlungen? Fördert dies das Vertrauen oder eher Skepsis? Solche Fragen sind zentral für die zukünftige Rolle von LLMs in der Versorgung und bedürfen prospektiver Studien.



Fazit für die Praxis

In der aktuellen Entwicklungsstufe sollten LLMs nicht als Ersatz, sondern als ergänzende Werkzeuge verstanden werden. Sie können Ärzt:innen in der klinischen Praxis unterstützen, indem sie rasch relevante Informationen bereitstellen, komplexe Leitlinieninhalte verständlich zusammenfassen und bei der Kommunikation mit Patient:innen helfen. Diese Funktionen könnten insbesondere in zeitlich belasteten Situationen oder bei komplexen Fragestellungen eine wertvolle Entlastung bieten. Entscheidend bleibt jedoch, dass die Verantwortung für medizinische Entscheidungen beim Menschen liegt und jede LLM-generierte-Antwort muss kritisch geprüft und validiert werden. Langfristig könnten sich spezialisierte, medizinisch trainierte LLMs mit transparentem Entscheidungsweg, aktueller Wissensbasis und CE-Zertifizierung zu einem festen Bestandteil der Osteoporoseversorgung entwickeln. Bis dahin gilt es, Chancen und Risiken sorgfältig gegeneinander abzuwägen – im Interesse von Sicherheit, Qualität und Patientenwohl.



Interessenkonflikt

SK ist Gründer und Teilhaber von MED.digital.


Korrespondenzadresse

Univ.-Prof. Dr. med. Sebastian Kuhn, MME
Philipps-Universität Marburg
Insitut für Digitale Medizin
Universitätsklinikum Marburg
35037 Marburg
Germany   
Phone: +49 6421 5862589   

Publication History

Received: 25 July 2025

Accepted: 30 August 2025

Article published online:
14 November 2025

© 2025. Thieme. All rights reserved.

Georg Thieme Verlag KG
Oswald-Hesse-Straße 50, 70469 Stuttgart, Germany


Zoom
Abb. 1 PRISMA-Flussdiagramm des Literatur-Screenings.