RSS-Feed abonnieren
DOI: 10.1055/a-2367-6500
Künstliche Intelligenz im Kontext nicht-übertragbarer Erkrankungen – Chancen und Risiken
Artificial Intelligence in the Context of Noncommunicable Diseases – Opportunities and RisksZusammenfassung
Nicht-übertragbare chronische Krankheiten (NCDs) und ihre Folgen sind die größte Bedrohung für unser derzeitiges Gesundheitssystem. Daher sind Lösungen ihrer effektiven Prävention, einzelne Verläufe sowie Risiko-Individuen frühzeitig zu erkennen und effizient zu behandeln. Dazu müssen wir neue Zusammenhänge zwischen und innerhalb einzelner NCDs besser verstehen und dies sind große Perspektiven von KI und einer Digitalisierung des Gesundheitswesens.
Vertrauen in KI bei der Bevölkerung muss u. a. durch klare transparente Regeln gestaltet werden. Risiken sind u. a. Missbrauch, der nur durch strikte Strafverfolgung seitens der Gesetzgeber, und durch Transparenz der Anbieter und Verwender von KI vorgebeugt werden können. Zudem kann medizinisch nur Vertrauen geschaffen werden, indem KI-Anwendungen rigoros durch transparente wissenschaftlich Studien differenziert evaluiert werden, um den Stellenwert einzelner Angebote im Spektrum der medizinischen und präventiven Maßnahmen festlegen zu können.
Eine Medizin mit sinnvoller und evaluierter KI wird eine „bessere“ und effizientere Medizin sein. Dieser Gestaltwandel in der Versorgung und Prävention wird nicht ohne KIs möglich sein. Daher ist es höchste Zeit, dass wir diese zum Nutzen unseres medizinisch-präventiven Handelns gestalten und regeln.
Summary
Noncommunicable diseases (NCDs) and their sequelae are the greatest burden to our current healthcare system. Therefore, solutions for their effective prevention, efficient treatment, early identification of new clinical trajectories and at-risk individuals are essential. Therefore, we need to better understand new relations between and novel pathways within NCDs and these are great perspectives for AI and the digitalization of the healthcare system.
Trust in AI among the population must be shaped by clear, transparent rules, among other things. Risks include misuse, which can only be prevented by strict law enforcement on the part of legislators and transparency on the part of providers and users of AI. In addition, trust can only be created medically if AI applications are rigorously evaluated in a differentiated manner through transparent scientific studies in order to be able to determine the significance of individual offerings in the spectrum of medical and preventative measures.
Medicine with sensible and evaluated AI will be a “better” and more efficient medicine. This transformation in healthcare and prevention will not be possible without AIs. Moreover, it is time that we regulate and shape this for the benefit of our medical and preventive activities.
Publikationsverlauf
Artikel online veröffentlicht:
20. September 2024
© 2024. Thieme. All rights reserved.
Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart,
Germany
-
Literatur
- 1 Kueh MT, Chew NW, Al-Ozairi E. et al. The emergence of obesity in type 1 diabetes. International Journal of Obesity 2024; 48: 289-301
- 2 VanWagner LB, Wilcox JE, Ning H. et al. Longitudinal association of non-alcoholic fatty liver disease with changes in myocardial structure and function: the CARDIA study. Journal of the American Heart Association 2020; 9: e014279
- 3 Rao VN, Zhao D, Allison MA. et al. Adiposity and incident heart failure and its subtypes: MESA (Multi-Ethnic Study of Atherosclerosis). JACC: Heart Failure 2018; 6: 999-1007
- 4 Saux P, Bauvin P, Raverdy V. et al. Development and validation of an interpretable machine learning-based calculator for predicting 5-year weight trajectories after bariatric surgery: a multinational retrospective cohort SOPHIA study. The Lancet Digital Health 2023; 5: e692-e702
- 5 Loomba R, Hartman ML, Lawitz EJ. et al. Tirzepatide for Metabolic Dysfunction–Associated Steatohepatitis with Liver Fibrosis. New England Journal of Medicine 2024;
- 6 Armstrong MJ, Gaunt P, Aithal GP. et al. Liraglutide safety and efficacy in patients with non-alcoholic steatohepatitis (LEAN): a multicentre, double-blind, randomised, placebo-controlled phase 2 study. The Lancet 2016; 387: 679-690
- 7 Newsome PN, Buchholtz K, Cusi K. et al. A placebo-controlled trial of subcutaneous semaglutide in nonalcoholic steatohepatitis. New England Journal of Medicine 2021; 384: 1113-1124
- 8 Brauer M, Roth GA, Aravkin AY. et al. Global burden and strength of evidence for 88 risk factors in 204 countries and 811 subnational locations, 1990–2021: a systematic analysis for the Global Burden of Disease Study 2021. The Lancet 2024; 403: 2162-2203
- 9 European Commission. (2021) Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. COM/2021/206 final https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
- 10 Collins GS, Moons KG, Dhiman P. et al. TRIPOD+AI statement: updated guidance for reporting clinical prediction models that use regression or machine learning methods. bmj 2024; 385
- 11 Reporting guidelines for clinical trials evaluating artificial intelligence interventions are needed. Nature Medicine. 2019 25. 1467-1468
- 12 Sounderajah V, Ashrafian H, Aggarwal R. et al. Developing specific reporting guidelines for diagnostic accuracy studies assessing AI interventions: The STARD-AI Steering Group. Nature medicine 2020; 26: 807-808
- 13 Delfin C, Dragan I, Kuznetsov D. et al. A Federated Database for Obesity Research: An IMI-SOPHIA Study. Life 2024; 14: 262
- 14 Sempionatto JR, Lin M, Yin L. et al. An epidermal patch for the simultaneous monitoring of haemodynamic and metabolic biomarkers. Nature Biomedical Engineering 2021; 5: 737-748
- 15 Kommission Digitalisierung für die Deutsche Diabetes Gesellschaft. Kodex der Deutschen Diabetes Gesellschaft (DDG) zur Digitalisierung: Update 2023. Diabetol Stoffwechs 2023; 18: 394-400