Z Orthop Unfall 2020; 158(S 01): S264-S265
DOI: 10.1055/s-0040-1717647
Vortrag
DKOU20-1258 Grundlagenforschung->28. Bildgebung - Navigation - Robotik

C-Arm Positionsbestimmung aus einem Röntgenbild mittels Deep Learning

S Andress
*   = präsentierender Autor
1   Klinikum Großhadern, Ludwig-Maximilians-Universität, München
,
H Esfandiari
2   Biomedical Engineering, University of British Columbia, Vancouver
,
M Herold
3   Fakultät für Mathematik, Informatik und Statistik, Ludwig-Maximilians-Universität, München
,
W Böcker
1   Klinikum Großhadern, Ludwig-Maximilians-Universität, München
,
AJ Hodgson
2   Biomedical Engineering, University of British Columbia, Vancouver
,
S Weidert
1   Klinikum Großhadern, Ludwig-Maximilians-Universität, München
› Author Affiliations
 
 

    Fragestellung: Viele chirurgische Eingriffe in der Unfallchirurgie und Orthopädie werden Fluoroskopie-gesteuert durchgeführt. Die Darstellung der anatomischen Leitstrukturen ist jedoch häufig ein zeit- und strahlenintensiver Faktor. Ausgehend von einem primären Röntgenbild wird sich dem angestrebten Strahlenfenster durch wiederholtes Röntgen angenähert.

    Zur Optimierung dieses Vorgangs ist eine Positionsbestimmung des C-Bogens zum Patienten-CT von Bedeutung, wonach die kommenden Bilder mittels Tracking dessen vorhergesagt werden können.

    Feature-Erkennung mittels Deep Learning ist in den letzten Jahren deutlich optimiert worden. Somit ist das Primärziel unserer Studie, die Positionsbestimmung hiermit zu erlangen. Außerdem soll dieser Vorgang auch zeitlich optimiert werden, da dies in der Akutbehandlung ein weiterer Faktor ist.

    Methodik: Ein Convolutional Neuronal Network (CNN) wird mittels Digitally Reconstructed Radiographs (DRR) aus einem Patienten-CT trainiert. Die DRR Bilder werden aus verschiedenen Positionen mit sechs Freiheitsgraden erstellt, welche als Label für das CNN genutzt werden.

    Es wird die laterale Aufnahmen für eine Perkutane Iliosakrale S1-Verschraubung als Neutralposition verwendet. Folgendes Koordinatensystem und Bewegungsfreiheiten werden definiert:

    • X-Achse: kranial nach kaudal; Translation ±50mm, Rotation ±22,5°

    • Y-Achse: dorsal nach ventral; Translation ±50mm, Rotation ±22,5°

    • Z-Achse: lateral nach medial; Translation ±200mm, Rotation ±45°

    Zunächst wird mittels 30016 synthetischen Röntgenbildern ein CNN Basismodel festgelegt. Hierbei werden alle Layer der folgende Architekturen für 15 Stunden trainiert (GPU 10GB, CPU 8x2.1Ghz): InceptionV3, MobileNetV2, NASNetMobile, ResNet50V2, VGG19. Als kombinierende Metrik wurde folgende eingeführt: Metrik = Translationsfehler (mm) + Rotationsfehler (rad) * 100 Anschließend wird das CNN mit dem besten Ergebnis mit zunehmender Anzahl an Bildern trainiert, um Genauigkeit und Trainingszeit zu korrelieren.

    Ergebnisse und Schlussfolgerung: Es konnte gezeigt werden, dass ResNet50 für diese Regressions-Aufgabe am besten geeignet scheint (CNN: Metrik):

    • Inception: 19.81

    • MobileNet: 11.97

    • NASNetMobile: 25.39

    • ResNet50: 10.21

    • VGG19: 14.98

    Zudem ist, wie in Abbildung 1 zu sehen, die visuelle Genauigkeit mit schon sehr wenigen Bildern sehr gut, steigt aber bei einer zunehmenden Anzahl. Hierbei erhöht sich die Trainings- und Bildgenerierungszeit jedoch drastisch, wie folgende Auflistung zeigt:

    • 1024: 00:12:47h

    • 3008: 01:05:01h

    • 10048: 01:15:30h

    • 30016: 03:27:12h

    • 100032: 17:42:16h

    Wir konnten zeigen, dass die Positionsbestimmung eines C-Arms zum Patienten-CT mittels Deep Learning anhand eines Röntgenbildes möglich ist. Die Genauigkeit erhöht sich jedoch bei zunehmender Bildanzahl, was jedoch auch die Trainingszeit drastisch verlängert.

    Stichwörter: Fluoroskopie, Navigation, Deep Learning, CNN, Künstliche Intelligenz


    #

    Publication History

    Article published online:
    15 October 2020

    © 2020. Thieme. All rights reserved.

    Georg Thieme Verlag KG
    Rüdigerstraße 14, 70469 Stuttgart, Germany