Zusammenfassung
Röntgen-Thorax-Aufnahmen werden in der Medizin unter anderem für die Diagnose
von verschiedenen Herz- und Lungenerkrankungen genutzt. Im Bereich der künstlichen
Intelligenz spielen Convolutional Neural Networks für die Verarbeitung von Bilddaten
eine große Rolle. Bei einer Verarbeitung von Röntgen-Thorax-Aufnahmen werden diese
für das Erkennen von Pathologien genutzt. In dieser Arbeit wird hierarchische Multi-
Label Klassifizierung umgesetzt, um Röntgen-Aufnahmen des CheXpert Datensatzes
mit 14 Klassen einzuordnen. In dieser Arbeit wird das Konzept der Label Smoothing
Regularization und des konditionalen Trainings untersucht. Ersteres wird genutzt, um
unsichere Labels für das Training der Modelle verwenden zu können, indem diese durch
Werte nahe bei 0 und 1 ersetzt werden. Dabei wird ein Vergleich zu strikten Methoden
gezogen und eine neue Label Smoothing Methode U-Random getestet, welche unsichere
Labels durch zufällige Werte zwischen 0 und 1 ersetzt. Außerdem wird konditionales
Training umgesetzt, um die hierarchische Struktur der Pathologien zu nutzen.
Damit wird eine Klasse unter der Bedingung ihrer Eltern-Klasse betrachtet und die
Beziehungen zwischen Pathologien in das Training mit einbezogen. Basierend auf den
vortrainierten Keras Netzen DenseNet121 und EfficientNetB4, werden Modelle auf einem
eigens erstellten Datensplit des öffentlichen CheXpert Datensatzes trainiert und
evaluiert. Zusätzlich wird für die Evaluation das Validierungsset des CheXpert Datensatzes
herangezogen, um Vergleiche mit bestehenden Arbeiten zu ermöglichen. Die
neue Label Smoothing Regularization Methode U-Random erzielt den größten durchschnittlichen
AUC von 0,8695 auf dem Validierungsset, bei einem flachen Training von
EfficientNetB4. Diese erhält unter anderem bessere Ergebnisse als die Label Smoothing
Regularization Methoden U-Ones-LSR und U-Zeros-LSR, beispielsweise bei einem flachem
Training über 5 Epochen mit EfficientNetB4, sowohl bei der Evaluation auf dem
Testset, als auch auf dem Validierungsset. Das konditionale Training erlangt im Durchschnitt
niedrigere Ergebnisse als vergleichbares flaches Training der beiden Netze. Flaches
Training erreicht einen Durchschnitt über alle, im ersten Teil der Arbeit evaluierten
Methoden auf dem Testset, von 0,8194, während konditionales Training im Vergleich
einen AUC-Wert von 0,7954 erlangt. Die Verwendung von Label Smoothing Regularization
bewirkt geringe Verbesserungen der Ergebnisse bei dem Großteil der evaluierten
Modelle bei flachem Training. Ebenso zeigt sich eine geringe Steigerung der durchschnittlichen
AUC-Werte für das EfficientNetB4, im Vergleich zu flachem Training mit
DenseNet121. Schließlich wurden die erzielten Ergebnisse mit der bestehenden Arbeit
von Pham et al. 27 verglichen. Die darin erlangten Höchstwerte werden in dieser Arbeit
nicht erreicht, darin bestand jedoch nicht das Ziel der Arbeit. Das bestand darin,
neue Erkenntnisse im Bereich des konditionalen Trainings und der Label Smoothing
Regularization zu erlangen.
Nutzer