Unveröffentlichtes Dokument,

Vergleich von konditionalem und flachem Training von CNNs zur Klassifikation von Röntgen-Thorax-Bildern mit verschiedenen Labeling-Methoden

.
(2021)

Zusammenfassung

Röntgen-Thorax-Aufnahmen werden in der Medizin unter anderem für die Diagnose von verschiedenen Herz- und Lungenerkrankungen genutzt. Im Bereich der künstlichen Intelligenz spielen Convolutional Neural Networks für die Verarbeitung von Bilddaten eine große Rolle. Bei einer Verarbeitung von Röntgen-Thorax-Aufnahmen werden diese für das Erkennen von Pathologien genutzt. In dieser Arbeit wird hierarchische Multi- Label Klassifizierung umgesetzt, um Röntgen-Aufnahmen des CheXpert Datensatzes mit 14 Klassen einzuordnen. In dieser Arbeit wird das Konzept der Label Smoothing Regularization und des konditionalen Trainings untersucht. Ersteres wird genutzt, um unsichere Labels für das Training der Modelle verwenden zu können, indem diese durch Werte nahe bei 0 und 1 ersetzt werden. Dabei wird ein Vergleich zu strikten Methoden gezogen und eine neue Label Smoothing Methode U-Random getestet, welche unsichere Labels durch zufällige Werte zwischen 0 und 1 ersetzt. Außerdem wird konditionales Training umgesetzt, um die hierarchische Struktur der Pathologien zu nutzen. Damit wird eine Klasse unter der Bedingung ihrer Eltern-Klasse betrachtet und die Beziehungen zwischen Pathologien in das Training mit einbezogen. Basierend auf den vortrainierten Keras Netzen DenseNet121 und EfficientNetB4, werden Modelle auf einem eigens erstellten Datensplit des öffentlichen CheXpert Datensatzes trainiert und evaluiert. Zusätzlich wird für die Evaluation das Validierungsset des CheXpert Datensatzes herangezogen, um Vergleiche mit bestehenden Arbeiten zu ermöglichen. Die neue Label Smoothing Regularization Methode U-Random erzielt den größten durchschnittlichen AUC von 0,8695 auf dem Validierungsset, bei einem flachen Training von EfficientNetB4. Diese erhält unter anderem bessere Ergebnisse als die Label Smoothing Regularization Methoden U-Ones-LSR und U-Zeros-LSR, beispielsweise bei einem flachem Training über 5 Epochen mit EfficientNetB4, sowohl bei der Evaluation auf dem Testset, als auch auf dem Validierungsset. Das konditionale Training erlangt im Durchschnitt niedrigere Ergebnisse als vergleichbares flaches Training der beiden Netze. Flaches Training erreicht einen Durchschnitt über alle, im ersten Teil der Arbeit evaluierten Methoden auf dem Testset, von 0,8194, während konditionales Training im Vergleich einen AUC-Wert von 0,7954 erlangt. Die Verwendung von Label Smoothing Regularization bewirkt geringe Verbesserungen der Ergebnisse bei dem Großteil der evaluierten Modelle bei flachem Training. Ebenso zeigt sich eine geringe Steigerung der durchschnittlichen AUC-Werte für das EfficientNetB4, im Vergleich zu flachem Training mit DenseNet121. Schließlich wurden die erzielten Ergebnisse mit der bestehenden Arbeit von Pham et al. 27 verglichen. Die darin erlangten Höchstwerte werden in dieser Arbeit nicht erreicht, darin bestand jedoch nicht das Ziel der Arbeit. Das bestand darin, neue Erkenntnisse im Bereich des konditionalen Trainings und der Label Smoothing Regularization zu erlangen.

Tags

Nutzer

  • @hekalo

Kommentare und Rezensionen