Automatische Bilderkennung hat in der Diagnostik großes Potenzial. Deep-Fake-Algorithmen helfen, die Datenbasis zu verbessern.

Foto: Getty Images / iStock / metamorworks

Wenn Kanzler Sebastian Kurz in letzter Zeit in Musikclips als Schlagerstar Udo Jürgens durch TV-Shows und Social Media geistert, deutet das weniger auf eine Karriere-Neuorientierung des Regierungschefs als auf eine äußerst potente Artificial-Intelligence-(AI)-Spielart hin: Sogenannte Deep Fakes lassen Gesichter, Mimik und Gesten in Videos täuschend echt von einer Person auf eine andere übertragen – zweifellos eine Technologie, die angesichts der oft gezielten Missinformation im Netz in der Zukunft noch einiges Kopfzerbrechen bereiten wird.

Doch die AI-Techniken, die hinter den Deep Fakes stecken, sind nicht nur zum Zweck der Unterhaltung oder der Irreführung gut. Sie können durchaus auch im Rahmen der Forschung wertvolle Dienste leisten – beispielsweise in der medizinischen Diagnostik. Dort versucht man Artificial-Intelligence-Algorithmen einzusetzen, um die Produkte bildgebender Verfahren, also beispielsweise von Röntgen-, MRT- oder CT-Bildern, schneller interpretieren zu können. Beispielsweise sollen Tumoren zielsicher erkannt und auf den Bildern markiert werden.

Auch das Projekt "KiaMed", in dem Forscher der FH Salzburg, unterstützt vom Land Salzburg, mit Unternehmenspartnern zusammenarbeiten, beschäftigt sich mit der AI-unterstützten Analyse medizinischer Bilddaten. "Es geht etwa darum, Klassifikationen durchzuführen, beispielsweise anhand von histologischen Bilddaten.

Oder es geht um Segmentierungen, sodass man in den Bildern Tumorgewebe identifizieren und dessen Grenzen zum Normalgewebe abstecken kann. Auch Quantifizierungen sind möglich. Hier geht man etwa der Frage nach, wie stark eine Abnormalität ist", erläutert Michael Gadermayr, Senior Lecturer am Studiengang Informationstechnik & Systemmanagement der FH, der gemeinsam mit Geja Oostingh vom Studiengang Biomedizinische Analytik an den medizinischen AI-Systemen forscht.

Lösung für Mangel an Trainingsdaten

Die AI-basierten Techniken, die auf speziell trainierte neuronale Netzwerke zurückgreifen, haben in der automatisierten Bildanalyse in den vergangenen Jahren nahezu alle anderen Verfahren verdrängt. Doch für die Entwicklung der jeweiligen Systeme ist man auf eine große Anzahl von Trainingsdaten angewiesen, was gerade im medizinischen Bereich oft zum Problem wird.

"Um ein System auf eine Klassifikation zu trainieren, würde man sich tausende Bilder pro Klasse wünschen. In den medizinischen Anwendungen stehen solche Mengen aber praktisch nie zur Verfügung", sagt Gadermayr. Gibt es öffentliche, frei verfügbare Datensätze, wie das in manchen Bereichen der Fall ist, stürzen sich dagegen ohnehin die vor Rechenkraft strotzenden Konzern-AI-Abteilungen von Google & Co darauf.

Um das Problem zu geringer Trainingsdatensätze zu umgehen, kommen nun jene Systeme zum Einsatz, die auch den Deep-Fake-Videos zugrunde liegen. Diese basieren im Prinzip auf sogenannten Adverserial Networks, also zwei "gegnerischen Netzwerken", die sich in einem zyklischen Training jeweils gegenseitig mit Input füttern und sich dabei optimieren, um die perfekte Täuschung herzustellen.

Das eine Netzwerk ist dabei ein generatives System, das versucht, eine bestmögliche Fälschung herzustellen, also beispielsweise Udo Jürgens mit dem Antlitz von Kanzler Kurz zu versehen. Das andere Netzwerk, ein sogenannter Diskriminator, prüft das Produkt dieses Vorgangs und versucht Fälschungen zu enttarnen. Wenn dieses Bewertungssystem Original und Fälschung nicht mehr unterscheiden kann, wird das generative System genutzt, um das gewünschte Bildmaterial zu erstellen.

Farbtricks

Bei den Medizindaten wird das Prinzip genutzt, um verschiedene Datenquellen, beispielsweise aus verschiedenen Scannertypen, aber auch aus verschiedenen bildgebenden Verfahren, zusammenzuführen und so die Anzahl der raren Trainingsdaten zu erhöhen. "AI-Netzwerke können nur schlecht generalisieren. Nur wenn man genug Daten hat, kann man eine größere Variabilität abdecken", sagt Gadermayr.

Bringt man aber verschiedene Daten, die sich beispielsweise durch eine scannerbedingte unterschiedliche Farbgebung unterscheiden, auf ein- und dieselbe Zielfarbe, erhöht sich die Datenbasis beträchtlich. Mit ihr kann nun das eigentliche AI-System gefüttert werden, das etwa eine Klassifikation durchführt.

Gerade auch bei der Erkennung von Tumoren kann der Aufwand zur Erstellung der Trainingsdaten reduziert werden. Um dem System zu "zeigen", wie das Krebsgewebe aussieht, müssen Mediziner auf den Histologie-Trainingsbildern entsprechende Annotationen machen.

Wenn nicht tausende Annotationen pro Färbung durchgeführt werden müssen, sondern diese verschiedenen Färbungen zu einem Trainingsdatensatz zusammengeführt werden können, ist das eine große Erleichterung. Die auf richtige Weise "gefälschten" Bilddaten können so zur Basis für eine bessere automatische Erkennung von Erkrankungen werden. (Alois Pumhösel, 3.5.2020)