Turbinenscheiben und viele andere Bauteile in der Luft- und Raumfahrt sind moderne Schmiedeprodukte. Sie müssen extremen Belastungen standhalten.

Foto: Imago / Marius Schwarz

Eine Turbinenscheibe muss extrem stabil und präzis gefertigt sein. Immerhin werden an dem in Flugzeugtriebwerken eingesetzten Bauteil die Rotorblätter angebracht. Würden sich diese während ihres Einsatzes lösen, würde das Flugzeug durchlöchert. Um ein Versagen des Bauteils – oder auch nur ein Verformen während der hohen Betriebstemperaturen – auszuschließen, muss es bis in seine Mikrostruktur hinein genau den Vorgaben entsprechen.

Turbinenscheiben und viele andere Bauteile in der Luft- und Raumfahrt sind moderne Schmiedeprodukte, gefertigt aus extrem belastbaren Superlegierungen, etwa mit hohen Titan- oder Nickelanteilen. Am Ende der Fertigungsstraße, in der die Werkstücke auf verschiedene Arten gepresst oder erhitzt werden, müssen sie haarscharf mit den Daten der technischen Planung übereinstimmen. Ansonsten werden sie zu Ausschuss oder müssen zumindest aufwendig nachbearbeitet werden – in beiden Fällen droht wirtschaftlicher Schaden.

Schmiedeprozesse digital abbilden

Im Projekt Brain (Brownfield Artificial Intelligence Network for Forging of High Quality Aerospace Components) arbeiten Experten des Forschungsunternehmens Know Center mit Kollegen der JKU Linz sowie mit Wirtschaftspartnern an neuen Technologien, um die Schmiedeprozesse digital abzubilden.

Entstehen beispielsweise ungewollte Abweichungen in der Fertigung der Werkstücke, sollen diese sofort registriert und ausgeglichen werden. Unterstützt wird das Projekt durch die Förderagentur FFG mit Mitteln des Innovationsministeriums.

Neben konventionellen numerischen Simulationen kommen neuartige Machine-Learning-Methoden zum Einsatz, um das Verhalten des Werkstücks während seiner Bearbeitung besser abschätzen zu können, erklärt Projektleiter Roman Kern, Leiter der Area Knowledge Discovery am Know Center. Die konventionellen Simulationsberechnungen, bei denen der zu modellierende Bereich in kleinere Elemente aufgeteilt und mittels physikalischer Gleichungen in Verbindung gebracht wird, hat einen Nachteil: Je genauer die Simulationen sein sollen, desto mehr Rechenzeit ist nötig.

Also verwenden die Forscher diese numerischen Simulationen als Basis für ein Machine-Learning-Modell. Anhand der Trainingsdaten soll das System eine möglichst schnelle und dennoch genaue Vorhersage treffen können, welche Ergebnisse eine numerische Berechnung bringen würde, erklärt Johannes Hoffer vom Know Center, der mit Kern an dem Projekt arbeitet.

Gleichzeitig, und das ist eine Besonderheit des Ansatzes, soll das Machine-Learning-System auch selbstständig erkennen, wie stark die Unsicherheiten des Ergebnisses sind und wo diese genau liegen. Dann kann eine weitere numerische Simulation folgen, um die punktuelle Unsicherheit auszumerzen.

Datenbeschaffung

Im Projekt wird eine Produktionsstraße eines Wirtschaftspartners mit der notwendigen Sensorik ausgestattet, um aus den resultierenden Daten im laufenden Betrieb auf die Eigenschaften von Turbinenscheibe und Co schließen zu können.

Die Nachrüstung der zum Teil älteren Anlagen wird von den Projektpartnern bei der JKU Linz übernommen. Die so gewonnenen Daten werden am Know Center zum Ausgangspunkt der Entwicklung: "Zurzeit arbeiten wir zum Beispiel daran, die Charakteristik einer Spindelpresse in unseren Modellen abzubilden", erklärt Hoffer.

Die abgebildeten Prozesse verhalten sich dabei selten linear. Kleinste Veränderungen der Parameter können große Auswirkungen im Werkstück haben – ein Umstand, dem die Simulationen natürlich gerecht werden müssen. Temperaturen oder Umformgeschwindigkeiten müssen exakt abgestimmt sein, um beispielsweise einen notwendigen Rekristallisationsprozess in den Werkstückmaterialien auszulösen.

Ziel der Forschung ist es letztendlich, das System auf die Echtzeitdaten einer laufenden Produktion anzuwenden. Veränderungen der Mikrostruktur in den Werkstücken werden dann laufend vorhergesagt, gleichzeitig überprüft aber auch ein Unsicherheitsmodell die Realitätsnähe der Machine-Learning-Ergebnisse. Mehrere der auf diese Art modellierten Prozessschritte sollen dann in einem übergeordneten Algorithmus verknüpft und voneinander abhängig gemacht werden. Kern: "Wir wollen wirklich den Gesamtprozess optimieren." (Alois Pumhösel, 25.9.2021)