Bild nicht mehr verfügbar.

Banken müssen heute vorsichtig durch die Finanzwelt steuern, um einen Kollaps wie 2008 zu verhindern. Komplexe Stresstests, die Schwachstellen der Bank aufzeigen, helfen dabei – und sind zugleich eine große Rechenaufgabe für die Risikomanager.

Foto: dpa / Frank Rumpenhorst

Spätestens seit der Finanzkrise des Jahres 2008 sind in den Bankinstituten Stresstests ein großes Thema. Bei diesem Risikomanagement-Werkzeug spielt man etwa verschiedene Szenarien durch, um Schwachstellen in Kapitalisierung, Veranlagungen und Geschäftsmodellen aufzuzeigen, die in schwierigen Zeiten zum Problem werden könnten. Eine Kettenreaktion am Finanzmarkt wie damals vor zwölf Jahren soll damit tunlichst verhindert werden.

Die Banken sind in vielen Aspekten mit dem Finanzmarkt verwoben. Zinsentwicklungen, Wechselkurse, Indizes und viele weitere Faktoren beeinflussen die Bilanzen. Als Risikomanager möchte man ein möglichst vollständiges Bild dieser Finanzlandschaft abbilden – was die Berechnungen kompliziert macht: so kompliziert, dass man eine eigene Strategie benötigt, um den Rechenaufwand zu bewältigen.

Für Steffen Finck, Leiter des Josef-Ressel-Zentrums für angewandtes wissenschaftliches Rechnen in Energie, Finanz und Logistik an der FH Vorarlberg, ist ein derartiger Stresstest ein "hochdimensionales Problem", das man am besten durch verteiltes und paralleles Rechnen löst.

In dem vom Wirtschaftsministerium unterstützten Ressel-Zentrum wurde ein Softwaresystem entwickelt, das diese Aufteilung großer Rechenprobleme leisten kann. Das "Distributed Execution Framework" (DEF) der Entwickler "zerhackt" die Aufgabe in viele kleine Tasks, die unabhängig und ohne Zwischenkommunikation gerechnet werden können.

Sie werden jeweils einem Rechenkern zugewiesen – beispielsweise in einem Unternehmensnetzwerk, wo derartige Analysen über Nacht laufen können, oder in einer Cloud-Umgebung. "Wir wollen mit unserem System die zum Teil sehr hohen Zugangshürden zu diesen Technologien überwinden helfen", erklärt Finck.

1000 Variablen

Gemeinsam mit einer lokalen Bank als Wirtschaftspartner haben Finck und Kollegen für die Anwendung des Frameworks in einem Stresstest über 1000 Variablen identifiziert, die makroökonomische Einflüsse repräsentieren. "Dazu kommt, dass die Analysen einen gewissen Zeitraum überblicken sollen", sagt Finck. "Man möchte sehen, was beispielsweise in den nächsten fünf Jahren passieren kann."

Das Modell, das auf diese Art die Situation abbildet, wird viele tausende Male – mit jeweils unterschiedlichen Ausgangswerten – durchgerechnet, um problematische Szenarien zu identifizieren. Geht man davon aus, dass ein Rechendurchgang etwa zehn Sekunden benötigt, kommt man bei 10.000 Durchgängen auf eine Dauer von bereits weit jenseits der 24 Stunden.

Bedeutend schneller geht es, wenn man die Berechnungen auf eine größere IT-Infrastruktur und damit auf viele verschiedene Rechenkerne verteilt. Jeder Modelldurchlauf des Stresstests wird so einer freien Einheit zugewiesen, die die Ergebnisse nach Absolvierung zurückmeldet. Im DEF lasse sich die Anzahl der Rechenkerne beliebig hochskalieren, so Finck. In einer Cloud-Umgebung könnten durchaus 1000 Prozessoren an den Modellrechnungen teilnehmen. Die 10.000 Durchgänge wären in diesem Fall in wenigen Minuten absolviert.

Das Programmieren von Aufgaben für parallele Infrastrukturen erfordert eigene Techniken. "Die Zugangshürde zu diesen Systemen ist zum Teil deshalb so hoch, weil man anders programmieren muss", sagt Finck. "Eine Innovation unserer Gruppe ist, dass wir versuchen, den Anwendern dieses parallele Programmieren zu einem Teil abzunehmen."

Der Nutzer bekommt also bereits viele Programmstrukturen ausgespielt, die er dann an seine Anwendung anpassen kann – und das bereits in jener Programmiersprache, in der der Anwender arbeitet. Das Framework spreche bereits fünf Sprachen und könne sich so an die lokalen Anforderungen anpassen, so Finck.

Stromverbrauch modellieren

Der Banken-Stresstest ist nicht der einzige Anwendungsfall. Auch für Modellierungen im Energiebereich wird das System adaptiert. Nachdem die durch Wind- und Sonnenkraft erzeugte Energiemenge fluktuiert, sollen sich künftig auch Haushalte – über den Anreiz entsprechender Strompreise – an die verfügbare Energiemenge anpassen.

Man spricht von Demand-Side-Management. Um dieses Prinzip zu optimieren, ist es für den Energieanbieter sinnvoll, seine Abnehmer in ein Rechenmodell zu verpacken und den Verbrauch der einzelnen Haushalte übers Jahr durchzurechnen – eine Aufgabe, die man wiederum gut an viele Recheneinheiten verteilen kann. (Alois Pumhösel, 7.10.2019)