Extremwertstatistik: Risikobewertung am Rande des Unmöglichen

Neue Erkenntnisse aus der IT- und OpRisk-Forschung

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Strenge Vorgaben der Behörden, wenige Daten und ein unbekannter Zufallsprozess: Diese Rahmenbedingungen lasten auf Banken bei der Risikobewertung. Wie löst man dieses Problem? Die Extremwertstatistik als Grundkonzept kann helfen, diese Aufgabe zu bewältigen.

Modernes Risikomanagement für Banken und Sparkassen

Modernes Risikomanagement für Banken und Sparkassen setzt auf neue Erkenntnisse aus der IT- und OpRisk-Forschung.

Partner des Bank Blogs

Die regulatorischen Vorgaben verlangen von den Banken und anderen Finanzinstituten eine Berechnung des Risikos bei sehr hohen Konfidenzniveaus. In der Praxis stellt sich die Frage, wie aus wenigen hundert Daten (bspw. Verluste in der Vergangenheit) bei einem Konfidenzniveau von bis zu 99,9% die Risikobewertung ohne Kenntnis des zugrundeliegenden Zufallsprozesses durchgeführt werden soll.

In der Konsequenz suchen die Banken somit ein geeignetes Modell für die beobachteten Verluste in der Vergangenheit, um daraus Aussagen über mögliche Verluste in der Zukunft abzuleiten.

Modellbau: Zwei Teilmodelle als Gesamtmodell

Als von den Aufsichtsbehörden tolerierte Näherung kann der unbekannte Zufallsprozess in eine zeitliche Komponente und eine wertebehaftete Komponente zerlegt werden.

Die Fragen:

  • „Wann tritt ein Verlust auf?“ und
  • „Wie groß ist er dann?“

dürfen also separat beantwortet werden.

Für die Beantwortung der Frage nach der Häufigkeit von Verlusten in einem Zeitraum wird oft die Poisson-Verteilung als statistisches Modell zugrunde gelegt. Die Parameter dieser Verteilung sind aus vorliegenden Daten sehr gut bestimmbar. Das erste Teilmodell steht also zügig zur Verfügung.

Ein Modell zur Beantwortung der Frage nach der Höhe der möglichen Verluste ist in der Konzeption deutlich kniffeliger. Hierbei geht es darum, ein geeignetes Grundmodell für die Verteilung der Verluste zu finden. Genauer: Banken sind an einem statistischen Modell für die Wahrscheinlichkeitsverteilungsfunktion der Verluste interessiert – aufgrund der großen Schar unterschiedlicher Verteilungen in der Statistik auf den ersten Blick eine schier unlösbare Aufgabe.

Der vom Baseler Komitee erlaubte Kniff: Eine separate Modellierung des Body (Hauptkörper) und des Tail (Außenbereich) der Verteilung.

Für die Risikobewertung bei hohen Konfidenzniveaus ist die Tail-Verteilung relevant. Für nahezu alle im Finanzbereich vorkommenden Verteilungen ist die Verteilung für den Tail eindeutig: die Verallgemeinerte Pareto-Verteilung aus der Extremwertstatistik. Für die Aufgabe der Risikobewertung ein unschätzbarer Vorteil. Es müssen lediglich die Parameter der Pareto-Verteilung aus den vorliegenden Daten für den Tail geschätzt werden. Das zweite Teilmodell ist also auch in greifbarer Nähe.

Doch, wo trennt sich die Verteilung der Schwere der Verluste in den Hauptteil und in den Außenbereich sehr großer Verluste?

In 6 Schritten zum Tail-Modell

Sechs Schritte führen von den Verlustdaten zu dem gewünschten zweiten Teilmodell für den Außenbereich der Verteilung:

  1. Sortieren der Daten
  2. Die zwei größten Verluste als Ausgangspunkt
  3. Bestimmung des Unterschieds zwischen Daten und Modell
  4. Sukzessive Berücksichtigung weiterer Verlustdaten
  5. Die Suche nach dem kleinsten Abstand
  6. Das Tail-Modell

1. Sortieren der Daten

Zur Vorbereitung werden die vorliegenden Verlustdaten vergangener Beobachtungsperioden der Größe nach sortiert. Es entsteht eine Liste von Verlusten, von groß zu klein.

2. Die zwei größten Verluste als Ausgangspunkt

Die beiden größten Verluste werden zur Bestimmung der Parameter der Pareto-Verteilung genutzt. Es entsteht ein erstes, noch mit Unsicherheiten behaftetes Modell des Außenbereichs der Verlustverteilung.

3. Bestimmung des Unterschieds zwischen Daten und Modell

Der Unterschied zwischen den Daten und dem Modell wird mit Hilfe eines speziellen Abstandsmaßes ermittelt. Das Abstandsmaß misst dabei die Abweichung zwischen modellierten und vorliegenden Daten.

Zur Wahl des geeigneten Abstandsmaßes gibt es hier weitere Informationen: Theorie und Anwendung.

4. Sukzessive Berücksichtigung weiterer Verlustdaten

Nach und nach werden weitere Verlustdaten aus der sortierten Liste hinzugenommen. Mit jedem neuen Verlustwert wächst der Datensatz für den betrachteten Außenbereich. Jeweils werden dabei die Pareto-Verteilung und das Abstandsmaß bestimmt. Somit entstehen neben der Liste der sortierten Daten zwei weitere Listen: Die Liste der Pareto-Verteilungen und die Liste des jeweils berechneten Abstands.

5. Die Suche nach dem kleinsten Abstand

Sind alle Verlustwerte im fünften Schritt bearbeitet worden, liegen drei Listen vor, deren Längen mit der Anzahl der Verlustdaten übereinstimmt. In der Liste der gemessenen Abstände gibt es einen minimalen Abstand. Zu diesem kleinsten Abstand gehört in der Liste der sortierten Verlustdaten ein spezieller Verlust. Dieser spezielle Verlust markiert die Schwelle, ab der sich der Body und der Tail der unbekannten zugrundeliegenden Verteilungsfunktion trennen lassen.

6. Das Tail-Modell

Ist der Schwellwert bekannt, findet sich in gleicher Reihe in der Liste der Pareto-Verteilungen das Modell für den Außenbereich der Verteilungsfunktion der Verluste. Das gesuchte zweite Teilmodell liegt damit vor.

Risikobewertung

Ist der zeitliche Aspekt von untergeordnetem Interesse, kann mit dem zweiten Teilmodell rasch die Risikobewertung durchgeführt werden.

Allgemein sind Verteilungen so aufgebaut, dass zu einer vorgegebenen Verlusthöhe die Wahrscheinlichkeit ausgerechnet werden kann, dass diese Höhe von zufällig eintretenden Verlusten nicht überschritten wird.

Für die Pareto-Verteilung ist es möglich, eine vorgegebene Wahrscheinlichkeit in eine zugehörige Verlusthöhe umzurechnen. Wird das regulatorisch vorgegebene Konfidenzniveau als Wahrscheinlichkeit interpretiert, kann mit der umgekehrten Pareto-Verteilung also eine entsprechende Verlusthöhe ermittelt werden. Statistisch ausgedrückt: Es wird eine Quantil-Funktion bestimmt und ausgewertet.

Die berechnete Verlusthöhe als Quantil bewertet somit für ein vorgegebenes Konfidenzniveau das Risiko. Letzteres kann in weiteren Rechnungsschritten verwendet werden, um z.B. das benötigte Eigenkapital zur Deckung des Risikos zu ermitteln.

Was ist zu beachten?

Die vorliegenden Verlustdaten sollten unabhängig sein und der gleichen, wenn auch unbekannten Verteilung gehorchen. Die Daten dürfen also z.B. keine Trends enthalten. Es empfiehlt sich, hierzu vorher einen statistischen Test durchzuführen.

Die Anzahl der Daten sollte eine Mindestgröße von rd. 100 Werten nicht unterschreiten. Für sehr kleine Datensätze sind andere Methoden (bspw. Expertenschätzungen) zielführender.

Die vorgestellte Risikobewertung ist eine Rückwärtsschau. Wenn sich nichts Grundlegendes an den Gegebenheiten ändert, kann damit eine Vorwärtsschau erfolgen.

Mit kleiner werdendem Datensatz geht eine zunehmende Überschätzung des Risikos einher. Diese Überschätzung kann beziffert und korrigiert werden. Mehr dazu findet sich hier.

Das Beste zum Schluss

Zur Bestimmung des Tail-Modells nach der vorgestellten Methode gibt es ein frei verfügbares Programmpaket in Python. Erfahrungsberichte hierzu gerne an die Autoren des Beitrags.


Dr. Ingo Hoffmann, Portfoliomanager, DZ Bank AG

Dr. Ingo Hoffmann

Dr. Ingo Hoffmann ist Koautor des Beitrags. Er ist Mitarbeiter der DZ BANK AG und dort mit Themen des Kapitalmarktes, sowie des Asset- und Risikomanagements betraut. Mit Prof. Börner forscht er gemeinsam im Gebiet des Risikomanagements mit institutionellen Fragestellungen an der Heinrich-Heine-Universität Düsseldorf am Lehrstuhl für Betriebswirtschaftslehre, insbesondere Finanzdienstleistungen, wo er auch einen Lehrauftrag innehat.

Über den Autor

Prof. Dr. Christoph J. Börner

Prof. Dr. Christoph J. Börner ist Inhaber des „Lehrstuhls für Betriebswirtschaftslehre, insbesondere Finanzdienstleistungen“ an der Heinrich-Heine-Universität Düsseldorf. In der Forschung liegen seine Schwerpunkte in den institutionellen und strategischen Entwicklungen der Finanzdienstleistungswirtschaft sowie im Zusammenspiel von Regulierung und Risikomanagement. Er hat Mandate bei verschiedenen Unternehmen, um die Praxisrelevanz von Forschung und Lehre zu gewährleisten.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren