Die Implementierung des auf internen Ratings basierenden (IRB) Ansatzes für die Eigenkapitalunterlegung für das Kreditrisiko gemäß Basel II birgt zahlreiche Herausforderungen für Banken, darunter die interne Einschätzung des Kreditrisikoprofils eines Schuldners in Form von Ausfallswahrscheinlichkeiten. Dadurch, dass für die meisten Firmenkunden einer Bank keine externen Ratings
und auch keine Marktdaten vorliegen, müssen Banken Modelle entwickeln, die mit Buchhaltungsdaten als Eingangswerten eine Evaluierung des Kreditrisikoprofils durchführen können. Sowohl in der Bankenpraxis als auch in der akademischen Literatur werden statistische Kreditrisikomodelle häufig verwendet um die Anforderungen von Basel II zu erfüllen und das Kreditrisiko von Firmenkunden zu quantifizieren. Das Grundprinzip statistischer Kreditrisikomodelle besteht darin, dass Bilanzdaten von lebenden und ausgefallenen Firmen über einen gewissen Zeithorizont benötigt werden um eine
Analyse bezüglich des Einflusses verschiedener Faktoren – Bilanzkennzahlen – auf die Kreditwürdigkeit durchführen zu können. Anschließend werden die Faktoren mit dem stärksten Einfluss mittels statistischer Verfahren gewichtet und
kombiniert um einen Score zu produzieren mittels dessen eine Aussage über die Ausfallswahrscheinlichkeit des Schuldners getroffen werden kann. In der vorliegenden Diplomarbeit werden die wichtigsten Aspekte solcher Modelle
behandelt. Es werden die möglichen statistischen Verfahren, die den Modellen zugrunde liegen, vorgestellt und es wird gezeigt warum in der heutigen Bankenpraxis Logit- und Probitmodelle am häufigsten verwendet werden. Der
Prozess der Variablenselektion wird dargestellt und Modelle sowohl aus der Theorie als auch aus der Praxis mit ihren verwendeten Inputvariablen präsentiert. Dabei ist zu erkennen, dass die Modelle sehr unterschiedlich sind und dass keine exakten Richtlinien existieren nach denen man ein perfektes Modell bauen kann und dass die endgültige Form eines Modells von dem Segment, für das man ein
Modell entwickelt, vom verwendeten Datensatz und auch vom Entwickler selbst abhängt. Es wird jedoch deutlich, dass die meisten Modelle auf ein Land fokussiert sind, nicht nach Industrien differenzieren und die Inputvariablen
hauptsächlich die Dimensionen Profitabilität, Fremdfinanzierungsgrad (Leverage)und Fremdkapitalabdeckung (Debt Coverage) beinhalten. Weiters wird gezeigt wie man im Rahmen der Modellkalibrierung die Ergebnisse der Modelle an
Ausfallswahrscheinlichkeiten knüpft. Dieser Prozess ist vor allem im Kontext von Basel II von hoher Relevanz. Da jedoch auch sichergestellt werden muss, dass auch nach der Entwicklung das Modell aussagekräftige Ergebnisse liefert, ist ein Kapitel dem von Basel II oft betonten Themenbereich Validierung gewidmet – es werden die in der Praxis verwendeten Techniken und Methoden zur Beurteilung
der Modelltrennschärfe sowie der Kalibrierungsgenauigkeit vorgestellt und behandelt. Abschließend wird ein Überblick über alternative Ansätze zur Vorhersage von Unternehmensausfällen gegeben. Diese haben jedoch
entscheidende Nachteile, zum Beispiel die fehlende Transparenz von Neuronalen Netzen oder die Notwendigkeit von Marktdaten für strukturelle Modelle. Deshalb
bleiben auch in Zukunft statistische Kreditrisikomodelle eine äußerst beliebte Methode zur Quantifizierung des Kreditrisikos im großen Segment der Firmenkunden für die weder ein externes Rating, noch Marktdaten zur Verfügung
stehen.
Die Implementierung des auf internen Ratings basierenden (IRB) Ansatzes für die Eigenkapitalunterlegung für das Kreditrisiko gemäß Basel II birgt zahlreiche Herausforderungen für Banken, darunter die interne Einschätzung des Kreditrisikoprofils eines Schuldners in Form von Ausfallswahrscheinlichkeiten. Dadurch, dass für die meisten Firmenkunden einer Bank keine externen Ratings
und auch keine Marktdaten vorliegen, müssen Banken Modelle entwickeln, die mit Buchhaltungsdaten als Eingangswerten eine Evaluierung des Kreditrisikoprofils durchführen können. Sowohl in der Bankenpraxis als auch in der akademischen Literatur werden statistische Kreditrisikomodelle häufig verwendet um die Anforderungen von Basel II zu erfüllen und das Kreditrisiko von Firmenkunden zu quantifizieren. Das Grundprinzip statistischer Kreditrisikomodelle besteht darin, dass Bilanzdaten von lebenden und ausgefallenen Firmen über einen gewissen Zeithorizont benötigt werden um eine
Analyse bezüglich des Einflusses verschiedener Faktoren – Bilanzkennzahlen – auf die Kreditwürdigkeit durchführen zu können. Anschließend werden die Faktoren mit dem stärksten Einfluss mittels statistischer Verfahren gewichtet und
kombiniert um einen Score zu produzieren mittels dessen eine Aussage über die Ausfallswahrscheinlichkeit des Schuldners getroffen werden kann. In der vorliegenden Diplomarbeit werden die wichtigsten Aspekte solcher Modelle
behandelt. Es werden die möglichen statistischen Verfahren, die den Modellen zugrunde liegen, vorgestellt und es wird gezeigt warum in der heutigen Bankenpraxis Logit- und Probitmodelle am häufigsten verwendet werden. Der
Prozess der Variablenselektion wird dargestellt und Modelle sowohl aus der Theorie als auch aus der Praxis mit ihren verwendeten Inputvariablen präsentiert. Dabei ist zu erkennen, dass die Modelle sehr unterschiedlich sind und dass keine exakten Richtlinien existieren nach denen man ein perfektes Modell bauen kann und dass die endgültige Form eines Modells von dem Segment, für das man ein
Modell entwickelt, vom verwendeten Datensatz und auch vom Entwickler selbst abhängt. Es wird jedoch deutlich, dass die meisten Modelle auf ein Land fokussiert sind, nicht nach Industrien differenzieren und die Inputvariablen
hauptsächlich die Dimensionen Profitabilität, Fremdfinanzierungsgrad (Leverage)und Fremdkapitalabdeckung (Debt Coverage) beinhalten. Weiters wird gezeigt wie man im Rahmen der Modellkalibrierung die Ergebnisse der Modelle an
Ausfallswahrscheinlichkeiten knüpft. Dieser Prozess ist vor allem im Kontext von Basel II von hoher Relevanz. Da jedoch auch sichergestellt werden muss, dass auch nach der Entwicklung das Modell aussagekräftige Ergebnisse liefert, ist ein Kapitel dem von Basel II oft betonten Themenbereich Validierung gewidmet – es werden die in der Praxis verwendeten Techniken und Methoden zur Beurteilung
der Modelltrennschärfe sowie der Kalibrierungsgenauigkeit vorgestellt und behandelt. Abschließend wird ein Überblick über alternative Ansätze zur Vorhersage von Unternehmensausfällen gegeben. Diese haben jedoch
entscheidende Nachteile, zum Beispiel die fehlende Transparenz von Neuronalen Netzen oder die Notwendigkeit von Marktdaten für strukturelle Modelle. Deshalb
bleiben auch in Zukunft statistische Kreditrisikomodelle eine äußerst beliebte Methode zur Quantifizierung des Kreditrisikos im großen Segment der Firmenkunden für die weder ein externes Rating, noch Marktdaten zur Verfügung
stehen.