Abstract (deu)
Modelle des maschinellen Lernens werden zunehmend in verschiedenen Bereichen für entscheidungsintensive Prozesse hohen Risikos eingesetzt. Obwohl diese Modelle oft eine hohe Vorhersagegenauigkeit aufweisen, führt ihre komplexe Natur häufig zu einem Mangel an Interpretierbarkeit, was Barrieren für das menschliche Verständnis schafft und ethische Fragen aufwirft. In diesem Kontext wirken Störfaktoren (Confounder) als ein erschwerender Faktor, der die Interpretierbarkeit dieser Modelle weiter untergraben kann und sich auf Interpretationstechniken auswirken kann. Diese oft versteckten Faktoren können sowohl unabhängige als auch abhängige Variablen beeinflussen und die Zuverlässigkeit und Vertrauenswürdigkeit jeder abgeleiteten Interpretation beeinträchtigen. Üblicherweise regulieren oder berücksichtigen Forscher Störfaktoren, vernachlässigen jedoch oft interpretative Analysen solcher Modelle. Wenn interpretative Studien durchgeführt werden, bleibt die Auswirkung der Störfaktoren auf die Interpretationen weitgehend unerforscht und nicht quantifiziert. Daher besteht eine Untersuchungslücke im Verständnis, wie das Vorhandensein von konfundierenden Variablen die Interpretierbarkeit der Modelle beeinflussen könnte. Um diese Lücke zu schließen, bewertet diese Arbeit den Einfluss von konfundierenden Variablen auf die Interpretation von neuronalen Netzwerken in einem überwachten Umfeld, indem ICE-Diagramme und SHAP-Wert-Visualisierungen für neuronale Netzwerke gegenübergestellt und analysiert werden. Experimente zeigen, dass einfache vorwärts gerichtete neuronale Netzwerke empfindlich auf versteckte Konfundierung reagieren, insbesondere in Bezug auf die Relevanz der Variablen. Um diesen Problemen entgegenzuwirken, wird ein Modell auf Basis eines variationalen Autoencoders vorgestellt, das nahelegt, dass die Interpretationen aus diesem neuen Modell konsistenter und intuitiver sind als die aus anderen Modellen, wie anhand von verschiedenen Datensätzen verifiziert wurde. Die Ergebnisse zeigen, dass konfundierende Variablen den größten Einfluss auf die Bedeutsamkeit von Varaiblen haben, die stark korreliert sind.